votre avatar Abonné

SwAY256

est avec nous depuis le 8 septembre 2016 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

190 commentaires

Le 15/04/2024 à 22h 26

Merci pour cet article qui clarifie les choses. C'est un sujet qui sera à surveiller sur les évolutions futures des gpus.

Jensen Huang Blackwell

Le 21/03/2024 à 13h 13

En utilisant un bête produit scalaire entre deux vecteurs sur un kernel fait main, et non en utilisant les fonctions dédiées. Le kernel fait main te permet de régler plus finement la saturation des unités FMA. Tu peux le vérifier à la fois avec l'assembleur produit par le compilateur du GPU et le résultat que tu obtiens en terme de FLOPS.

La multiplication de matrice peut difficilement atteindre les perfs max. à cause du besoin de transposition d'une des matrices pour le produit, et d'accès mémoires plus coûteux. C'est pourquoi je préfère bêtement faire un produit scalaire sur des vecteurs à n-dimensions car, en dehors du chargement mémoire (mais le prefetcher sont redoutables), le FLOPS est uniquement du FMA. Mais je maintiens qu'il ne s'agit que d'un test pour vérifier les perfs annoncés par le constructeur. En pratique, ce test ne représente pas la réalité ou l'usage commun (éventuellement en IA mais j'en doute).

Les algos de FFT sont plus basées sur de la permutation de lanes SIMD que du FMA. La mesure en FLOPS est moins pertinente pour ces algorithmes, mais pas dénué d’intérêt.

LINPACK mesure les perfs sur un type de calculs très commun dans les milieux scientifiques et industrielles ( de mémoire, c'est de l'inversion de matrice dense). Le but de LINPACK est d'être représentatif des calculs les plus utilisées, pas de chercher à atteindre les perf max. vendus par le constructeur. C'est plutôt le rôle de ce "bête" benchmark c = vec{a} \dot \vec{b} de vérifier ceci.

La transpo est une option définie par les paramètres transa et transb. Je suppose que lors qu'ils sont mis sur 'N', un if fait passer l'exécution sans trabspo.

Ce qui va dans ce sens c'est que j'obtiens plus ou moins les même performances avec ce code qui fait de la multiplication sans transpo, donc comme pleins de produits scalaires :

https://gist.github.com/raytroop/120e2d175d95f82edbee436374293420

Si tu as plus optimal, je suis preneur 🙂

Le 20/03/2024 à 23h 44

Je sais pas si ça peut répondre à ta question pour du split-step (résolution d'EDP par des méthodes pseudo-spectrales ?).

Pour ma part quand je dois faire cette exercice, je mesure les FLOPS de mon code et je calcule le FLOPS_de_mon_code/FLOPS_theorique, ayant pris soin de vérifier que j'arrive à retrouver les FLOPS_theoriques (typiquement, je trouve ~99% des perfs théoriques). De là, je me sers de ce ratio pour le multiplier par les perfs théoriques du constructeur pour un autre modèle pour estimer les FLOPS que je vais disposer pour mon code, et de la estimer le temps.

Ce n'est pas parfait comme méthode. Elle a des limitations et fait des hypothèses mais en pratique, l'ordre de grandeur est correct.

Pour l'aspect mémoire (quand la limitation est plus memory bound), j'utilise le throughput (GB/s) dont je calcule un ratio par rapport aux perfs théoriques. Les limitations sont les même qu'au-dessous. A noter, qu'avec la mémoire, l'ordre de grandeur est parfois moins fiable qu'avec le FLOP.

Mes deux cents.

Tu es sûr de ton coup ? Comment tu arrives à 99% du théorique ? Même les la fonction gemm de cublas plafonne à 80-90% des perfs théorique et c'est de la multiplication de matrices, il n'y a pas plus efficace, que ça soit sur gpu ou cpu (ça fait d'ailleurs parti du fameux bench LINPACK).

Et sur cuFFT je suis plutôt à 30/40%.

Le 20/03/2024 à 23h 41

L'ennui c'est que le V100, le dernier GPU vraiment taillé pour le FP64 n'est plus produit, et il date de 2017. On se retrouve sacrément dans le flou quand on veut mettre à jour ses serveurs de calcul (typiquement pour du split-step), et qu'on doit comparer torchons et serviettes sans avoir de données claires.
J'en viens à envisager de tester des codes de benchs pour quelques heures sur des offres de cloud computing (pour ne pas me tromper dans l'achat), mais c'est dur à trouver et encore assez cher.
Là je dois renouveler un serveur, et je ne sais pas comment comparer les perfs FP32/64 entre les V100, les RTX A6000 Ampere, les RTX 6000 Ada, et les H100.

Tu veux dire le dernier GPU "accessible" qui sait faire du FP64 :) Effectivement pour bencher le H100 c'est pas con de prendre qq heures en cloud.

Le 19/03/2024 à 21h 32

En même temps, ici c'est une puce dédié ou presque à l'IA donc ça parait logique

Pas à la base.

Le premier GPU spécifiquement fait pour le GPU computing était le GP100 (architecture Pascal), qui se distinguait des GP102/104 qui GPU orienté graphique par la mémoire HBM2 et surtout par le support du FP64 à la moitié de la vitesse du FP32, alors que la vitesse du FP64 sur les GPU grand publique est divisé par 32 par rapport au FP32. C'est cette perfo en FP64 qu'on cherchait en achetant ces GPU.

Même après le virage vers l'IA, ces GPUs orienté computing ont toujours gardé ce support à demi vitesse du FP64, sur les GV100, A100, et H100. Je suppose que c'est toujours le cas sur le nouveau GB100, mais ce n'est pas encore clairement annoncé.

Mais vince120 a raison, nous on est "acquis", faute de concurrence malheureusement et ils préfèrent faire la danse du ventre devant les data scientists qui sont en pleine croissance.

Le 19/03/2024 à 13h 31

C'est dommage que Nvidia ne prenne même plus la peine de montrer les performances en F32/64 hors tensorcore.

Alors d'accord ça va faire moins rêver et de plus l'IA est devenu le principal moteur de vente sur ces puces, mais nous autres clients qui utilisons leur GPU pour du compute depuis presque 15 ans nous sentons un peu trahis 🫤

Licenciement

Le 22/01/2024 à 08h 04

Ils "éliminent" juste le poste ou le salarié qui va avec ? :-D

une Tesla model S bordeaux en mouvement

Le 30/12/2023 à 15h 09

Le "nombre de rappels". Le nombre de défauts pour lesquels un rappel a été fait dans l'union européenne. Oui, je sais, assez "meh" comme métrique. Pas le nombre de véhicules concernés à chaque rappel, pas de rapport entre rappels et modèles, ou rappels et ventes. Et je ne me sentais pas le courage de passer des semaines à les construire à partir de ce que je trouve sur Internet (mais je suis preneur si quelqu'un a déjà fait le travail :D).

Ceci dit, les ventes mondiales de Tesla sont (en volumes) du même ordre que les constructeurs européens maintenant (~1M/an), donc ce n'est plus un petit constructeur.

Oui mais c'est une marque en progression donc le nombre de véhicules en circulation est nettement inférieur aux masques historiques. Et en plus, le sujet même de l'article dit que tesla faut tout pour le pas rappeler ses véhicules, même quand un défaut majeur est repéré, donc pas sûr que cette métrique soit pertinente.

Logo de Gaia-X sour la forme d’un arbre, avec la légende : infrastructure de données en forme de réseau

Le 04/12/2023 à 21h 52

Vous n’allez pas vous créer toute une plateforme codée par vos soins pour mettre vos données dans l’écosystème d’Airbus. C’est le genre de solution qui très très concrètement commence à apporter de la valeur des acteurs de data sets ». « On est dans ce qu’on appelle money time

-> quelq'un pourrait me traduire ça ? Je comprends rien...

Des centaines d'accidents du travail à SpaceX depuis 2014

Le 14/11/2023 à 11h 44


Mihashi a dit:


Oubli d’un mot dans la traduction : “Raptor V2 rocket engine” (signalé)




Je comprends mieux :mdr:


Le 13/11/2023 à 20h 51


Alors que l’entreprise faisait des essais de pression sur un moteur de fusée V2




Fusée V2 ?!


INA 70 : vous pouvez « (re-)devenir un téléspectateur des années 1970 »

Le 11/11/2023 à 15h 46

La trilogie du samedi de la fin des années 90, c’est toute mon enfance là, tu m’as mis un gros coup de nostalgie :)


TOO (Tixeo, Oodrive et Olvid) : ambitions de la suite collaborative « sécurisée et souveraine »

Le 19/10/2023 à 12h 31

Le client linux pour ma part.


Le 19/10/2023 à 08h 12

Je ne sais pas pour oodrive et olvid, mais on utilise tixeo dans ma boîte sur un réseau sécurisé et ça marche super bien.


Voitures électriques chinoises : les griefs de l’Europe, le risque d’un préjudice, les mesures antisubventions

Le 06/10/2023 à 18h 47

je faisais le troll…
Je voulais montrer à quel point l’idéologie de “sauver la planète” pouvait aller très très loin, au niveau même d’un manque de considération de l’Humain qui ne serait plus qu’une variable d’ajustement au nom d’une “cause supérieure”.



Personnellement, je m’en moque, je suis en train de solder mes crédits pour être mobile si les restrictions climatiques/idéologiques sont trop grandes ou que la France est trop perdante et offre une trop mauvaise qualité de vie.



Ne pas avoir de véhiculer particulier (voiture notamment) au nom de l’écologie est une chose que ni moi, ni mes enfants connaitront car nous sommes déjà en ordre de marche pour partir si nécessaire.
On attend de voir comment cela tourne, on verra bien.


On attend tous de connaître ta destination :D


Intelligence artificielle : Scaleway et OVHcloud font « all–in »

Le 28/09/2023 à 19h 32

Pour l’IA, il me semble qu’il est possible de faire fonctionner Tensorflow avec ROCm chez AMD mais je n’ai jamais testé.



Hors IA, ROCm reste malheureusement loin derrière CUDA niveau librairies.


Souveraineté et autonomie : l’Espagne épingle les forces et faiblesses de l’Europe

Le 21/09/2023 à 11h 59

Pour moi c’est un problème de masse et de volonté politique. Ce n’est pas un hasard si ce sont les États-Unis et la Chine qui sont en lead. L’Australie, la NZ font partie du “nouveau monde” et sont complètement asbents. Il faudrait une volonté politique forte de souveraineté au niveau européen. Mais comme, quoi qu’en en dise, cette volonté n’existe pas vraiment déjà au niveau français…


Après la bulle des cryptos, celle de l’IA générative ?

Le 06/09/2023 à 19h 36


SebGF a dit:


Quand je dis qu’il comprend le contexte de la requête, c’est parce que son modèle de raisonnement agit par déconstruction du prompt et analyse de celui-ci pour produire la suite. Chaque mot est analysé unitairement par rapport à celui qui le précède avec une attention déterminée par un jeu de poids et de probabilités, vérifiant les concordances de mots en fonction des clés qui les lient, les valeurs obtenues sont mixées ensemble et derrière il produit la prédiction finale du prochain mot. GPT utilise 12 ensembles par mot pour évaluer le contexte (c’est l’étape du decoder), concaténer les possibilités et produire le résultat final.




Je suis d’accord avec toi de ce point de vue pour utiliser “comprendre” dans le sens où c’est synonyme de trouver la bonne relation entre les mots du prompt qui permet de produire une suite qui a le plus de sens d’un point de vu niveau statistique.



C’est juste qu’il est différent du “comprendre” que j’avais en tête et qui serait l’équivalent de se faire une représentation mentale du problème qui est derrière le texte de manière à y appliquer un raisonnement logique, mathématique ou intuitif qui permettrait de sortir une réponse correcte même si elle n’a jamais été vu/apprise auparavant (ça arrive parfois chez les humains) alors que ça n’arrivera jamais avec les LLMs.



Mais comme tu le dis, les LLMs ne sont pas fait pour répondre à des questions, c’est une utilisation détournée.


Le 06/09/2023 à 15h 46


ClM a dit:


Une vidéo intéressante qui prend le temps de détailler ce que l’on met derrière le terme “comprendre” et comment il peut s’appliquer, ou non, à ChatGPT.



https://www.youtube.com/watch?v=_XJsAQsT0Bo




Merci pour le lien, vidéo très intéressante.




SebGF a dit:


Dans la mesure où ce débat existe aussi au sein de la recherche sur l’intelligence artificielle, on risque d’être difficilement d’accord. J’ai exposé mon point de vue de personne utilisant ces outils depuis le début de l’année (que ce soit ChatGPT, celui de Bing, le Copilot de GitHub, LLaMA sur ma machine, ou encore StableDiffusion aussi sur ma machine) et étudiant aussi leur intégration concrète dans un SI avec leurs forces et faiblesses.




Comme dit dans la vidéo ci-dessus, il y a plusieurs sens au mot comprendre et nous n’utilisons sans doute pas le même.



De mon côté, un exemple qui fait que je pêche du côté “ChatGPT ne comprend pas”, c’est qu’il y a quelques mois, j’ai posé une question sur une question très spécifique sur de l’éléctronique / traitement de signal pour lequel je sais qu’on ne trouve rien ou quasi rien sur internet. Une personne qui comprendrait le fond de ma question et qui n’est pas du domaine m’aurait répondu “je ne sais pas, je n’y connais rien”. ChatGPT m’a répondu tout un texte grammaticalement juste, mais qui n’avait absolument aucun sens avec des éléments piochés ici et là à partir des mots que j’ai utilisé dans ma question.



Expérience à renouveler avec ChatGPT 4 ceci-dit.


Le 05/09/2023 à 21h 56

Je ne suis pas d’accord avec ton exemple. Tu vas essayer de déduire de l’environnement, de l’heure, de la gestuelle ce qui disent des personnes dont tu ne comprends pas le langage. ChatGPT va simplement trouver la suite de caractères qui corrèle le mieux avec la suite bde caractère que tu lui as envoyé, en utilisant les milliards de milliards de suites de caractères qu’il a scanné sur le net. C’est bluffant et on a l’impression qu’il “comprend” ce qu’on lui demande mais il n’y a aucune comprehension là dedans !


Le 05/09/2023 à 21h 42

J’allais dire la meme chose, “comprendre” n’est clairement pas le bon mot à utiliser.


C’est terminé pour les Pages Perso d’Orange

Le 05/09/2023 à 18h 38

Idem toujours les accès depuis plus de 20 ans (sic). Espérons que ça dure !


Tensor Processing Unit (TPU) v5e de Google Cloud : plus performant que les v4 ? Oui… et non

Le 30/08/2023 à 13h 38

Je ne connais pas les TPU de Google mais chez NVIDIA les “tensor cores” sont des unités spécialisées dans la multiplication matrice-matrice de petites tailles en faible précision. Je suppose que c’est pareil chez Google.


La précision des images des satellites commerciaux américains n’est plus bridée

Le 27/08/2023 à 07h 18

Attention à ne pas comparer des résolution d’images radar et d’images optique. Les technologies de capteurs sont très différentes, dans le cas du radar, c’est le satellite qui éclaire la scène alors qu’en optique c’est purement passif.



Si on devait comparer à une solution européenne ce que propose UmbraSpace, il faudrait le faire avec ICEYE (20cm) et non pas avec Pléiades.


Tesla rattrapé par ses promesses de sécurité et d’autonomie

Le 18/08/2023 à 14h 30

C’est pas que lié à Tesla, c’est une tendance globale de la radicalisation des discussions sur le Web. Avec l’effet de bulle des médias sociaux et la tendance à s’enfermer entre gens d’accords entre eux, la moindre critique devient une attaque.



Le web “social” c’est rien de plus que la dérive sectaire 2.0.



Si historiquement il y avait des débats houleux entre paroisses (“mac vs pc” etc), ça s’est accentué avec les murs dressés entre idées divergentes.


Très juste, mais j’ai l’impression que certaines marques/idées ont un effet sectaire plus important, par exemple, je ne pense pas que quelqu’un l’aurait insulté si j’avais émis la même critique à Toyota ou à Fiat.


Le 17/08/2023 à 20h 02

C’est clair. J’avais osé posté une réponse sur youtube où je disais une c’était pas une bonne idée de retirer les radars pour se baser uniquement sur les caméras. Trois fanboys m’étaient tombés dessus avec une virulence qui m’avait bien fait rire. On aurait dit que j’insultais leur mère. Je n’arrive pas à comprendre cette polarisation que cette entreprise/personnage provoque.


NVIDIA améliore son GH200 Grace Hopper Superchip avec 141 Go de HBM3e pour le GPU

Le 09/08/2023 à 09h 41

Sacré bestiau, le prix sera à la hauteur des performances.



Le 8 PFlops c’est du FP8 ?


Comment les sondes Voyager communiquent avec la Terre à 20 milliards de km

Le 07/08/2023 à 21h 17

@Ghimo, poursuis ton raisonnement jusqu’au bout et tu verras que l’effet Doppler est assez important :



Fd = Vr / lambda, si on prend 16600 m/s pour Vr et 4cm pour lambda, ça donne un décalage de 462 kHz soit pas loin de 0,5 MHz.



Mets toi sur ta station radio préférée, décale toi de 0,5 MHz, et tu verras que n’entendras plus ta radio, mais surement une autre radio ou rien du tout :)



Et même si le décalage était moins important, pour atteindre le maximum de sensibilité (fortement conseillé dans ce cas précis), il faut filtrer au plus juste autour de la bande de fréquence de réception, donc bien prendre en compte ce décalage.


Free abandonne son Player Devialet

Le 23/06/2023 à 07h 40

Hello,



je pense qu’il y a une erreur dans la description des forfait : l’offre Delta S ne comporte aucun player. Pour moi il y a 3 offres maintenant : Delta S (sans player), Delta Pop, et Delta AppleTV.


Kalray annonce son nouveau DPU Coolidge 2 « optimisé pour l'IA et le traitement intensif des données »

Le 16/06/2023 à 18h 47

Nous avons énomément travaillé sur notre compilateur et nos librairies ces 3 dernières années, pour notre processeur CoolidgeV1. Les retours de nos clients actuels sont très bons.



Coolidge V2 est une évolution et va donc bénéficier directement de ces amélioration.


J’ai hâte de voir ça :) Je pense qu’on refera une éval de la dernière version quand elle sortira.


Le 15/06/2023 à 12h 21

Dans ma boite on avait évalué leur puce bostan puis coolidge v1 il y a qq années. Malheureusement, le compilateur et les librairies n’étaient pas du tout au niveau du HW qui lui a l’air vraiment bien. En pratique ça rendait leur produit inutilisable pour notre application de traitement du signal embarqué.



J’espère qu’ils vont améliorer les choses de ce côté là.


Les seniors, des gamers comme les autres ?

Le 04/06/2023 à 19h 35

C’est même pas une question d’âge, même quand j’étais ado, je trouvais que ce forum rassemblait le bas fond de l’intelligence humaine :mdr:


Les nombres en informatique : entiers, virgule flottante, simple et double précision (FP32/64), Tensor Float (TF32)…

Le 01/06/2023 à 10h 53

Pourquoi vouloir le convertir ? De 10 bits, il passerait à 16 bits, avec 6 bits qui ne serviraient donc à rien ? (ou alors j’ai mal compris la question, c’est bien possible… )


Pour pouvoir faire mumuse avec un GPU :) bêtement j’aurais converti en fp32, mais j’ai l’impression qu’on ne perd pas de précision étant donné le nombre de bit de la mantisse en fp16


Le 01/06/2023 à 08h 55

Donc, si on convertit un signal codé sur 10 bit entier en FP16, on ne perd pas de précision si j’ai bien suivi ?


La CNIL inflige 5 millions d'euros d'astreinte à Clearview, mais comment contraindre à payer ?

Le 15/05/2023 à 18h 45

Il ne peut pas y avoir une action au niveau européen ? Ça m’a pas l’air très RGPD friendly tout ça.


Starship a décollé puis explosé

Le 21/04/2023 à 09h 01

C’est un peu inexact. Il y a des explosions de moteurs dès l’allumage, la fusée a commencé à décoller avec des moteurs en moins, en deviant dès le début de sa trajectoire.



Pendant la montée, on voit bien sur les télémesures de SpaceX qu’il y a 5 à 6 moteurs non fonctionnels et qu’il y a des explosions et un indendie entre les moteurs.


Messenger devrait bientôt revenir dans Facebook

Le 11/03/2023 à 07h 09

Bien vu !


Le 10/03/2023 à 16h 22

Je n’ai ni l’une ni l’autre application, car je passe uniquement par le navigateur. Sauf que Meta et ses pratiques détestables font qu’il n’est pas possible de consulter ses messages depuis un navigateur mobile… à moins de changer l’UA ou de passer dans la version “Desktop” du site :roll:


Idem. Dernièrement je n’arrive plus à passer en version desktop en cochant “version desktop” sur Firefox. Ça marche chez vous ?



Du coup je ne vais plus jamais sur Facebook et je ne m’en porte pas plus mal :D


TikTok : sa maison mère admet avoir espionné des journalistes

Le 27/12/2022 à 19h 38

Personne ne dit qu’ils sont gentils. Ils revendent les infos des utilisateurs (c’est leur business et c’est marqué dans les conditions d’utilisations) ou partagent leur bdd avec les services étatiques (c’est la loi), et peuvent faire preuve de négligence plus ou moins volontaires (Cambridge analytica) mais à ma connaissance ils ne se sont pas fait attrapé à fouiller les comptes de certains journalistes.


Next INpact vous souhaite un joyeux Noël, tous nos contenus en accès libre !

Le 24/12/2022 à 13h 15

Joyeux Noël !


Une alliance japonaise pour la nouvelle génération de puces

Le 15/11/2022 à 12h 25

Il y a 10 ans, Fujitsu faisait lui-même ses CPUs non ? https://en.wikipedia.org/wiki/SPARC64_V#SPARC64_VIIIfx



Le problème, c’est que la technologie a beaucoup évolué depuis 10 ans…


Oui. Effectivement ça a bien changé et pour le Japon, et pour l’Europe et les États-Unis. il y a 30 ans l’Europe produisait 40% des puces mondiales…


Le 14/11/2022 à 20h 18

Regarde donc par qui est fabriqué ce processeurs :chinois:


AMD annonce ses Radeon RX 7900XT(X) : un air de Zen et un zeste d’IA, dès 899 dollars

Le 04/11/2022 à 16h 20

Tiens il sera intéressant de voir si les AI engines seront utilisables pour faire de l’IA généraliste comme on peut le faire avec le tensor cores chez NVIDIA.


Ne dites plus Celeron ou Pentium mais Intel Processor

Le 19/09/2022 à 19h 02

:bravo:


Les « clouds de confiance » Bleu et S3ns seront bien soumis au Cloud Act américain

Le 02/09/2022 à 07h 05

On attend avec impatience la réponse du gouvernement interrogé à ce sujet. On va bien rigoler. :D


AMD : les Ryzen 7000 (Zen 4) disponibles le 27 septembre, dès 299 dollars

Le 01/09/2022 à 09h 58


(reply:2090770:Haken Trigger)




En fait, la présentation d’AMD ne donne pas d’information détaillée sur l’iGPU, je pensais qu’on aurait un “gros” iGPU comme sur les séries G. Mais d’après AnandTech :



“AMD has made it clear at multiple points that the iGPU for these desktop chips is a relatively small configuration for basic desktop work, and is not designed to be a high-performance GPU like on AMD’s APUs”



Dans ce cas là, je comprends mieux la stratégie.


Le 31/08/2022 à 20h 50

Ça implique un IOD significativement plus grand donc un coût de la puce supérieur.



Qui réclamait de l’avoir ? Rembrandt est sorti uniquement sur laptop il me semble. Avec les smartphone, les tablettes et les pc portables, aujourd’hui hormis les professionnels, la grande majorité des gens qui achète un PC au format tour sont les joueurs, et je doute que beaucoup de satisfassent d’un iGPU, fût-il RDNA2.


Le 31/08/2022 à 14h 43

Clairement, d’ailleurs mon 5600X est “downvolté” précisément pour cette raison, ca fait sensiblement baisser sa conso au repos (et augmenter sa fréquence max en pleine charge via le PBO mais c’est une autre histoire) et vu qu’il encaisse très bien ça aucune raison de s’en priver



Ca dépend, généralement faut surtout pas se jeter tout de suite sur le matos qui vient de sortir, déjà pour pas essuyer les plâtres de pilotes/bios dans le meilleur des cas en beta finale et ensuite pour laisser les pigeons se faire plumer avec les prix de lancement ultra gonflés (si je prend l’exemple de mon CPU je l’ai payé 300 balles en patientant quelques mois après sa sortie quand les pigeons qui se sont jetés dessus d’entrée ont pu le payer plus de 500 balles et qu’aujourd’hui avec un peu de patience on arrive à le trouver à moins de 200)



Il n’y a que pour les CG que c’est toujours la merde, là fabricants et détaillants se sont habitués à la clientèle des “mineurs de vent” capables de payer n’importe quel prix pour une CG vu qu’ils allaient pouvoir la rentabiliser de toutes façons sauf que depuis que les cryptos se cassent la gueule ce marché n’existe presque plus et va bien falloir que tout ce petit monde se résigne à remette les pieds sur terre sous peine de voir leur volume de vente s’effondrer.



Pareil, gâchis de silicium pour rien et qui pourrait éventuellement être employé pour quelque chose de plus utile (plus de cache ou autre) et conso supplémentaire inutile, à moins qu’il soit possible de couper totalement le jus à cette partie si on ne l’utilise pas mais j’en doute
Pour ceux qui veulent vraiment/ont besoin d’un IGP il y a les séries G chez AMD


Oui, je trouvais l’ancienne ligne d’AMD intelligente, et on voyait bien que les ventes de processeurs série G avec une partie CPU pussiante etaient relativement confidentielles.


Le 30/08/2022 à 15h 33

Je trouve dommage le retour de la partie GPU sur les CPUs haut de gamme. Ça va faire du silicium gâché pour pas mal de monde.


Starlink divise son prix par deux en France… et ajoute un « fair use » de 250 Go

Le 05/08/2022 à 08h 31

C’est dommage qu’il y ait ce ticket d’entrée. Mettre autant d’argent pour 1an ou 1,5 ans en attendant la fibre ça fait cher. Sinon le prix de l’abo devient intéressant.