Je suis allé voir par curiosité. Jusqu’en 2005, le Pay Out ratio d’Intel était très raisonnable ( < 20%). Après, ils ont ouvert les vannes : c’est monté en flèche pour osciller entre les 35% et 60% tous les ans. (et une fois à 87% !). Pendant longtemps, pour les boites de la Tech dans la Silicon Valley, le Pay-Out ratio c’était… 0% comme pour Microsoft, car ils disaient « nous, on réinvestis tous nos bénéfices chaque année. »
"Le P.O ratio est la part des bénéfices nets qui est versée aux actionnaires par rapport aux bénéfices net totaux."
POR = 87% : on ne garde que 13% des bénef nets de l’année pour les réinvestir dans la boite l’année suivante, le reste (87%), c'est pour les actionnaires.
Total est une boite connue pour avoir un POR assez élevé, une politique généreuse, entre 50% et 60% des bénefs sont reversés aux actionnaires chaque année, donc même si l'action monte peu, l'actionnaire a les dividendes à côté.
Merci pour l'éclaircissement !
Le
23/09/2024 à
10h
42
Intel va devenir un cas d'école => une entreprise qui fait entre 10 et 30 milliards de bénéfices par an pendant 10 ans et qui est en situation de quasi monopole arrive en quelques années à se retrouver dans une telle position de faiblesse. Remarque, il me semble que c'était un peu la même histoire pour IBM dans les années 90.
Les lasers sont pas forcément en lumière visible, et il y a des longueurs d'ondes moins sensibles que d'autres à certains obstacles.
La longueur d'onde joue très peu, on reste dans les mêmes ordres de grandeur. Tu peux regarder la Figure 4 de cette publication => https://core.ac.uk/download/pdf/30981131.pdf
On voit que, en fonction du type de nuage et de la longueur d'onde, l'atténuation est comprise entre 100dB/km et 600dB/km, ce qui est catastrophique pour un bilan de liaison de communication.
"The Chapters 2 and 3 have shown that it is very difficult to decrease cloud attenuation with wavelength selection."
En comparaison, l'atténuation des nuages en bande Ku (typiquement utilisée pour les satcom) est d'environ 0,1-0,2 dB/km : https://www.itu.int/dms_pubrec/itu-r/rec/p/R-REC-P.840-5-201202-S!!PDF-E.pdf
Ce qui est intéressant dans le premier article, c'est qu'ils donnent aussi le pourcentage de temps pendant lequel l’atténuation est considérée comme acceptable, au cours d'une année :
- 68 % pour Aix-en-Provence - 40% pour un site en Allemagne - 33 % pour Kiruna au nord de la Suède
Donc comme je disais plus haut, si t'as pas un besoin urgent de décharger les données, tu peux faire du laser, sinon il faut rester en bande radio.
Le
11/09/2024 à
14h
46
"elle est parfois perturbée par des turbulences atmosphériques" c'est peu dire ! Il y a intérêt à mettre la station sol dans une région où il fait très beau, parce qu'au moindre nuage, c'est la coupure de communication. Ça peut être intéressant pour un satellite d’observation qui enregistre des données et qui peut attendre plusieurs orbites le temps que la météo s'améliore, mais pour des communications, ou de l'observation où le temps de réaction est critique, la bande radio restera la norme.
Il faut ajouter que pendant l'interview, il a dit qu'à terme, les architectures GPU gaming et compute vont refusionner. AMD revient donc en arrière sur la stratégie à 2 architectures (CDNA et RDNA).
Une IEM ultra-directive, ça pourrait faire mal. La question c'est surtout de savoir si ça peut traverser l'atmosphère sans être trop diminuée.
En RF, pour les systèmes coûteux, on met toujours des limiteurs dernière les antennes de réception, qui si le signal dépasse un certain niveau agissent comme une résistance et transforment le courant électrique en chaleur. Pour détruire le système il faut arriver avec énormément de puissance pour faire griller ce limiteur.
Et le soucis c'est la directivité des ondes radio.
Un exemple : les lasers qui sont testés sur les navires de l'us navy pour détruire des drones ou des petites embarcations à quelques centaines de mètres mesurent environ 50cm de diamètre. Pour obtenir la même directivité en bande Ku , typiquement utilisée en satcom, il faudrait antenne 340000 fois plus grande (le rapport des longueurs d'onde), soit 150 km..
Tout ça pour dire que faire griller un circuit RF à longue distance, c'est pas facile !
C'est peut-être justement le moment de prendre des actions chez eux :) Du moins si tu crois en leur capacité à se redresser à moyen/long terme, après s'être un minimum renseigné sur l'entreprise pour cela.
Une action ça s'achète rarement au plus haut. C'est bien souvent quand elle se casse la gueule que l'opportunité d'investissement se présente.
Justement je pense qu'on est début de la chute, il faudra acheter quand ils seront vraiment au fond du trou !
Le
31/07/2024 à
23h
14
Entre le marché des serveurs qui se tourne de plus en plus vers des solutions ARM ou AMD, la perte du marché Mac, la concurrence toujours plus difficile face à AMD sur le desktop et les difficultés face à AMD/Xilinx sur le FPGA, ce n'est pas moi qui achèterais des actions Intel.
Ils avaient un boulevard devant eux pendant 10 ans, ils sortaient des bénéfices record, mais ont sous-investi. Au final c'est l'employé lambda qui paye l'addition. C'est malheureusement toujours comme ça.
Je regrette aussi l'absence de la fonction MP. C'est tellement pratique pour ce genre de cas. Un moyen de communication privé, sans le partager à tout le monde c'est un peu chaud.
Mon pote bosse à l'observation de Nançay. C'est tout ce que je peux partager publiquement.
L'un des 2 que je connais est aussi à Nancay, donc on brule.
J'ai une une idée pour la communication, j'ai fait un alias temporaire avec protonmail, n'hésite pas à m'écrire dessus : [email protected]
Le
18/07/2024 à
23h
19
Très belle performance ! ça fait plaisir à lire.
Puis-je me permettre de demander, pourquoi ne pas déporter ce genre de calculs sur GPU ? Je demande ça car j'ai un pote qui fait du beamforming numérique pour l'étude d'objets astrophysiques et il balance tout sur GPU. Est-ce que le cas que tu décris, la latence lié au PCI serait un frein ?
On fait sur GPU mais des fois on ne peut pas :
- c'est de l'embarqué, certaines plateformes n'ont simplement pas de GPU - dans certains cas, le volume d'un bloc de données n'est pas suffisamment gros pour exploiter correctement toutes les ressources. Néanmoins les blocs arrivent à une fréquence très rapide, ce qui fait qu'en charge de calcul c'est quand même très important. Et on ne peut pas bufferiser les données pour les envoyer par gros paquet au GPU, parce qu'après le beamforming, on a des traitement très séquentiels qui ne sont pas adapté au GPU. Et comme le traitement utilise des sorties du bloc N pour traiter le bloc N+1... En fait sur certains applications très gourmandes en puissance de calcul, paradoxalement le GPU n'est pas toujours la bonne architecture. Le FPGA ou le CPU restent plus adaptés. - en effet, les aller-retour vers la mémoire GPU peuvent diminuer, voir annihiler les gains de temps d’exécution. Ça peut être en partie éviter en envoyant directement les données codeurs dans la mémoire GPU par GPUDirect, puisque ce sont les premières étapes du traitement qui sont efficaces sur GPU. Il y a le cas particulier des calculateurs à base d'AGX qui n'ont pas ce problème, la mémoire étant partagée.
Tiens moi aussi je connais quelques personnes qui font du beamforming sur GPU pour la radioastronomie. Comme il ne doit pas y en avoir 50 qui font ça en France, il y a une probabilité non négligeable que ton pote en face partie. Je t'aurais bien envoyé un MP pour savoir si c'est le cas, mais il n'a pas ça sur nextinpact. Si tu as un moyen de communication privé, je suis preneur !
Le
18/07/2024 à
21h
42
Très belle performance ! ça fait plaisir à lire.
Puis-je me permettre de demander, pourquoi ne pas déporter ce genre de calculs sur GPU ? Je demande ça car j'ai un pote qui fait du beamforming numérique pour l'étude d'objets astrophysiques et il balance tout sur GPU. Est-ce que le cas que tu décris, la latence lié au PCI serait un frein ?
Suppression doublon
Le
18/07/2024 à
13h
25
Tout dépend des calculs que tu fais. Pour en profiter pleinement, faut-il aussi que les codes de calculs soient correctement écris pour pouvoir saturer les FPU et les pipelines pour les maintenir constamment en activité. En dehors du monde du HPC, je n'ai vu aucun code (même industriel) être capable d'exploiter à fond ce genre de choses.
En outre, les calculs a qui ce genre d'optimisations s'appliquent (e.g., produits scalaire, calcul matricielle) sont pas nature limités par la bande passante mémoire que par le CPU.
Par contre, le point positif que je vois en dehors de ces cas particuliers qui peuvent atteindre le max de FLOPS, c'est que le processeur logique pourra les utiliser pour d'autres calculs en //. Et ça, ça peut devenir interessant.
Dans mon cas, un point chaud, en terme de charge de calcul, que ce que je fais tourner, c'est du beamforming numérique d'antenne (multiplication de matrices) et de l'estimation de matrices de covariance (également des multiplication matrice-matrice + addition de matrice). Sur ces fonctions, j'atteins généralement 85/90% des FLOPS FP32 théoriques d'un CPU.
Le
17/07/2024 à
21h
24
On passe à 6*16 float32., donc 96 flopc (floating operation per clock) pour chaque coeur physique du processeur.
Merci pour la confirmation.
C'est un très belle avancée pour nous autres faisant du calcul scientifique.
Et ça se positionne très bien face à Intel qui fait 32 flop/cycle sur les cpu grand public et 64 flop/cycle sur les Xeon scalable haut de gamme, même si pour en profiter pleinement il faut faire des calculs du genre x = x + a * b + c
Le
17/07/2024 à
21h
19
FLOPS = FLOatingpoint Operations per Second
donc pas par cycle
#cenesontpaslesacronymesquevousrecherchez
Oui, mauvaise habitude de frappe désolé !
Le
16/07/2024 à
23h
12
Un point qui n'est pas clair pour moi : zen4 peut sortir au maximum 48 Flops par cycle (par core). Dans le détail c'est 2 unités FMA (=une multiplication+une addition) + 2 unités d'addition = 6 x 256bit = 6 x 8 float32.
Est-ce que sur zen5 on passe bien à 96 Flops par cycle ?
Quand on n'est plus souverains, les discussions politiques deviennent forcément beaucoup plus creuses. Tu as perdu ton temps, c'est comme ça depuis un bon moment. De toute façon dans ce pays rien de bon n'est jamais sorti des élections à une échelle où on ne peut plus connaître personnellement les candidats (et pour cause, c'est un système de désignation ploutocratique, ça coûte très très cher et il faut les réseaux et les médias dans la poche, il suffit de voir comment un Macron a pu émerger de nulle part très rapidement en séduisants les milliardaires et vrais influenceurs qui comptent).
Et sinon l'ingérence française dans les affaires russes et frontalières c'est à coups de missiles qui tuent des centaines de personnes. Donc qu'ils tentent de jouer sur tous les leviers c'est la moindre des choses, je leur souhaite de réussir, même s'il n'y a rien de bon pour eux dans ces élections, les vrais oppositions ayant été balayées par leurs manque de moyens, dépensés juste avant aux européennes en vain car personne ne les connaît ou ne les juge éligibles.
D'un côté tu défends le souverainisme et de l'autre tu considères que l'Ukraine c'est les affaires russes donc que l'Ukraine n'a pas le droit à la souveraineté ?
Non non, des fact checkers et des journalises donnent de leur personne sans compter pour que le peuple pense bien comme il faut, vous êtes prié de ne pas mettre tout ce travail en l'air. Dehors avec votre logique et votre esprit critique, c'est passé de mode et contre productif de nos jours.
C'est sur que croire à ce que racontent d'obscurs comptes Twitter ou telegram sans aucune vérification c'est faire preuve de logique et d'esprit critique
Le problème d'Arianespace, c'est que SpaceX a un peu chamboulé les pratiques du milieu, en important des méthodes de l'IT (développement agile, en mode : "si ça pète, on essaie de comprendre pourquoi, on corrige et on retente") dans un domaine où elles étaient complètement étrangères. Dans l'ancien monde, un nouveau lanceur se pensait sur 20 ans, pour 20 à 25 ans. Et cet ancien monde, il commençait seulement à frémir quand les idées principales de la conception d'Ariane 6 ont été prises... difficile de changer en cours de route, surtout quand toute la mentalité de l'entreprise est sur un autre modèle mental.
Du coup, effectivement, beaucoup de temps perdu, et une grosse remise en question à faire. Avec une difficulté supplémentaire : si SpaceX peut avoir ses centres de production et maintenance pas trop éloignés des zones de lancement, c'est plus compliqué pour l'Europe, l'agilité risque d'en prendre un coup...
C'était comme ça au début de l'ère spatial, dans les années 50/60.
Le problème aussi, c'est que pour fonctionner par echecs successifs, il faut en avoir les moyens. SpaceX a par rapport à Arianespace : - bien plus d'argent de la NASA qu'AS de l'ESA - des contrats de lancements militaire US sur facturés (2 à 3 fois le prix d'un lancement commercial). - Elon musk qui peut avancer beaucoup d'argent en vendant quelques centiemes de % de tesla, là où Arianespace doit attendre d'interminables tractations au niveau de l'ESA pour obtenir un financement de développement.
En utilisant un bête produit scalaire entre deux vecteurs sur un kernel fait main, et non en utilisant les fonctions dédiées. Le kernel fait main te permet de régler plus finement la saturation des unités FMA. Tu peux le vérifier à la fois avec l'assembleur produit par le compilateur du GPU et le résultat que tu obtiens en terme de FLOPS.
La multiplication de matrice peut difficilement atteindre les perfs max. à cause du besoin de transposition d'une des matrices pour le produit, et d'accès mémoires plus coûteux. C'est pourquoi je préfère bêtement faire un produit scalaire sur des vecteurs à n-dimensions car, en dehors du chargement mémoire (mais le prefetcher sont redoutables), le FLOPS est uniquement du FMA. Mais je maintiens qu'il ne s'agit que d'un test pour vérifier les perfs annoncés par le constructeur. En pratique, ce test ne représente pas la réalité ou l'usage commun (éventuellement en IA mais j'en doute).
Les algos de FFT sont plus basées sur de la permutation de lanes SIMD que du FMA. La mesure en FLOPS est moins pertinente pour ces algorithmes, mais pas dénué d’intérêt.
LINPACK mesure les perfs sur un type de calculs très commun dans les milieux scientifiques et industrielles ( de mémoire, c'est de l'inversion de matrice dense). Le but de LINPACK est d'être représentatif des calculs les plus utilisées, pas de chercher à atteindre les perf max. vendus par le constructeur. C'est plutôt le rôle de ce "bête" benchmark c = vec{a} \dot \vec{b} de vérifier ceci.
La transpo est une option définie par les paramètres transa et transb. Je suppose que lors qu'ils sont mis sur 'N', un if fait passer l'exécution sans trabspo.
Ce qui va dans ce sens c'est que j'obtiens plus ou moins les même performances avec ce code qui fait de la multiplication sans transpo, donc comme pleins de produits scalaires :
Je sais pas si ça peut répondre à ta question pour du split-step (résolution d'EDP par des méthodes pseudo-spectrales ?).
Pour ma part quand je dois faire cette exercice, je mesure les FLOPS de mon code et je calcule le FLOPS_de_mon_code/FLOPS_theorique, ayant pris soin de vérifier que j'arrive à retrouver les FLOPS_theoriques (typiquement, je trouve ~99% des perfs théoriques). De là, je me sers de ce ratio pour le multiplier par les perfs théoriques du constructeur pour un autre modèle pour estimer les FLOPS que je vais disposer pour mon code, et de la estimer le temps.
Ce n'est pas parfait comme méthode. Elle a des limitations et fait des hypothèses mais en pratique, l'ordre de grandeur est correct.
Pour l'aspect mémoire (quand la limitation est plus memory bound), j'utilise le throughput (GB/s) dont je calcule un ratio par rapport aux perfs théoriques. Les limitations sont les même qu'au-dessous. A noter, qu'avec la mémoire, l'ordre de grandeur est parfois moins fiable qu'avec le FLOP.
Mes deux cents.
Tu es sûr de ton coup ? Comment tu arrives à 99% du théorique ? Même les la fonction gemm de cublas plafonne à 80-90% des perfs théorique et c'est de la multiplication de matrices, il n'y a pas plus efficace, que ça soit sur gpu ou cpu (ça fait d'ailleurs parti du fameux bench LINPACK).
Et sur cuFFT je suis plutôt à 30/40%.
Le
20/03/2024 à
23h
41
L'ennui c'est que le V100, le dernier GPU vraiment taillé pour le FP64 n'est plus produit, et il date de 2017. On se retrouve sacrément dans le flou quand on veut mettre à jour ses serveurs de calcul (typiquement pour du split-step), et qu'on doit comparer torchons et serviettes sans avoir de données claires. J'en viens à envisager de tester des codes de benchs pour quelques heures sur des offres de cloud computing (pour ne pas me tromper dans l'achat), mais c'est dur à trouver et encore assez cher. Là je dois renouveler un serveur, et je ne sais pas comment comparer les perfs FP32/64 entre les V100, les RTX A6000 Ampere, les RTX 6000 Ada, et les H100.
Tu veux dire le dernier GPU "accessible" qui sait faire du FP64 :) Effectivement pour bencher le H100 c'est pas con de prendre qq heures en cloud.
Le
19/03/2024 à
21h
32
En même temps, ici c'est une puce dédié ou presque à l'IA donc ça parait logique
Pas à la base.
Le premier GPU spécifiquement fait pour le GPU computing était le GP100 (architecture Pascal), qui se distinguait des GP102/104 qui GPU orienté graphique par la mémoire HBM2 et surtout par le support du FP64 à la moitié de la vitesse du FP32, alors que la vitesse du FP64 sur les GPU grand publique est divisé par 32 par rapport au FP32. C'est cette perfo en FP64 qu'on cherchait en achetant ces GPU.
Même après le virage vers l'IA, ces GPUs orienté computing ont toujours gardé ce support à demi vitesse du FP64, sur les GV100, A100, et H100. Je suppose que c'est toujours le cas sur le nouveau GB100, mais ce n'est pas encore clairement annoncé.
Mais vince120 a raison, nous on est "acquis", faute de concurrence malheureusement et ils préfèrent faire la danse du ventre devant les data scientists qui sont en pleine croissance.
Le
19/03/2024 à
13h
31
C'est dommage que Nvidia ne prenne même plus la peine de montrer les performances en F32/64 hors tensorcore.
Alors d'accord ça va faire moins rêver et de plus l'IA est devenu le principal moteur de vente sur ces puces, mais nous autres clients qui utilisons leur GPU pour du compute depuis presque 15 ans nous sentons un peu trahis 🫤
Le "nombre de rappels". Le nombre de défauts pour lesquels un rappel a été fait dans l'union européenne. Oui, je sais, assez "meh" comme métrique. Pas le nombre de véhicules concernés à chaque rappel, pas de rapport entre rappels et modèles, ou rappels et ventes. Et je ne me sentais pas le courage de passer des semaines à les construire à partir de ce que je trouve sur Internet (mais je suis preneur si quelqu'un a déjà fait le travail ).
Ceci dit, les ventes mondiales de Tesla sont (en volumes) du même ordre que les constructeurs européens maintenant (~1M/an), donc ce n'est plus un petit constructeur.
Oui mais c'est une marque en progression donc le nombre de véhicules en circulation est nettement inférieur aux masques historiques. Et en plus, le sujet même de l'article dit que tesla faut tout pour le pas rappeler ses véhicules, même quand un défaut majeur est repéré, donc pas sûr que cette métrique soit pertinente.
Vous n’allez pas vous créer toute une plateforme codée par vos soins pour mettre vos données dans l’écosystème d’Airbus. C’est le genre de solution qui très très concrètement commence à apporter de la valeur des acteurs de data sets ». « On est dans ce qu’on appelle money time
-> quelq'un pourrait me traduire ça ? Je comprends rien...
je faisais le troll… Je voulais montrer à quel point l’idéologie de “sauver la planète” pouvait aller très très loin, au niveau même d’un manque de considération de l’Humain qui ne serait plus qu’une variable d’ajustement au nom d’une “cause supérieure”.
Personnellement, je m’en moque, je suis en train de solder mes crédits pour être mobile si les restrictions climatiques/idéologiques sont trop grandes ou que la France est trop perdante et offre une trop mauvaise qualité de vie.
Ne pas avoir de véhiculer particulier (voiture notamment) au nom de l’écologie est une chose que ni moi, ni mes enfants connaitront car nous sommes déjà en ordre de marche pour partir si nécessaire. On attend de voir comment cela tourne, on verra bien.
Pour moi c’est un problème de masse et de volonté politique. Ce n’est pas un hasard si ce sont les États-Unis et la Chine qui sont en lead. L’Australie, la NZ font partie du “nouveau monde” et sont complètement asbents. Il faudrait une volonté politique forte de souveraineté au niveau européen. Mais comme, quoi qu’en en dise, cette volonté n’existe pas vraiment déjà au niveau français…
Quand je dis qu’il comprend le contexte de la requête, c’est parce que son modèle de raisonnement agit par déconstruction du prompt et analyse de celui-ci pour produire la suite. Chaque mot est analysé unitairement par rapport à celui qui le précède avec une attention déterminée par un jeu de poids et de probabilités, vérifiant les concordances de mots en fonction des clés qui les lient, les valeurs obtenues sont mixées ensemble et derrière il produit la prédiction finale du prochain mot. GPT utilise 12 ensembles par mot pour évaluer le contexte (c’est l’étape du decoder), concaténer les possibilités et produire le résultat final.
Je suis d’accord avec toi de ce point de vue pour utiliser “comprendre” dans le sens où c’est synonyme de trouver la bonne relation entre les mots du prompt qui permet de produire une suite qui a le plus de sens d’un point de vu niveau statistique.
C’est juste qu’il est différent du “comprendre” que j’avais en tête et qui serait l’équivalent de se faire une représentation mentale du problème qui est derrière le texte de manière à y appliquer un raisonnement logique, mathématique ou intuitif qui permettrait de sortir une réponse correcte même si elle n’a jamais été vu/apprise auparavant (ça arrive parfois chez les humains) alors que ça n’arrivera jamais avec les LLMs.
Mais comme tu le dis, les LLMs ne sont pas fait pour répondre à des questions, c’est une utilisation détournée.
Le
06/09/2023 à
15h
46
ClM a dit:
Une vidéo intéressante qui prend le temps de détailler ce que l’on met derrière le terme “comprendre” et comment il peut s’appliquer, ou non, à ChatGPT.
Dans la mesure où ce débat existe aussi au sein de la recherche sur l’intelligence artificielle, on risque d’être difficilement d’accord. J’ai exposé mon point de vue de personne utilisant ces outils depuis le début de l’année (que ce soit ChatGPT, celui de Bing, le Copilot de GitHub, LLaMA sur ma machine, ou encore StableDiffusion aussi sur ma machine) et étudiant aussi leur intégration concrète dans un SI avec leurs forces et faiblesses.
Comme dit dans la vidéo ci-dessus, il y a plusieurs sens au mot comprendre et nous n’utilisons sans doute pas le même.
De mon côté, un exemple qui fait que je pêche du côté “ChatGPT ne comprend pas”, c’est qu’il y a quelques mois, j’ai posé une question sur une question très spécifique sur de l’éléctronique / traitement de signal pour lequel je sais qu’on ne trouve rien ou quasi rien sur internet. Une personne qui comprendrait le fond de ma question et qui n’est pas du domaine m’aurait répondu “je ne sais pas, je n’y connais rien”. ChatGPT m’a répondu tout un texte grammaticalement juste, mais qui n’avait absolument aucun sens avec des éléments piochés ici et là à partir des mots que j’ai utilisé dans ma question.
Expérience à renouveler avec ChatGPT 4 ceci-dit.
Le
05/09/2023 à
21h
56
Je ne suis pas d’accord avec ton exemple. Tu vas essayer de déduire de l’environnement, de l’heure, de la gestuelle ce qui disent des personnes dont tu ne comprends pas le langage. ChatGPT va simplement trouver la suite de caractères qui corrèle le mieux avec la suite bde caractère que tu lui as envoyé, en utilisant les milliards de milliards de suites de caractères qu’il a scanné sur le net. C’est bluffant et on a l’impression qu’il “comprend” ce qu’on lui demande mais il n’y a aucune comprehension là dedans !
Le
05/09/2023 à
21h
42
J’allais dire la meme chose, “comprendre” n’est clairement pas le bon mot à utiliser.
Je ne connais pas les TPU de Google mais chez NVIDIA les “tensor cores” sont des unités spécialisées dans la multiplication matrice-matrice de petites tailles en faible précision. Je suppose que c’est pareil chez Google.
Attention à ne pas comparer des résolution d’images radar et d’images optique. Les technologies de capteurs sont très différentes, dans le cas du radar, c’est le satellite qui éclaire la scène alors qu’en optique c’est purement passif.
Si on devait comparer à une solution européenne ce que propose UmbraSpace, il faudrait le faire avec ICEYE (20cm) et non pas avec Pléiades.
C’est pas que lié à Tesla, c’est une tendance globale de la radicalisation des discussions sur le Web. Avec l’effet de bulle des médias sociaux et la tendance à s’enfermer entre gens d’accords entre eux, la moindre critique devient une attaque.
Le web “social” c’est rien de plus que la dérive sectaire 2.0.
Si historiquement il y avait des débats houleux entre paroisses (“mac vs pc” etc), ça s’est accentué avec les murs dressés entre idées divergentes.
Très juste, mais j’ai l’impression que certaines marques/idées ont un effet sectaire plus important, par exemple, je ne pense pas que quelqu’un l’aurait insulté si j’avais émis la même critique à Toyota ou à Fiat.
Le
17/08/2023 à
20h
02
C’est clair. J’avais osé posté une réponse sur youtube où je disais une c’était pas une bonne idée de retirer les radars pour se baser uniquement sur les caméras. Trois fanboys m’étaient tombés dessus avec une virulence qui m’avait bien fait rire. On aurait dit que j’insultais leur mère. Je n’arrive pas à comprendre cette polarisation que cette entreprise/personnage provoque.
@Ghimo, poursuis ton raisonnement jusqu’au bout et tu verras que l’effet Doppler est assez important :
Fd = Vr / lambda, si on prend 16600 m/s pour Vr et 4cm pour lambda, ça donne un décalage de 462 kHz soit pas loin de 0,5 MHz.
Mets toi sur ta station radio préférée, décale toi de 0,5 MHz, et tu verras que n’entendras plus ta radio, mais surement une autre radio ou rien du tout :)
Et même si le décalage était moins important, pour atteindre le maximum de sensibilité (fortement conseillé dans ce cas précis), il faut filtrer au plus juste autour de la bande de fréquence de réception, donc bien prendre en compte ce décalage.
je pense qu’il y a une erreur dans la description des forfait : l’offre Delta S ne comporte aucun player. Pour moi il y a 3 offres maintenant : Delta S (sans player), Delta Pop, et Delta AppleTV.
Nous avons énomément travaillé sur notre compilateur et nos librairies ces 3 dernières années, pour notre processeur CoolidgeV1. Les retours de nos clients actuels sont très bons.
Coolidge V2 est une évolution et va donc bénéficier directement de ces amélioration.
J’ai hâte de voir ça :) Je pense qu’on refera une éval de la dernière version quand elle sortira.
210 commentaires
Qualcomm aurait approché Intel pour un rachat
23/09/2024
Le 27/09/2024 à 13h 20
Le 23/09/2024 à 10h 42
Intel va devenir un cas d'école => une entreprise qui fait entre 10 et 30 milliards de bénéfices par an pendant 10 ans et qui est en situation de quasi monopole arrive en quelques années à se retrouver dans une telle position de faiblesse. Remarque, il me semble que c'était un peu la même histoire pour IBM dans les années 90.Communications spatiales laser : l’armée française signe une première mondiale
11/09/2024
Le 11/09/2024 à 23h 34
On voit que, en fonction du type de nuage et de la longueur d'onde, l'atténuation est comprise entre 100dB/km et 600dB/km, ce qui est catastrophique pour un bilan de liaison de communication.
"The Chapters 2 and 3 have shown that it is very difficult to decrease cloud attenuation with wavelength selection."
En comparaison, l'atténuation des nuages en bande Ku (typiquement utilisée pour les satcom) est d'environ 0,1-0,2 dB/km : https://www.itu.int/dms_pubrec/itu-r/rec/p/R-REC-P.840-5-201202-S!!PDF-E.pdf
Ce qui est intéressant dans le premier article, c'est qu'ils donnent aussi le pourcentage de temps pendant lequel l’atténuation est considérée comme acceptable, au cours d'une année :
- 68 % pour Aix-en-Provence
- 40% pour un site en Allemagne
- 33 % pour Kiruna au nord de la Suède
Donc comme je disais plus haut, si t'as pas un besoin urgent de décharger les données, tu peux faire du laser, sinon il faut rester en bande radio.
Le 11/09/2024 à 14h 46
"elle est parfois perturbée par des turbulences atmosphériques" c'est peu dire ! Il y a intérêt à mettre la station sol dans une région où il fait très beau, parce qu'au moindre nuage, c'est la coupure de communication. Ça peut être intéressant pour un satellite d’observation qui enregistre des données et qui peut attendre plusieurs orbites le temps que la météo s'améliore, mais pour des communications, ou de l'observation où le temps de réaction est critique, la bande radio restera la norme.GPU : AMD vise le « leadership en termes de prix » et délaisse le très haut de gamme
11/09/2024
Le 11/09/2024 à 14h 49
Il faut ajouter que pendant l'interview, il a dit qu'à terme, les architectures GPU gaming et compute vont refusionner. AMD revient donc en arrière sur la stratégie à 2 architectures (CDNA et RDNA).Le média hardware AnandTech baisse le rideau
30/08/2024
Le 30/08/2024 à 17h 27
Le choc ... C'était beaucoup actif que par le passé donc on sentait le truc venir :( Ca va manquer.Jeux d’espions dans l’espace : et maintenant, la contre-attaque
29/08/2024
Le 30/08/2024 à 01h 48
Et le soucis c'est la directivité des ondes radio.
Un exemple : les lasers qui sont testés sur les navires de l'us navy pour détruire des drones ou des petites embarcations à quelques centaines de mètres mesurent environ 50cm de diamètre. Pour obtenir la même directivité en bande Ku , typiquement utilisée en satcom, il faudrait antenne 340000 fois plus grande (le rapport des longueurs d'onde), soit 150 km..
Tout ça pour dire que faire griller un circuit RF à longue distance, c'est pas facile !
Intel serait sur le point de supprimer des milliers d’emplois
31/07/2024
Le 10/08/2024 à 17h 26
Le 31/07/2024 à 23h 14
Entre le marché des serveurs qui se tourne de plus en plus vers des solutions ARM ou AMD, la perte du marché Mac, la concurrence toujours plus difficile face à AMD sur le desktop et les difficultés face à AMD/Xilinx sur le FPGA, ce n'est pas moi qui achèterais des actions Intel.Ils avaient un boulevard devant eux pendant 10 ans, ils sortaient des bénéfices record, mais ont sous-investi. Au final c'est l'employé lambda qui paye l'addition. C'est malheureusement toujours comme ça.
CPU AMD : sous le capot des architectures Zen 5, XDNA 2 et RDNA 3.5
16/07/2024
Le 20/07/2024 à 15h 05
J'ai une une idée pour la communication, j'ai fait un alias temporaire avec protonmail, n'hésite pas à m'écrire dessus : [email protected]
Le 18/07/2024 à 23h 19
- c'est de l'embarqué, certaines plateformes n'ont simplement pas de GPU
- dans certains cas, le volume d'un bloc de données n'est pas suffisamment gros pour exploiter correctement toutes les ressources. Néanmoins les blocs arrivent à une fréquence très rapide, ce qui fait qu'en charge de calcul c'est quand même très important. Et on ne peut pas bufferiser les données pour les envoyer par gros paquet au GPU, parce qu'après le beamforming, on a des traitement très séquentiels qui ne sont pas adapté au GPU. Et comme le traitement utilise des sorties du bloc N pour traiter le bloc N+1... En fait sur certains applications très gourmandes en puissance de calcul, paradoxalement le GPU n'est pas toujours la bonne architecture. Le FPGA ou le CPU restent plus adaptés.
- en effet, les aller-retour vers la mémoire GPU peuvent diminuer, voir annihiler les gains de temps d’exécution. Ça peut être en partie éviter en envoyant directement les données codeurs dans la mémoire GPU par GPUDirect, puisque ce sont les premières étapes du traitement qui sont efficaces sur GPU. Il y a le cas particulier des calculateurs à base d'AGX qui n'ont pas ce problème, la mémoire étant partagée.
Tiens moi aussi je connais quelques personnes qui font du beamforming sur GPU pour la radioastronomie. Comme il ne doit pas y en avoir 50 qui font ça en France, il y a une probabilité non négligeable que ton pote en face partie. Je t'aurais bien envoyé un MP pour savoir si c'est le cas, mais il n'a pas ça sur nextinpact. Si tu as un moyen de communication privé, je suis preneur !
Le 18/07/2024 à 21h 42
Le 18/07/2024 à 13h 25
Le 17/07/2024 à 21h 24
C'est un très belle avancée pour nous autres faisant du calcul scientifique.
Et ça se positionne très bien face à Intel qui fait 32 flop/cycle sur les cpu grand public et 64 flop/cycle sur les Xeon scalable haut de gamme, même si pour en profiter pleinement il faut faire des calculs du genre x = x + a * b + c
Le 17/07/2024 à 21h 19
Le 16/07/2024 à 23h 12
Un point qui n'est pas clair pour moi : zen4 peut sortir au maximum 48 Flops par cycle (par core). Dans le détail c'est 2 unités FMA (=une multiplication+une addition) + 2 unités d'addition = 6 x 256bit = 6 x 8 float32.Est-ce que sur zen5 on passe bien à 96 Flops par cycle ?
Législatives : ce que les échanges sur X disent des potentielles ingérences étrangères
01/07/2024
Le 02/07/2024 à 00h 27
Contradiction quand tu nous tiens
Décrédibilisation du soutien à l’Ukraine et des JO : comment la campagne Matriochka sème le doute en ligne
10/06/2024
Le 11/06/2024 à 12h 00
AMD : Zen 5 à tous les étages (Ryzen AI, 9000, Epyc), roadmap des GPU Instinct jusqu’en 2026
03/06/2024
Le 03/06/2024 à 21h 33
Merci pour ces infos.Une précision : la Radeon pro 7900WX est basée sur RDNA3 et non sur CDNA3.
Ariane 6 : le corps central se tient debout sur la rampe de lancement
25/04/2024
Le 25/04/2024 à 23h 50
Le problème aussi, c'est que pour fonctionner par echecs successifs, il faut en avoir les moyens. SpaceX a par rapport à Arianespace :
- bien plus d'argent de la NASA qu'AS de l'ESA
- des contrats de lancements militaire US sur facturés (2 à 3 fois le prix d'un lancement commercial).
- Elon musk qui peut avancer beaucoup d'argent en vendant quelques centiemes de % de tesla, là où Arianespace doit attendre d'interminables tractations au niveau de l'ESA pour obtenir un financement de développement.
Rapidité vs précision : deux experts nous expliquent les enjeux des GPU modernes sur les IA
15/04/2024
Le 15/04/2024 à 22h 26
Merci pour cet article qui clarifie les choses. C'est un sujet qui sera à surveiller sur les évolutions futures des gpus.NVIDIA annonce son GPU Blackwell (B200) pour l’IA, jusqu’à 20 000 TFLOPS (FP4)
19/03/2024
Le 21/03/2024 à 13h 13
Ce qui va dans ce sens c'est que j'obtiens plus ou moins les même performances avec ce code qui fait de la multiplication sans transpo, donc comme pleins de produits scalaires :
GitHub
Si tu as plus optimal, je suis preneur 🙂
Le 20/03/2024 à 23h 44
Et sur cuFFT je suis plutôt à 30/40%.
Le 20/03/2024 à 23h 41
Le 19/03/2024 à 21h 32
Le premier GPU spécifiquement fait pour le GPU computing était le GP100 (architecture Pascal), qui se distinguait des GP102/104 qui GPU orienté graphique par la mémoire HBM2 et surtout par le support du FP64 à la moitié de la vitesse du FP32, alors que la vitesse du FP64 sur les GPU grand publique est divisé par 32 par rapport au FP32. C'est cette perfo en FP64 qu'on cherchait en achetant ces GPU.
Même après le virage vers l'IA, ces GPUs orienté computing ont toujours gardé ce support à demi vitesse du FP64, sur les GV100, A100, et H100. Je suppose que c'est toujours le cas sur le nouveau GB100, mais ce n'est pas encore clairement annoncé.
Mais vince120 a raison, nous on est "acquis", faute de concurrence malheureusement et ils préfèrent faire la danse du ventre devant les data scientists qui sont en pleine croissance.
Le 19/03/2024 à 13h 31
C'est dommage que Nvidia ne prenne même plus la peine de montrer les performances en F32/64 hors tensorcore.Alors d'accord ça va faire moins rêver et de plus l'IA est devenu le principal moteur de vente sur ces puces, mais nous autres clients qui utilisons leur GPU pour du compute depuis presque 15 ans nous sentons un peu trahis 🫤
Les licenciements continuent aussi chez Amazon
22/01/2024
Le 22/01/2024 à 08h 04
Ils "éliminent" juste le poste ou le salarié qui va avec ?Tesla : devant les risques, des sénateurs américains appellent à un nouveau rappel de véhicules
28/12/2023
Le 30/12/2023 à 15h 09
Gaia-X « vit toujours » et « arrive à des étapes très concrètes »
04/12/2023
Le 04/12/2023 à 21h 52
Vous n’allez pas vous créer toute une plateforme codée par vos soins pour mettre vos données dans l’écosystème d’Airbus. C’est le genre de solution qui très très concrètement commence à apporter de la valeur des acteurs de data sets ». « On est dans ce qu’on appelle money time-> quelq'un pourrait me traduire ça ? Je comprends rien...
Des centaines d’accidents du travail à SpaceX depuis 2014
13/11/2023
Le 14/11/2023 à 11h 44
Je comprends mieux
Le 13/11/2023 à 20h 51
Fusée V2 ?!
INA 70 : vous pouvez « (re-)devenir un téléspectateur des années 1970 »
09/11/2023
Le 11/11/2023 à 15h 46
La trilogie du samedi de la fin des années 90, c’est toute mon enfance là, tu m’as mis un gros coup de nostalgie :)
TOO (Tixeo, Oodrive et Olvid) : ambitions de la suite collaborative « sécurisée et souveraine »
19/10/2023
Le 19/10/2023 à 12h 31
Le client linux pour ma part.
Le 19/10/2023 à 08h 12
Je ne sais pas pour oodrive et olvid, mais on utilise tixeo dans ma boîte sur un réseau sécurisé et ça marche super bien.
Voitures électriques chinoises : les griefs de l’Europe, le risque d’un préjudice, les mesures antisubventions
06/10/2023
Le 06/10/2023 à 18h 47
On attend tous de connaître ta destination
Intelligence artificielle : Scaleway et OVHcloud font « all–in »
28/09/2023
Le 28/09/2023 à 19h 32
Pour l’IA, il me semble qu’il est possible de faire fonctionner Tensorflow avec ROCm chez AMD mais je n’ai jamais testé.
Hors IA, ROCm reste malheureusement loin derrière CUDA niveau librairies.
Souveraineté et autonomie : l’Espagne épingle les forces et faiblesses de l’Europe
21/09/2023
Le 21/09/2023 à 11h 59
Pour moi c’est un problème de masse et de volonté politique. Ce n’est pas un hasard si ce sont les États-Unis et la Chine qui sont en lead. L’Australie, la NZ font partie du “nouveau monde” et sont complètement asbents. Il faudrait une volonté politique forte de souveraineté au niveau européen. Mais comme, quoi qu’en en dise, cette volonté n’existe pas vraiment déjà au niveau français…
Après la bulle des cryptos, celle de l’IA générative ?
05/09/2023
Le 06/09/2023 à 19h 36
Je suis d’accord avec toi de ce point de vue pour utiliser “comprendre” dans le sens où c’est synonyme de trouver la bonne relation entre les mots du prompt qui permet de produire une suite qui a le plus de sens d’un point de vu niveau statistique.
C’est juste qu’il est différent du “comprendre” que j’avais en tête et qui serait l’équivalent de se faire une représentation mentale du problème qui est derrière le texte de manière à y appliquer un raisonnement logique, mathématique ou intuitif qui permettrait de sortir une réponse correcte même si elle n’a jamais été vu/apprise auparavant (ça arrive parfois chez les humains) alors que ça n’arrivera jamais avec les LLMs.
Mais comme tu le dis, les LLMs ne sont pas fait pour répondre à des questions, c’est une utilisation détournée.
Le 06/09/2023 à 15h 46
Merci pour le lien, vidéo très intéressante.
Comme dit dans la vidéo ci-dessus, il y a plusieurs sens au mot comprendre et nous n’utilisons sans doute pas le même.
De mon côté, un exemple qui fait que je pêche du côté “ChatGPT ne comprend pas”, c’est qu’il y a quelques mois, j’ai posé une question sur une question très spécifique sur de l’éléctronique / traitement de signal pour lequel je sais qu’on ne trouve rien ou quasi rien sur internet. Une personne qui comprendrait le fond de ma question et qui n’est pas du domaine m’aurait répondu “je ne sais pas, je n’y connais rien”. ChatGPT m’a répondu tout un texte grammaticalement juste, mais qui n’avait absolument aucun sens avec des éléments piochés ici et là à partir des mots que j’ai utilisé dans ma question.
Expérience à renouveler avec ChatGPT 4 ceci-dit.
Le 05/09/2023 à 21h 56
Je ne suis pas d’accord avec ton exemple. Tu vas essayer de déduire de l’environnement, de l’heure, de la gestuelle ce qui disent des personnes dont tu ne comprends pas le langage. ChatGPT va simplement trouver la suite de caractères qui corrèle le mieux avec la suite bde caractère que tu lui as envoyé, en utilisant les milliards de milliards de suites de caractères qu’il a scanné sur le net. C’est bluffant et on a l’impression qu’il “comprend” ce qu’on lui demande mais il n’y a aucune comprehension là dedans !
Le 05/09/2023 à 21h 42
J’allais dire la meme chose, “comprendre” n’est clairement pas le bon mot à utiliser.
C’est terminé pour les Pages Perso d’Orange
05/09/2023
Le 05/09/2023 à 18h 38
Idem toujours les accès depuis plus de 20 ans (sic). Espérons que ça dure !
Tensor Processing Unit (TPU) v5e de Google Cloud : plus performant que les v4 ? Oui… et non
30/08/2023
Le 30/08/2023 à 13h 38
Je ne connais pas les TPU de Google mais chez NVIDIA les “tensor cores” sont des unités spécialisées dans la multiplication matrice-matrice de petites tailles en faible précision. Je suppose que c’est pareil chez Google.
La précision des images des satellites commerciaux américains n’est plus bridée
24/08/2023
Le 27/08/2023 à 07h 18
Attention à ne pas comparer des résolution d’images radar et d’images optique. Les technologies de capteurs sont très différentes, dans le cas du radar, c’est le satellite qui éclaire la scène alors qu’en optique c’est purement passif.
Si on devait comparer à une solution européenne ce que propose UmbraSpace, il faudrait le faire avec ICEYE (20cm) et non pas avec Pléiades.
Tesla rattrapé par ses promesses de sécurité et d’autonomie
17/08/2023
Le 18/08/2023 à 14h 30
Très juste, mais j’ai l’impression que certaines marques/idées ont un effet sectaire plus important, par exemple, je ne pense pas que quelqu’un l’aurait insulté si j’avais émis la même critique à Toyota ou à Fiat.
Le 17/08/2023 à 20h 02
C’est clair. J’avais osé posté une réponse sur youtube où je disais une c’était pas une bonne idée de retirer les radars pour se baser uniquement sur les caméras. Trois fanboys m’étaient tombés dessus avec une virulence qui m’avait bien fait rire. On aurait dit que j’insultais leur mère. Je n’arrive pas à comprendre cette polarisation que cette entreprise/personnage provoque.
NVIDIA améliore son GH200 Grace Hopper Superchip avec 141 Go de HBM3e pour le GPU
09/08/2023
Le 09/08/2023 à 09h 41
Sacré bestiau, le prix sera à la hauteur des performances.
Le 8 PFlops c’est du FP8 ?
Comment les sondes Voyager communiquent avec la Terre à 20 milliards de km
07/08/2023
Le 07/08/2023 à 21h 17
@Ghimo, poursuis ton raisonnement jusqu’au bout et tu verras que l’effet Doppler est assez important :
Fd = Vr / lambda, si on prend 16600 m/s pour Vr et 4cm pour lambda, ça donne un décalage de 462 kHz soit pas loin de 0,5 MHz.
Mets toi sur ta station radio préférée, décale toi de 0,5 MHz, et tu verras que n’entendras plus ta radio, mais surement une autre radio ou rien du tout :)
Et même si le décalage était moins important, pour atteindre le maximum de sensibilité (fortement conseillé dans ce cas précis), il faut filtrer au plus juste autour de la bande de fréquence de réception, donc bien prendre en compte ce décalage.
Free abandonne son Player Devialet
23/06/2023
Le 23/06/2023 à 07h 40
Hello,
je pense qu’il y a une erreur dans la description des forfait : l’offre Delta S ne comporte aucun player. Pour moi il y a 3 offres maintenant : Delta S (sans player), Delta Pop, et Delta AppleTV.
Kalray annonce son nouveau DPU Coolidge 2 « optimisé pour l’IA et le traitement intensif des données »
15/06/2023
Le 16/06/2023 à 18h 47
J’ai hâte de voir ça :) Je pense qu’on refera une éval de la dernière version quand elle sortira.