votre avatar Abonné

SwAY256

est avec nous depuis le 8 septembre 2016 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

201 commentaires

Le 20/07/2024 à 15h 05

Merci pour les infos.

Je regrette aussi l'absence de la fonction MP. C'est tellement pratique pour ce genre de cas.
Un moyen de communication privé, sans le partager à tout le monde c'est un peu chaud.

Mon pote bosse à l'observation de Nançay. C'est tout ce que je peux partager publiquement.

L'un des 2 que je connais est aussi à Nancay, donc on brule.

J'ai une une idée pour la communication, j'ai fait un alias temporaire avec protonmail, n'hésite pas à m'écrire dessus : [email protected]

Le 18/07/2024 à 23h 19

Très belle performance ! ça fait plaisir à lire.

Puis-je me permettre de demander, pourquoi ne pas déporter ce genre de calculs sur GPU ?
Je demande ça car j'ai un pote qui fait du beamforming numérique pour l'étude d'objets astrophysiques et il balance tout sur GPU. Est-ce que le cas que tu décris, la latence lié au PCI serait un frein ?

On fait sur GPU mais des fois on ne peut pas :

- c'est de l'embarqué, certaines plateformes n'ont simplement pas de GPU
- dans certains cas, le volume d'un bloc de données n'est pas suffisamment gros pour exploiter correctement toutes les ressources. Néanmoins les blocs arrivent à une fréquence très rapide, ce qui fait qu'en charge de calcul c'est quand même très important. Et on ne peut pas bufferiser les données pour les envoyer par gros paquet au GPU, parce qu'après le beamforming, on a des traitement très séquentiels qui ne sont pas adapté au GPU. Et comme le traitement utilise des sorties du bloc N pour traiter le bloc N+1... En fait sur certains applications très gourmandes en puissance de calcul, paradoxalement le GPU n'est pas toujours la bonne architecture. Le FPGA ou le CPU restent plus adaptés.
- en effet, les aller-retour vers la mémoire GPU peuvent diminuer, voir annihiler les gains de temps d’exécution. Ça peut être en partie éviter en envoyant directement les données codeurs dans la mémoire GPU par GPUDirect, puisque ce sont les premières étapes du traitement qui sont efficaces sur GPU. Il y a le cas particulier des calculateurs à base d'AGX qui n'ont pas ce problème, la mémoire étant partagée.

Tiens moi aussi je connais quelques personnes qui font du beamforming sur GPU pour la radioastronomie. Comme il ne doit pas y en avoir 50 qui font ça en France, il y a une probabilité non négligeable que ton pote en face partie. :bigssourire: Je t'aurais bien envoyé un MP pour savoir si c'est le cas, mais il n'a pas ça sur nextinpact. Si tu as un moyen de communication privé, je suis preneur !

Le 18/07/2024 à 21h 42

Très belle performance ! ça fait plaisir à lire.

Puis-je me permettre de demander, pourquoi ne pas déporter ce genre de calculs sur GPU ?
Je demande ça car j'ai un pote qui fait du beamforming numérique pour l'étude d'objets astrophysiques et il balance tout sur GPU. Est-ce que le cas que tu décris, la latence lié au PCI serait un frein ?

Suppression doublon

Le 18/07/2024 à 13h 25

Tout dépend des calculs que tu fais. Pour en profiter pleinement, faut-il aussi que les codes de calculs soient correctement écris pour pouvoir saturer les FPU et les pipelines pour les maintenir constamment en activité. En dehors du monde du HPC, je n'ai vu aucun code (même industriel) être capable d'exploiter à fond ce genre de choses.

En outre, les calculs a qui ce genre d'optimisations s'appliquent (e.g., produits scalaire, calcul matricielle) sont pas nature limités par la bande passante mémoire que par le CPU.

Par contre, le point positif que je vois en dehors de ces cas particuliers qui peuvent atteindre le max de FLOPS, c'est que le processeur logique pourra les utiliser pour d'autres calculs en //. Et ça, ça peut devenir interessant.

Dans mon cas, un point chaud, en terme de charge de calcul, que ce que je fais tourner, c'est du beamforming numérique d'antenne (multiplication de matrices) et de l'estimation de matrices de covariance (également des multiplication matrice-matrice + addition de matrice). Sur ces fonctions, j'atteins généralement 85/90% des FLOPS FP32 théoriques d'un CPU.

Le 17/07/2024 à 21h 24

On passe à 6*16 float32., donc 96 flopc (floating operation per clock) pour chaque coeur physique du processeur.

Merci pour la confirmation.

C'est un très belle avancée pour nous autres faisant du calcul scientifique.

Et ça se positionne très bien face à Intel qui fait 32 flop/cycle sur les cpu grand public et 64 flop/cycle sur les Xeon scalable haut de gamme, même si pour en profiter pleinement il faut faire des calculs du genre x = x + a * b + c

Le 17/07/2024 à 21h 19

FLOPS = FLOatingpoint Operations per Second

donc pas par cycle

#cenesontpaslesacronymesquevousrecherchez

Oui, mauvaise habitude de frappe désolé !

Le 16/07/2024 à 23h 12

Un point qui n'est pas clair pour moi : zen4 peut sortir au maximum 48 Flops par cycle (par core). Dans le détail c'est 2 unités FMA (=une multiplication+une addition) + 2 unités d'addition = 6 x 256bit = 6 x 8 float32.

Est-ce que sur zen5 on passe bien à 96 Flops par cycle ?

Le 02/07/2024 à 00h 27

Quand on n'est plus souverains, les discussions politiques deviennent forcément beaucoup plus creuses. Tu as perdu ton temps, c'est comme ça depuis un bon moment. De toute façon dans ce pays rien de bon n'est jamais sorti des élections à une échelle où on ne peut plus connaître personnellement les candidats (et pour cause, c'est un système de désignation ploutocratique, ça coûte très très cher et il faut les réseaux et les médias dans la poche, il suffit de voir comment un Macron a pu émerger de nulle part très rapidement en séduisants les milliardaires et vrais influenceurs qui comptent).

Et sinon l'ingérence française dans les affaires russes et frontalières c'est à coups de missiles qui tuent des centaines de personnes. Donc qu'ils tentent de jouer sur tous les leviers c'est la moindre des choses, je leur souhaite de réussir, même s'il n'y a rien de bon pour eux dans ces élections, les vrais oppositions ayant été balayées par leurs manque de moyens, dépensés juste avant aux européennes en vain car personne ne les connaît ou ne les juge éligibles.

D'un côté tu défends le souverainisme et de l'autre tu considères que l'Ukraine c'est les affaires russes donc que l'Ukraine n'a pas le droit à la souveraineté ?

Contradiction quand tu nous tiens :-D

Le 11/06/2024 à 12h 00

Non non, des fact checkers et des journalises donnent de leur personne sans compter pour que le peuple pense bien comme il faut, vous êtes prié de ne pas mettre tout ce travail en l'air.
Dehors avec votre logique et votre esprit critique, c'est passé de mode et contre productif de nos jours.

C'est sur que croire à ce que racontent d'obscurs comptes Twitter ou telegram sans aucune vérification c'est faire preuve de logique et d'esprit critique :-D

Le 03/06/2024 à 21h 33

Merci pour ces infos.

Une précision : la Radeon pro 7900WX est basée sur RDNA3 et non sur CDNA3.

Le 25/04/2024 à 23h 50

Le problème d'Arianespace, c'est que SpaceX a un peu chamboulé les pratiques du milieu, en important des méthodes de l'IT (développement agile, en mode : "si ça pète, on essaie de comprendre pourquoi, on corrige et on retente") dans un domaine où elles étaient complètement étrangères.
Dans l'ancien monde, un nouveau lanceur se pensait sur 20 ans, pour 20 à 25 ans. Et cet ancien monde, il commençait seulement à frémir quand les idées principales de la conception d'Ariane 6 ont été prises... difficile de changer en cours de route, surtout quand toute la mentalité de l'entreprise est sur un autre modèle mental.

Du coup, effectivement, beaucoup de temps perdu, et une grosse remise en question à faire. Avec une difficulté supplémentaire : si SpaceX peut avoir ses centres de production et maintenance pas trop éloignés des zones de lancement, c'est plus compliqué pour l'Europe, l'agilité risque d'en prendre un coup...

C'était comme ça au début de l'ère spatial, dans les années 50/60.

Le problème aussi, c'est que pour fonctionner par echecs successifs, il faut en avoir les moyens. SpaceX a par rapport à Arianespace :
- bien plus d'argent de la NASA qu'AS de l'ESA
- des contrats de lancements militaire US sur facturés (2 à 3 fois le prix d'un lancement commercial).
- Elon musk qui peut avancer beaucoup d'argent en vendant quelques centiemes de % de tesla, là où Arianespace doit attendre d'interminables tractations au niveau de l'ESA pour obtenir un financement de développement.

Le 15/04/2024 à 22h 26

Merci pour cet article qui clarifie les choses. C'est un sujet qui sera à surveiller sur les évolutions futures des gpus.

Le 21/03/2024 à 13h 13

En utilisant un bête produit scalaire entre deux vecteurs sur un kernel fait main, et non en utilisant les fonctions dédiées. Le kernel fait main te permet de régler plus finement la saturation des unités FMA. Tu peux le vérifier à la fois avec l'assembleur produit par le compilateur du GPU et le résultat que tu obtiens en terme de FLOPS.

La multiplication de matrice peut difficilement atteindre les perfs max. à cause du besoin de transposition d'une des matrices pour le produit, et d'accès mémoires plus coûteux. C'est pourquoi je préfère bêtement faire un produit scalaire sur des vecteurs à n-dimensions car, en dehors du chargement mémoire (mais le prefetcher sont redoutables), le FLOPS est uniquement du FMA. Mais je maintiens qu'il ne s'agit que d'un test pour vérifier les perfs annoncés par le constructeur. En pratique, ce test ne représente pas la réalité ou l'usage commun (éventuellement en IA mais j'en doute).

Les algos de FFT sont plus basées sur de la permutation de lanes SIMD que du FMA. La mesure en FLOPS est moins pertinente pour ces algorithmes, mais pas dénué d’intérêt.

LINPACK mesure les perfs sur un type de calculs très commun dans les milieux scientifiques et industrielles ( de mémoire, c'est de l'inversion de matrice dense). Le but de LINPACK est d'être représentatif des calculs les plus utilisées, pas de chercher à atteindre les perf max. vendus par le constructeur. C'est plutôt le rôle de ce "bête" benchmark c = vec{a} \dot \vec{b} de vérifier ceci.

La transpo est une option définie par les paramètres transa et transb. Je suppose que lors qu'ils sont mis sur 'N', un if fait passer l'exécution sans trabspo.

Ce qui va dans ce sens c'est que j'obtiens plus ou moins les même performances avec ce code qui fait de la multiplication sans transpo, donc comme pleins de produits scalaires :

https://gist.github.com/raytroop/120e2d175d95f82edbee436374293420

Si tu as plus optimal, je suis preneur 🙂

Le 20/03/2024 à 23h 44

Je sais pas si ça peut répondre à ta question pour du split-step (résolution d'EDP par des méthodes pseudo-spectrales ?).

Pour ma part quand je dois faire cette exercice, je mesure les FLOPS de mon code et je calcule le FLOPS_de_mon_code/FLOPS_theorique, ayant pris soin de vérifier que j'arrive à retrouver les FLOPS_theoriques (typiquement, je trouve ~99% des perfs théoriques). De là, je me sers de ce ratio pour le multiplier par les perfs théoriques du constructeur pour un autre modèle pour estimer les FLOPS que je vais disposer pour mon code, et de la estimer le temps.

Ce n'est pas parfait comme méthode. Elle a des limitations et fait des hypothèses mais en pratique, l'ordre de grandeur est correct.

Pour l'aspect mémoire (quand la limitation est plus memory bound), j'utilise le throughput (GB/s) dont je calcule un ratio par rapport aux perfs théoriques. Les limitations sont les même qu'au-dessous. A noter, qu'avec la mémoire, l'ordre de grandeur est parfois moins fiable qu'avec le FLOP.

Mes deux cents.

Tu es sûr de ton coup ? Comment tu arrives à 99% du théorique ? Même les la fonction gemm de cublas plafonne à 80-90% des perfs théorique et c'est de la multiplication de matrices, il n'y a pas plus efficace, que ça soit sur gpu ou cpu (ça fait d'ailleurs parti du fameux bench LINPACK).

Et sur cuFFT je suis plutôt à 30/40%.

Le 20/03/2024 à 23h 41

L'ennui c'est que le V100, le dernier GPU vraiment taillé pour le FP64 n'est plus produit, et il date de 2017. On se retrouve sacrément dans le flou quand on veut mettre à jour ses serveurs de calcul (typiquement pour du split-step), et qu'on doit comparer torchons et serviettes sans avoir de données claires.
J'en viens à envisager de tester des codes de benchs pour quelques heures sur des offres de cloud computing (pour ne pas me tromper dans l'achat), mais c'est dur à trouver et encore assez cher.
Là je dois renouveler un serveur, et je ne sais pas comment comparer les perfs FP32/64 entre les V100, les RTX A6000 Ampere, les RTX 6000 Ada, et les H100.

Tu veux dire le dernier GPU "accessible" qui sait faire du FP64 :) Effectivement pour bencher le H100 c'est pas con de prendre qq heures en cloud.

Le 19/03/2024 à 21h 32

En même temps, ici c'est une puce dédié ou presque à l'IA donc ça parait logique

Pas à la base.

Le premier GPU spécifiquement fait pour le GPU computing était le GP100 (architecture Pascal), qui se distinguait des GP102/104 qui GPU orienté graphique par la mémoire HBM2 et surtout par le support du FP64 à la moitié de la vitesse du FP32, alors que la vitesse du FP64 sur les GPU grand publique est divisé par 32 par rapport au FP32. C'est cette perfo en FP64 qu'on cherchait en achetant ces GPU.

Même après le virage vers l'IA, ces GPUs orienté computing ont toujours gardé ce support à demi vitesse du FP64, sur les GV100, A100, et H100. Je suppose que c'est toujours le cas sur le nouveau GB100, mais ce n'est pas encore clairement annoncé.

Mais vince120 a raison, nous on est "acquis", faute de concurrence malheureusement et ils préfèrent faire la danse du ventre devant les data scientists qui sont en pleine croissance.

Le 19/03/2024 à 13h 31

C'est dommage que Nvidia ne prenne même plus la peine de montrer les performances en F32/64 hors tensorcore.

Alors d'accord ça va faire moins rêver et de plus l'IA est devenu le principal moteur de vente sur ces puces, mais nous autres clients qui utilisons leur GPU pour du compute depuis presque 15 ans nous sentons un peu trahis 🫤

Le 22/01/2024 à 08h 04

Ils "éliminent" juste le poste ou le salarié qui va avec ? :-D

Le 30/12/2023 à 15h 09

Le "nombre de rappels". Le nombre de défauts pour lesquels un rappel a été fait dans l'union européenne. Oui, je sais, assez "meh" comme métrique. Pas le nombre de véhicules concernés à chaque rappel, pas de rapport entre rappels et modèles, ou rappels et ventes. Et je ne me sentais pas le courage de passer des semaines à les construire à partir de ce que je trouve sur Internet (mais je suis preneur si quelqu'un a déjà fait le travail :D).

Ceci dit, les ventes mondiales de Tesla sont (en volumes) du même ordre que les constructeurs européens maintenant (~1M/an), donc ce n'est plus un petit constructeur.

Oui mais c'est une marque en progression donc le nombre de véhicules en circulation est nettement inférieur aux masques historiques. Et en plus, le sujet même de l'article dit que tesla faut tout pour le pas rappeler ses véhicules, même quand un défaut majeur est repéré, donc pas sûr que cette métrique soit pertinente.

Le 04/12/2023 à 21h 52

Vous n’allez pas vous créer toute une plateforme codée par vos soins pour mettre vos données dans l’écosystème d’Airbus. C’est le genre de solution qui très très concrètement commence à apporter de la valeur des acteurs de data sets ». « On est dans ce qu’on appelle money time

-> quelq'un pourrait me traduire ça ? Je comprends rien...

Le 14/11/2023 à 11h 44


Mihashi a dit:


Oubli d’un mot dans la traduction : “Raptor V2 rocket engine” (signalé)




Je comprends mieux :mdr:


Le 13/11/2023 à 20h 51


Alors que l’entreprise faisait des essais de pression sur un moteur de fusée V2




Fusée V2 ?!


Le 11/11/2023 à 15h 46

La trilogie du samedi de la fin des années 90, c’est toute mon enfance là, tu m’as mis un gros coup de nostalgie :)


Le 19/10/2023 à 12h 31

Le client linux pour ma part.


Le 19/10/2023 à 08h 12

Je ne sais pas pour oodrive et olvid, mais on utilise tixeo dans ma boîte sur un réseau sécurisé et ça marche super bien.


Le 06/10/2023 à 18h 47

je faisais le troll…
Je voulais montrer à quel point l’idéologie de “sauver la planète” pouvait aller très très loin, au niveau même d’un manque de considération de l’Humain qui ne serait plus qu’une variable d’ajustement au nom d’une “cause supérieure”.



Personnellement, je m’en moque, je suis en train de solder mes crédits pour être mobile si les restrictions climatiques/idéologiques sont trop grandes ou que la France est trop perdante et offre une trop mauvaise qualité de vie.



Ne pas avoir de véhiculer particulier (voiture notamment) au nom de l’écologie est une chose que ni moi, ni mes enfants connaitront car nous sommes déjà en ordre de marche pour partir si nécessaire.
On attend de voir comment cela tourne, on verra bien.


On attend tous de connaître ta destination :D


Le 28/09/2023 à 19h 32

Pour l’IA, il me semble qu’il est possible de faire fonctionner Tensorflow avec ROCm chez AMD mais je n’ai jamais testé.



Hors IA, ROCm reste malheureusement loin derrière CUDA niveau librairies.


Le 21/09/2023 à 11h 59

Pour moi c’est un problème de masse et de volonté politique. Ce n’est pas un hasard si ce sont les États-Unis et la Chine qui sont en lead. L’Australie, la NZ font partie du “nouveau monde” et sont complètement asbents. Il faudrait une volonté politique forte de souveraineté au niveau européen. Mais comme, quoi qu’en en dise, cette volonté n’existe pas vraiment déjà au niveau français…


Le 06/09/2023 à 19h 36


SebGF a dit:


Quand je dis qu’il comprend le contexte de la requête, c’est parce que son modèle de raisonnement agit par déconstruction du prompt et analyse de celui-ci pour produire la suite. Chaque mot est analysé unitairement par rapport à celui qui le précède avec une attention déterminée par un jeu de poids et de probabilités, vérifiant les concordances de mots en fonction des clés qui les lient, les valeurs obtenues sont mixées ensemble et derrière il produit la prédiction finale du prochain mot. GPT utilise 12 ensembles par mot pour évaluer le contexte (c’est l’étape du decoder), concaténer les possibilités et produire le résultat final.




Je suis d’accord avec toi de ce point de vue pour utiliser “comprendre” dans le sens où c’est synonyme de trouver la bonne relation entre les mots du prompt qui permet de produire une suite qui a le plus de sens d’un point de vu niveau statistique.



C’est juste qu’il est différent du “comprendre” que j’avais en tête et qui serait l’équivalent de se faire une représentation mentale du problème qui est derrière le texte de manière à y appliquer un raisonnement logique, mathématique ou intuitif qui permettrait de sortir une réponse correcte même si elle n’a jamais été vu/apprise auparavant (ça arrive parfois chez les humains) alors que ça n’arrivera jamais avec les LLMs.



Mais comme tu le dis, les LLMs ne sont pas fait pour répondre à des questions, c’est une utilisation détournée.


Le 06/09/2023 à 15h 46


ClM a dit:


Une vidéo intéressante qui prend le temps de détailler ce que l’on met derrière le terme “comprendre” et comment il peut s’appliquer, ou non, à ChatGPT.



https://www.youtube.com/watch?v=_XJsAQsT0Bo




Merci pour le lien, vidéo très intéressante.




SebGF a dit:


Dans la mesure où ce débat existe aussi au sein de la recherche sur l’intelligence artificielle, on risque d’être difficilement d’accord. J’ai exposé mon point de vue de personne utilisant ces outils depuis le début de l’année (que ce soit ChatGPT, celui de Bing, le Copilot de GitHub, LLaMA sur ma machine, ou encore StableDiffusion aussi sur ma machine) et étudiant aussi leur intégration concrète dans un SI avec leurs forces et faiblesses.




Comme dit dans la vidéo ci-dessus, il y a plusieurs sens au mot comprendre et nous n’utilisons sans doute pas le même.



De mon côté, un exemple qui fait que je pêche du côté “ChatGPT ne comprend pas”, c’est qu’il y a quelques mois, j’ai posé une question sur une question très spécifique sur de l’éléctronique / traitement de signal pour lequel je sais qu’on ne trouve rien ou quasi rien sur internet. Une personne qui comprendrait le fond de ma question et qui n’est pas du domaine m’aurait répondu “je ne sais pas, je n’y connais rien”. ChatGPT m’a répondu tout un texte grammaticalement juste, mais qui n’avait absolument aucun sens avec des éléments piochés ici et là à partir des mots que j’ai utilisé dans ma question.



Expérience à renouveler avec ChatGPT 4 ceci-dit.


Le 05/09/2023 à 21h 56

Je ne suis pas d’accord avec ton exemple. Tu vas essayer de déduire de l’environnement, de l’heure, de la gestuelle ce qui disent des personnes dont tu ne comprends pas le langage. ChatGPT va simplement trouver la suite de caractères qui corrèle le mieux avec la suite bde caractère que tu lui as envoyé, en utilisant les milliards de milliards de suites de caractères qu’il a scanné sur le net. C’est bluffant et on a l’impression qu’il “comprend” ce qu’on lui demande mais il n’y a aucune comprehension là dedans !


Le 05/09/2023 à 21h 42

J’allais dire la meme chose, “comprendre” n’est clairement pas le bon mot à utiliser.


Le 05/09/2023 à 18h 38

Idem toujours les accès depuis plus de 20 ans (sic). Espérons que ça dure !


Le 30/08/2023 à 13h 38

Je ne connais pas les TPU de Google mais chez NVIDIA les “tensor cores” sont des unités spécialisées dans la multiplication matrice-matrice de petites tailles en faible précision. Je suppose que c’est pareil chez Google.


Le 27/08/2023 à 07h 18

Attention à ne pas comparer des résolution d’images radar et d’images optique. Les technologies de capteurs sont très différentes, dans le cas du radar, c’est le satellite qui éclaire la scène alors qu’en optique c’est purement passif.



Si on devait comparer à une solution européenne ce que propose UmbraSpace, il faudrait le faire avec ICEYE (20cm) et non pas avec Pléiades.


Le 18/08/2023 à 14h 30

C’est pas que lié à Tesla, c’est une tendance globale de la radicalisation des discussions sur le Web. Avec l’effet de bulle des médias sociaux et la tendance à s’enfermer entre gens d’accords entre eux, la moindre critique devient une attaque.



Le web “social” c’est rien de plus que la dérive sectaire 2.0.



Si historiquement il y avait des débats houleux entre paroisses (“mac vs pc” etc), ça s’est accentué avec les murs dressés entre idées divergentes.


Très juste, mais j’ai l’impression que certaines marques/idées ont un effet sectaire plus important, par exemple, je ne pense pas que quelqu’un l’aurait insulté si j’avais émis la même critique à Toyota ou à Fiat.


Le 17/08/2023 à 20h 02

C’est clair. J’avais osé posté une réponse sur youtube où je disais une c’était pas une bonne idée de retirer les radars pour se baser uniquement sur les caméras. Trois fanboys m’étaient tombés dessus avec une virulence qui m’avait bien fait rire. On aurait dit que j’insultais leur mère. Je n’arrive pas à comprendre cette polarisation que cette entreprise/personnage provoque.


Le 09/08/2023 à 09h 41

Sacré bestiau, le prix sera à la hauteur des performances.



Le 8 PFlops c’est du FP8 ?


Le 07/08/2023 à 21h 17

@Ghimo, poursuis ton raisonnement jusqu’au bout et tu verras que l’effet Doppler est assez important :



Fd = Vr / lambda, si on prend 16600 m/s pour Vr et 4cm pour lambda, ça donne un décalage de 462 kHz soit pas loin de 0,5 MHz.



Mets toi sur ta station radio préférée, décale toi de 0,5 MHz, et tu verras que n’entendras plus ta radio, mais surement une autre radio ou rien du tout :)



Et même si le décalage était moins important, pour atteindre le maximum de sensibilité (fortement conseillé dans ce cas précis), il faut filtrer au plus juste autour de la bande de fréquence de réception, donc bien prendre en compte ce décalage.


Le 23/06/2023 à 07h 40

Hello,



je pense qu’il y a une erreur dans la description des forfait : l’offre Delta S ne comporte aucun player. Pour moi il y a 3 offres maintenant : Delta S (sans player), Delta Pop, et Delta AppleTV.


Le 16/06/2023 à 18h 47

Nous avons énomément travaillé sur notre compilateur et nos librairies ces 3 dernières années, pour notre processeur CoolidgeV1. Les retours de nos clients actuels sont très bons.



Coolidge V2 est une évolution et va donc bénéficier directement de ces amélioration.


J’ai hâte de voir ça :) Je pense qu’on refera une éval de la dernière version quand elle sortira.


Le 15/06/2023 à 12h 21

Dans ma boite on avait évalué leur puce bostan puis coolidge v1 il y a qq années. Malheureusement, le compilateur et les librairies n’étaient pas du tout au niveau du HW qui lui a l’air vraiment bien. En pratique ça rendait leur produit inutilisable pour notre application de traitement du signal embarqué.



J’espère qu’ils vont améliorer les choses de ce côté là.


Le 04/06/2023 à 19h 35

C’est même pas une question d’âge, même quand j’étais ado, je trouvais que ce forum rassemblait le bas fond de l’intelligence humaine :mdr:


Le 01/06/2023 à 10h 53

Pourquoi vouloir le convertir ? De 10 bits, il passerait à 16 bits, avec 6 bits qui ne serviraient donc à rien ? (ou alors j’ai mal compris la question, c’est bien possible… )


Pour pouvoir faire mumuse avec un GPU :) bêtement j’aurais converti en fp32, mais j’ai l’impression qu’on ne perd pas de précision étant donné le nombre de bit de la mantisse en fp16


Le 01/06/2023 à 08h 55

Donc, si on convertit un signal codé sur 10 bit entier en FP16, on ne perd pas de précision si j’ai bien suivi ?


Le 15/05/2023 à 18h 45

Il ne peut pas y avoir une action au niveau européen ? Ça m’a pas l’air très RGPD friendly tout ça.


Le 21/04/2023 à 09h 01

C’est un peu inexact. Il y a des explosions de moteurs dès l’allumage, la fusée a commencé à décoller avec des moteurs en moins, en deviant dès le début de sa trajectoire.



Pendant la montée, on voit bien sur les télémesures de SpaceX qu’il y a 5 à 6 moteurs non fonctionnels et qu’il y a des explosions et un indendie entre les moteurs.


Le 11/03/2023 à 07h 09

Bien vu !


Le 10/03/2023 à 16h 22

Je n’ai ni l’une ni l’autre application, car je passe uniquement par le navigateur. Sauf que Meta et ses pratiques détestables font qu’il n’est pas possible de consulter ses messages depuis un navigateur mobile… à moins de changer l’UA ou de passer dans la version “Desktop” du site :roll:


Idem. Dernièrement je n’arrive plus à passer en version desktop en cochant “version desktop” sur Firefox. Ça marche chez vous ?



Du coup je ne vais plus jamais sur Facebook et je ne m’en porte pas plus mal :D


Le 27/12/2022 à 19h 38

Personne ne dit qu’ils sont gentils. Ils revendent les infos des utilisateurs (c’est leur business et c’est marqué dans les conditions d’utilisations) ou partagent leur bdd avec les services étatiques (c’est la loi), et peuvent faire preuve de négligence plus ou moins volontaires (Cambridge analytica) mais à ma connaissance ils ne se sont pas fait attrapé à fouiller les comptes de certains journalistes.