votre avatar Abonné

Cqoicebordel

est avec nous depuis le 9 mai 2006 ❤️

938 commentaires

Le 30/10/2024 à 21h 55

Sans les fréquences des cœurs CPU/GPU tu peux rien comparer.

Le M3 Pro écrase (+20%) le M2 Pro sur les benchs "single core" et l'écart se resserre en multi (moins de cœurs mais plus rapides).

Ouais, entre temps, j'ai été fouiller un peu, et oui, la fréquence est plus haute sur le M3.
Mais le fait que le M2 ait plus de performance cores que le M3 et une plus grande bande passante mémoire font que dans certains usages, le M2 est plus rapide que le M3.
La baisse du nombre de transistors est un bon indicateur de la baisse de puissance également, mais ici, vu l'ordre de grandeur, ça joue pas à grand chose.

Bref, tout ça pour dire que c'est fou de sortir un processeur moins bon sur les specs de base que son prédécesseur. Surtout sur la bande passante mémoire. Je comprend pas comment on peut sortir un produit comme ça. Mais bon, c'est Apple, faut pas chercher à comprendre…

(note, tous les "MX" sont des "MX Pro". Flemme de l'écrire à chaque fois).

Le 30/10/2024 à 18h 58

Wait. C'est moi ou le M3 Pro semble moins puissant que le M2 Pro (hors Neural Engine) ?
Au moins dans le tableau comparatif en tout cas.

Le 30/10/2024 à 21h 40

Tu n'as visiblement pas saisi l'ironie de mon message.

Il manquait le tag ;)

Le 30/10/2024 à 18h 50

Quand j'ai testé GitHub Copilot, j'ai trouvé un gain de temps sur l'écriture de CSS pour un template Hugo. Il suggérait des blocs complets sur lesquels j'ai simplement eu besoin d'adapter quelques valeurs.

Après ça, j'ai testé le mode Chat (je considérais Copilot simple comme une auto completion de luxe), et il produisait une structure basique pour le HTML / CSS qu'il m'a suffit ensuite de peaufiner.

Ou pour du scripting Python, quand je traite par exemple des appels d'API, ça initialise les lignes de request et d'analyse des réponses. Derrière y'a plus qu'à tuner en mettant en oeuvre ce que je veux vraiment.

Voilà ce que j'appelle des structures récurrentes, le gain ici est de laisser la machine produire du code dont la valeur ajoutée ne vaut pas le temps que le dev aurait passé dessus. Permettant de se concentrer sur d'autres.

Et dans mon expérimentation de ce même l'outil, j'ai volontairement initié un projet Javascript (et je suis pas dev, et je connais encore moins le JS) pour évaluer la capacité d'assistance de l'outil. Il kickstart le projet sans problème, pisse du code qui répond à la spec en veux-tu en voilà, propose même une trame d'ajouts de feature, magnifique.

Mais dès qu'on arrive à une étape où la compétence du dev est indispensable, l'outil est inutile. Ce fut une expérimentation personnelle intéressante et enrichissante que j'ai pu mettre en comparaison avec celle réalisée dans un contexte pro avec un panel varié de développeurs (technos ou expérience).

Je ne sais pas ce que Google entend dans son quart de code généré par IA (probablement un énième bullshit), mais si je me base sur ma propre expérience, le plus pertinent est de demander à la machine les tâches simples et répétitives (bref, en gros de faire le taff d'un ordinateur) et laisser l'expertise et la réflexion à l'humain.

Ok, je comprend mieux le cas d'usage et ce que tu veux dire. C'est ce que j’appellerais des snippets ou des templates. Bref, ce qui est copié-collable.

Je suis dev. Et oui, pour tout ce qui est "simple", ces "IA" sont très bonnes : Exemple de code de base, utilisation de la documentation et des docs pour sortir des snippets "par défaut". Bref, tout ce qui est templatable (c'est plus complexe que ça, mais c'est un raccourci à l'écrit).

Elles sont bonnes pour ça parce que justement, des millions de tutos ont déjà ces snippets, des millions de projets ont déjà les mêmes appels d'API, etc.

Par contre, dès que tu sors des sentiers battus, là c'est (beaucoup) plus compliqué. Voir quasi impossible.
Et faut aussi savoir faire la part des choses : ces générateurs de codes sont entraîné sur du code déjà existant, donc forcément plus vieux que l'état de l'art. Pour la base de la base, y'a sûrement pas de problèmes, mais ça m'étonnerai pas que des fois, ils sortent des vieilles manières de faire certaines choses.

Bref, oui ça aide, mais c'est pas intelligent, loin de là :)

Le 30/10/2024 à 16h 55

Parce que ces "IA" ne sont capable de produire que ce qu'elles ont déjà vu. Donc, au max, produire l'IA actuelle. Sauf que, évidemment, y'a des pertes à chaque étape, donc en vrai, même pas.

Le 30/10/2024 à 16h 52

Et du code c'est ... ? :D

Les templates ça existe aussi pour du code, la plupart des SDK ou frameworks ont une fonction pour initialiser un projet avec une base fonctionnelle.

L'IA générative peut servir à produire des structures récurrentes.

Cette "IA" ne peut produire que ce qu'elle a déjà vue. Ce qui n'est pas le cas d'un dev.

Et peux-tu me donner ta définition de structures récurrentes, parce que dans le contexte, je vois pas trop ce que tu veux dire.

Le 30/10/2024 à 16h 49

Ah bah voilà la raison de pourquoi les machines sont de plus en plus puissantes, mais les programmes sont toujours aussi lents…

Pendant ce temps là, l'équipe de FFmpeg/VLC : "Nous on code à la main en langage machine, pourquoi vous demandez ?"

Le 25/10/2024 à 21h 58

Visiblement pour la consommation c'est à puissance constante donc 40-45% de puissance en plus à consommation identique.

Oui, conso à puissance constante, puissance à conso constante.

Le 25/10/2024 à 21h 58

Oryon a été conçu sur la base d'un design élaboré au départ pour les serveurs (par NUVIA). Par rapport à Kryo (conçu par Qualcom), c'est bien un design différent.
https://www.anandtech.com/show/21445/qualcomm-snapdragon-x-architecture-deep-dive/

Je n'ai pas dit le contraire. Je dis juste que les gains semblent plus venir de la finesse de gravure que d'amélioration de la plateforme (je ne dis pas qu'il n'y en a pas, je dis juste qu'on annonce souvent des gains fous, alors que c'est "juste" la finesse de gravure qui couvre 80% des gains)

Un design de CPU ne peut être fondamentalement différent d'un autre, en général. Les gains d'optimisation purs se font souvent à la marge.

Le 22/10/2024 à 17h 20

La vitesse qui augmente partout de 40-45%, et la conso qui baisse partout de 40-45%, ça ressemble plus à un saut technologique (finesse de gravure plus fine) qu'a une optimisation de l'archi en tant que telle.

Le 08/10/2024 à 19h 44

Le podcast est géré comme un objet différent des articles au niveau du CMS, avec son propre flux RSS, il faut qu'on le réintègre au flux principal, c'est identifié (à défaut d'être traité)

Je me doutais que c'était un problème du genre. Ma question était semi rhétorique pour lever le problème (j'ai d'ailleurs rempli un bug sur Github dans la foulée).

Mais au delà du problème technique, c'était aussi pour pointer du doigt qu'il n'y a pas eu d'article sur Next-tronc pour annoncer Next-branche (les podcasts), et que ça aurait pu être opportun. Si on utilise pas le site et qu'on passe que par les RSS, quasi rien n'indique l'existence du podcast, et c'est pas cool.

Le 08/10/2024 à 00h 03

Par rapport à l'édito (enfin lu), pour moi, l'algorithmique est l'étude (au sens large) des algorithmes, ça colle donc parfaitement.

Et y'a un débat qu'on a que trop rarement quand on parle d'IA : de quelle intelligence parle-t-on ? Est-ce qu'une fourmi est intelligente ?

L'intelligence est compliquée à définir, et ce serait pourtant primordial dans ce débat de nomenclatures :)

Le 07/10/2024 à 23h 44

Rien à voir, mais c'est en lisant cet article que j'ai appris que le podcast était sorti.
Pourquoi le flux RSS "Complet" ne comprend pas le podcast ?

Le 08/10/2024 à 19h 39

LOL

"Si on continue la fuite en avant, cette fois c'est promis, ça va résoudre le problème"

On connait la solution au problème depuis longtemps. Le tout est d'appliquer les solutions, et pas de s'asseoir sur ses mains.

Le 02/10/2024 à 18h 57

Starlink : moins de 50 millions par lancement pour 40 satellites : en vrai, ils doivent être à moins de 1M/satellite (fusée réutilisée et en interne donc lancement à prix coutant)

Ton géostationnaire, c’est entre 50 et 100 millions pour UN satellite (tarif Arianne, ULA, etc)

Après, combien ça rapporte par an et par satellite : personne ne le sait vraiment (à part les opérateurs eux même)

Mais en gros, si on estime qu’il faut lancer en moyenne 3000 nouveaux starlink par an pour garder la constellation opérationnelle , ça fait 3 milliard de frais de lancement : chiffre d’affaire à 6,6 milliard et ça continue d’augmenter.

D’où l’on estime que ça va être la vache à lait de spaceX (plus que ce que va rapporter les lancements commerciaux chaque année)

Effectivement, je n'avais pas vu que le coût (présumé) d'un lancement était de 50 millions, satellites inclus.
Mais note que j'ai aussi pris des hypothèses optimistes dans mes calculs : 10 ans de fonctionnement, 100$ l'abonnement.
Oh, et dans les derniers lancement (enfin, depuis ~1 ans), c'est 22 satellites par lancement, pas 40 (satellites v2 mini, source en.wikipedia.org Wikipedia Ce qui change pas mal les choses.

Si on prend tes chiffres, 3000 satellites par an, avec 22 par lancement, ça fait 136 lancements. 50 millions le lancement, ça fait 6.8 milliards de dépense à l'année.
Donc le CA de 6.6B$, c'est léger.

Surtout que dedans, tu n'inclus pas le service Internet, et la gestion des satellites au jour le jour.

Bref, oui, je m'attendais pas à ce coût au lancement.
Mais au final, la rentabilité reste complexe.

Le 29/09/2024 à 23h 02

Le coût de lancement d’un satellite star link est de 50 à 100 fois moins cher que ton eutelsat.

Sans compter le coût de fabrication (quand tu produit en série par millier plutôt que faire des prototypes, les cout n’ont plus rien à voir)

Et vu le nombre de connexion simultanément, les débit sont assez pourri sur eutelsat (sans compter le ping)

Pour le débit, c'est le même principe que partout en France : quand t'as la fibre 1Gbps, en fait, le PBO n'a qu'une fibre de 1Gpbs pour tout le monde, divisé par ~64 utilisateurs. Statistiquement, personne n'utilise sa ligne à balle en même temps que tout le monde.

Mais même si ça coûte 100 fois moins cher, ce dont je doute surtout quand on inclut la gestion sur la durée de vie des satellites, chaque satellite a 500 moins d'utilisateurs que l'Eutelsat. La rentabilité est juste…

Ou, pour compter avec des chiffres pour le rendement d'un satellite :
Starlink : 1000 utilisateurs par satellite (en gros) × 100$ (prix mensuel) × 12 mois × 10 ans (durée de vie grand max des satellite) → 12 millions de dollars. Pour être rentable, il faut que la fabrication + le lancement + la gestion + la fourniture du service (Internet) soit inférieur à 12 millions de $. C'est chaud.
Eutelsat : 500000 utilisateurs × 50€ (prix mensuel) × 12 mois × 10 ans (alors que le satellite à une plus grande espérance de vie → 3 milliards d'€. Pour que le satellite soit rentable, il suffit que la fabrication + lancement + gestion + service soit inférieur à 3 milliards d'€. C'est nettement plus accessible, y compris avec les prix plus cher du géostationnaire vs. LEO.

Tout ça pour dire que je vois pas trop comment fait Starlink pour gagner de l'argent.

Le 27/09/2024 à 17h 28

C'est la question que je me posais.
Parce que le dernier satellite Eutelsat (Eutelsat Konnect VHTS) permet globalement de connecter 500 000 abonnés. Certes, c'est en géostationnaire, donc avec un ping élevé, mais comparé à 700 par satellite chez Starlink, j'ai beaucoup plus de mal à voir comment ça peut être rentable, surtout quand on sait que la durée de vie des satellites Starlink sont de 3 à 7 ans (suivant les avis), donc qu'il faut sans cesse renouveler la flotte.

J'imagine que ça crée un fond de roulement d'argent utilisable tout de suite, mais il a fallu financer la flotte actuelle.
Bref, c'est étrange.

Le 29/09/2024 à 22h 45

C'est le même problème que le peering gratuit : quand c'est un usage raisonnable, c'est OK. Quand c'est trop, et pour l'argent, faut payer.
Ca parait logique.

Le 16/09/2024 à 16h 38

Non, mais non !

C'est la pire utilisation possible de l'IA.
L'IA n'est pas transparente, n'est pas débuggable, et n'assure même pas que deux personnes dans des conditions identiques auront le même traitement.

Alors que justement, la loi donne un cadre fixe, que l'on peut coder à la main, et qui assure la transparence, l'équité, et la justesse des traitements.

Bref, les gens, la meilleure IA, c'est celle qu'on utilise pas.

Le 10/09/2024 à 18h 38

Comment ces personnes peuvent devenir référent pour maintenir des parties qui ne sont pas encore en Rust puisque on ne les aide pas à les transformer en Rust?
Ou j'ai pas compris votre propos ?
Un mainteneur peut faire de la conversion de code?

Réponse à la dernière question qui répond à tout : oui.

Si tu connais pas le code actuel, tu peux pas devenir mainteneur. C'est logique. Faut donc maîtriser un module, et donc le language dans lequel il est construit. Ensuite, bloc par bloc, tu peux convertir le code actuel en Rust : c'est une évolution positive (tant que ça reste à features constantes), et tu es mainteneur, donc tu prendras soin de ton code dans le futur.

C'est ça la voie à suivre.

Le 07/09/2024 à 18h 59

Pour le coup, je comprend les deux points de vues, même si je partage plus celui des mainteners :
Recoder en Rust, c'est la partie fun d'un projet. Maintenir le projet, c'est long et chiant. Et souvent, comme ici, les pro-rust vont arriver avec des propositions de modifs, mais c'est les mainteners qui devront rester sur le long terme et maintenir le code, qu'il n'auront pas écrit, et qu'ils auront même du mal à comprendre.

D'un point de vue long-termiste, c'est pas tenable.
D'ailleurs, je pense que les pro-rust pourront tenter de recréer un noyau from scratch en rust, mais je doute qu'ils arriveront à le maintenir sur le long terme. C'est un boulot ingrat, la maintenance.

Bref, je comprend la frustration des pro-rust, mais au lieu de soumettre du code, ils devraient devenir référent sur des parties du noyau, et maintenir ces parties, en le faisant en rust. Ca, ça pourrait fonctionner.

Le 06/08/2024 à 16h 11

Pas mon cas : après avoir lu l'article de Next (comparé aux autres articles que j'avais vu), je suis largement rassuré :
- L'utilisation d'IA est minimale, et utilise des technos qu'on maîtrise (planification de la zone à fraiser + planification du déplacement d'un bras pour atteindre cette zone)
- Gain de temps et donc d'argent

Si en plus le cabinet à une machine pour créer des prothèses, comme le décrit Patch plus haut, tout peut se faire en un seul rendez-vous : imagerie → patienter ~15min pendant que la prothèse est fabriquée → 15 min pour fraiser et poser la couronne.
C'est vachement plus confortable pour les patients.

Le 06/08/2024 à 16h 06

C'est cool, en effet.
Ça rend ce robot inutile dans ce cas là.

Après, faut voir la comparaison des prix, et des gains de temps, surtout que le robot pourrait être supervisé par un⋅e infirmier⋅e après contrôle du dentiste au début. Faut aussi comparer la finition de ces couronnes, même si je ne doute pas que ça suffise au moins dans 90% des cas.

Le 11/07/2024 à 16h 17

Alors on ne demande pas de simuler le monde réel ici... Mais juste la thermodynamique d'un moteur (ou plusieurs) d’une fusée durant une combustion ... et on ne va pas au niveau atomique ni même bien sûr au niveau subatomique (cad au niveau du noyau) ... comme le font les militaires pour la simulation d’armes thermonucléaires avec des équations de la mécanique quantique (eux et Météo France possèdent les supercalculateurs les plus puissants en France) mais ici on reste avec des règles de la physique macroscopique…

:smack:

Bahhh non.

MeteoFrance a un des plus gros calculateur, tu le dis toi même. Ce serait pas nécessaire pour calculer l'état du ciel où sera tiré la fusée ?

Au delà de ça, ce n'est pas que de la thermodynamique qui est calculé. Notamment, le problème qui a eu lieu durant le vol était sur l'APU, qui, entre autres choses, permet de pousser les ergols vers le moteur pour faciliter son réallumage. Donc de la mécanique des fluides. Dans l'espace, dans un environnement faiblement contrôlé, où la moindre vibration rend caduque tous les calculs.
Donc ouais, encore une fois, c'est pas "faites de la simu, ça résoudra tous les problèmes"…

Enfin, et ça t'as peut-être échappé, mais ce pourcentage de réussite est calculé par rapport aux premiers lancements des précédentes fusées. Il y a donc rien à faire pour l'augmenter, à part réussir à lancer du premier coup chaque nouvelle série de fusées…

Le 10/07/2024 à 15h 42

Le vol est aussi considéré comme un succès parce que le moteur Vinci s'est rallumé (au moins une fois).
L'APU (qui permet, entre autre, de pousser les ergols vers le moteur pour faciliter son réallumage) est en cause.

Mais Ariane 6 est considéré comme un succès parce que, à partir d'aujourd'hui, l'UE possède un lanceur qui peut fonctionner comme Ariane 5 (sans APU et rallumage). C'est déjà énorme.

Pour ce qui est des étapes "commerciales" (en fait en test), il y avait trois parties :
1. Les cubesats, qui ont été éjectés sans problèmes
2. Des expériences sur l’extrémité d'A6 qui se sont mis en route lors de l'éjection des cubesats (mais j'ai pas vu d'info sur elles). Ces expériences n'avaient pas pour vocation de bouger d'où elles sont.
3. Deux objets aérodynamiques qui devaient rentrer dans l'atmosphère, et être relâché après le dernier allumage Vinci, qui aurait poussé l'étage supérieur vers la Terre. Le dernier allumage n'ayant pas eu lieu, ces objets n'ont pas été libérés

Le 10/07/2024 à 15h 26

En 2022-2024 l'informatique a fait pas mal de progrès comparé aux années 80-90...

Oh juste x18 millions de fois plus puissants entre 1993 et 2024 pour les supercalculateurs...

:fumer:

Pour simuler le monde réel, il faudrait un ordinateur avec autant de transistors qu'il y a d'atomes dans l'univers. C'est pas un chiffre sorti de nul part, c'est ce qui est réellement nécessaire. Clairement, ce n'est pas possible.

D'autant plus que ce qu'il y a à simuler, c'est l'atmosphère terrestre (qui est par sa nature, changeante sans arrêt), la mécanique des fluides (dans les réservoirs) (qui, à la moindre vibration différente, rend tous les calculs caduques). Si tu ajoutes à ça que les simu sont faites sur des matériaux parfaits (est-ce qu'on veut/peut fabriquer la coiffe de la fusée avec une précision nanométrique ?)…

Bref, une simu, c'est 10% du boulot. Si tu regardes la série de docu sur la F1 sur Netflix ("Survive to drive"), avant la première course, il font des tonnes de simu et de tests en soufflerie. Et ils sont toujours étonné que les résultats de la vie réelle soient pas ceux des simus. Sans compter que dans le cas des F1, on parle de voitures sur une route, là où on a des milliards de données facile d'accès, contrairement à l'espace…

Bref, n'insulte pas les gens qui y travaillent sans savoir, c'est mal.

Politiquement, il y a aussi des retombés : si un vol en EU est un échec, c'est catastrophique. Aux US, c'est un test.
Ici, tout est fait pour fonctionner au mieux, dès le premier vol.
C'est une vision différente. C'est aussi un moyen différent de dépenser l'argent des contribuables.
Perso, je préfère l'option 2 : prendre son temps, et faire bien, plutôt que d'y aller à la rache. Mais c'est débattable.

Le 04/07/2024 à 14h 43

Heureusement que nos gouvernant se préparent depuis des années, et qu'il n'y aura pas de changement d'équipe de dernière minute suite à une dissolution.
Oh wait…

Le 27/06/2024 à 17h 41

Parce que là, je pense que personne ne sait ce qu'est la descente de gradient :)
Bah si 😝

Basé uniquement sur l'article, ou tu le savais avant ?… ;)

Le 27/06/2024 à 17h 41

On peut donner une idée de ce qu'est la décente de gradient, mais les math qui sont derrière, c'est un peu tendu. Il va falloir expliquer ce qu'est une dérivée partielle, comment on calcule la retropropagation du gradient... En plus, ce n'est qu'une partie du calcul réalisé par les optimiseurs, qui intègrent d'autre chose pour éviter des problèmes et converger plus rapidement vers une solution : par exemple des systèmes de momentum.


J'aime bien présenter la descente de gradient ainsi :

Imaginez-vous une machine. Cette machine, elle prend des valeurs en entrée et donne une valeur en sortie. On affiche à côté de cette valeur en sortie, la différence (l'erreur) entre la valeur que la machine a donnée et celle que l'on souhaite qu'elle donne.

Sur cette machine, il y a plein de potentiomètre que l'on peut tourner dans un sens ou dans l'autre. En ce faisant, ça change la valeur de sortie, et donc l'erreur.

On teste chaque potentiomètre, seul, pour savoir dans quel sens il faut les tourner pour baisser l'erreur, et à quelle vitesse elle fait baisser l'erreur, et on les remet à leur position d'origine. Une fois fait, on tourne tous les potentiomètres dans le sens qui fait baisser l'erreur et d'un pas correspondant à la vitesse de sa diminution.

Et on recommence ça jusqu'à estime que c'est bon.

Pas besoin de rentrer dans les maths dures pour expliquer le retrofeedback. Ni besoin de rentrer dans les détails des optimisations des APIs utilisées.

Ce que je décris, c'est plus donner un sens de ce qui se passe, et le faire manuellement pour comprendre pourquoi, à la fin, dans la vie réelle, c'est une boite noire. Se rendre compte qu'avec 7 entrées, une couche intermédiaires de 7 neurones, et 10 sorties, c'est déjà extrêmement compliqué 1. de le faire à la main, et 2. on a pas la moindre idée de pourquoi, à la fin, tel poids a une valeur quelconque.

Ce que je veux dire, c'est que la précision de l'explication importe moins que donner un sens, une intuition, de ce qui se passe, tant que les personnes en sont conscientes.

J'avais utilisé l'exemple d'une course de véhicule dans le désert dans le précédent article, mais ton exemple est plutôt bon. Le truc, c'est que pour moi (et je suppose donc, pleins de gens), tester soit même cette machine (ou, faire sur le papier, ou avec du code simple la même chose "manuellement", permet plus de comprendre que juste avec l'explication de comment fonctionne cette machine.

Bref, c'est pour ça que je trouve que passer directement à l'utilisation des APIs est dommageable. Mais en même temps, on pourrait voir ça comme "maintenant qu'on a vu ce que ça pouvait faire, rentrons dans le détail de comment ça fonctionne". C'est juste que ça me parait pas être l'ordre logique, c'tout :)

Le 24/06/2024 à 17h 40

Descente de gradient et recherche de minimaux ça va être sympa à la mano ^^

Bah oui, mais c'est ça le jeu !
Parce que là, je pense que personne ne sait ce qu'est la descente de gradient :)

Tu t'es attelé à une tâche compliquée, c'est ta faute aussi :D

Le 23/06/2024 à 19h 14

Oui, certes, les languages "anciens" ou scientifiques peuvent utiliser 1 comme début des tableaux (Fortran, Matlab, Cobol…).

Mais dans les languages les plus utilisés actuellement (https://www.statista.com/statistics/793628/worldwide-developer-survey-most-used-languages/), dans ceux qui font plus de 10%, je ne vois que SQL qui utilise des tableaux basé à 1. Et encore, SQL n'est pas considéré par tout le monde comme un langage de programmation.
Dans les 20 premier de ce tableaux, on ne trouve que lua à la 17e place.

Bref, oui, c'était un raccourci de langage de dire que les tableaux comment à 0, mais dans la vie de tout les jours, c'est globalement le cas, sauf dans les banques et pour les scientifiques.

Le 23/06/2024 à 18h 57

Argh. Cette série est une super idée, mais je pense qu'il manque une étape : faire un réseau de neurone from scratch, sans ces APIs, sans tensorflow.
Le faire entièrement à la main permet de comprendre comment les choses fonctionnent à l'intérieur de la boite. Là, tout se fait tout seul dans la boite, juste avec une commande.
Ca peut même être fait avec sur papier, dans la même veine : reconnaissance des chiffres sur une grille de 3x5, ou même juste 7 neurones d'entrés, représentant un afficheur 7 segments. Faire le réseau complet, et plusieurs epoch à la main, avec le calcul des poids et tout, ça, ça permet de comprendre en détail comment ça fonctionne.

Cet article est utile après : mettre derrière deux commandes ce qu'on sait déjà faire.

Le 19/06/2024 à 15h 57

Il a quand même bien aidé en leur offrant un ascenseur pour accélérer leur montée.

Exactement. Il leur a offert des postes de présidents à l'AN, les a considéré faisant parti du cercle républicain, a légitimé leurs présence lors de la manif anti-antisémites. Et il a intégré leurs idées à son programme, ou ses lois.
Et rien que pendant la campagne des européennes, Hayer a fait deux débat. Un contre Bardella, l'autre contre Maréchal. Et Attal a fait un seul débat, contre Bardella. C'est activement les mettre au même niveau qu'eux, les légitimer dans leurs ambitions.

Et, encore une fois, il a tout fait pour qu'ils augmentent pour pouvoir être face à eux aux deuxièmes tours des législatives, et gagner grace au barrage.

Donc ouais, la macronie a pourri exprès le débat, et a fait monter l'ED.

Le 18/06/2024 à 18h 03

"qui a trahi"
Bel euphémisme pour parler de la casse sociale, de l'autoritarisme, de l'augmentation de la pauvreté… et surtout, de la mise en avant du RN. Parce que faut pas oublier que c'est la macronie qui a rendu le RN fréquentable, et que c'est la macronie qui a précipité ces élections pour essayer de regagner des voix à l'AN en comptant sur les divisions à gauche et le peu de temps disponible pour que les divers gauches trouvent un accord.

Bref, ces élections sont une nième filouterie de Renaissance. Appeler à voter pour la gauche est plus que légitime.

Le 18/06/2024 à 17h 49

Antifa, non. Violent, bien plus...

Jean Moulin approuve ce message
/sarcasme

Le 15/06/2024 à 17h 14

Whoa, pleins de choses dites, mais un poil rapidement. Je vais donner des exemples pour ceux qui, comme moi, les préfèrent pour comprendre des concepts.

Déjà, le perceptron. Son origine, et ce qu'il arrive à "imiter", ce sont les insectes, avec une intelligence limitée, basé uniquement sur la perception (d'où son nom). Par exemple, vous avez une voiture jouet électrique. Vous lui mettre un détecteur de présence à l'arrière, que vous relier au moteur. Quand une main (ou quoi que ce soit) s'approche, le moteur se déclenche, et la voiture avance pour "fuir". Il ne s'agit pas d'intelligence en tant que tel, mais ça imite parfaitement un insecte qui fuit dès que quelque chose s'approche de lui. Et il n'y a qu'un neurone : l'entrée (la distance à l'objet 'x') est pondéré (du genre 'ax+b' par exemple, pour a,b,x ∈ ℝ), et et émet une sortie binaire, déclenchant le moteur ou non. Ca peut également contrôler le moteur analogiquement : plus quelque chose est proche, plus le moteur va vite, simulant une fuite lente quand on est loin et une fuite rapide quand on est proche.
De la même manière, vous pouvez mettre deux détecteur de présence, un a l'arrière droite l'autre à l'arrière gauche, déclenchant le moteur de la roue de son côté, pour ajouter une rotation en plus de la fuite. Si on rajoute deux détecteur de lumière à l'avant, branchés sur les roues opposées (détecteur avant gauche sur moteur avant droit) "l'insecte" va simuler une attirance vers la lumière.
Ainsi, avec quelques capteurs et quelques neurones "directs", on pourrait simuler presque parfaitement le fonctionnement d'un insecte.
(ces voitures s'appellent des véhicules de Braitenberg, voir pages 36 à 41 de ce PDF pour des illustrations de ce que je décris http://cqcb.mm.free.fr/cours/M2S1/ASI/cours1b_2007.pdf)

Les réseaux de neurones, c'est la même chose, mais multiplié par beaucoup. Notre cerveau fonctionne de la même façon : chaque neurone reçoit en entrée des données pondérés, les additionne, et si ça dépasse un seuil spécifique au neurone, transmet l'information au neurone suivant.
Ca a l'air simple comme ça, mais c'est vraiment comme ça que fonctionne notre cerveau, et les réseaux de neurones informatiques.
Mais le plus important, c'est la remontée du gradient : quand au final, le résultat donné par le réseau est faux, on baisse la pondération de tous les neurones ayant contribué à ce résultat. Quand le résultat est bon, on augmente tous les poids qui ont contribué au résultat. Et on recommence le même calcul. Encore et encore et encore. Puis on change légèrement une variable d'entrée, et on réessaye jusqu'à ce que ça fonctionne à nouveau, et on revient à la première pour vérifier que ça fonctionne encore, et on recommence, encore et encore. C'est cette partie qui est désignée comme l'apprentissage d'un réseau de neurones, faussement appelé IA.
Pour donner un exemple concret. Imaginez que vous êtes dans le désert, et une course automobile va avoir lieu. Il y a trois lieux de départ, un pour une voiture, un pour un camion, un pour une moto. Et une seule arrivé, avec des routes qui se chevauchent. Vous voulez tricher, et vous assurer que les véhicules arrivent dans l'ordre que vous souhaitez. Pour cela vous aller tout d'abord faire une course, voir quel est l'ordre d'arrivé. Suivant cela, vous aller peut-être bouger une dune, adoucir une pente, bref, modifier légèrement le terrain. Vous allez relancer une course, et voir ce qui a changé par rapport à la précédente, et modifier à nouveau le terrain. Encore et encore et encore. Jusqu'à ce que le résultat souhaité soit atteint.
C'est ça, l'apprentissage d'un réseau de neurone : c'est extrêmement complexe et surtout demande énormément de calculs, parce qu'il faut utiliser des millions de fois le réseau de neurone à chaque phase de l'entraînement. Et c'est aussi une boite noire : personne ne sait pourquoi une dune est à un endroit plutôt qu'à un autre. C'est aussi extrêmement fragile : remplacer la moto par un quad par exemple invaliderait totalement le processus d'apprentissage, et rendrait tout ces efforts inutiles.
Bref, un réseau de neurones peut faire beaucoup de choses, mais c'est pas une panacée, et il faut savoir l'utiliser avec discernement. Par exemple, dans le cas de la course dans le désert, il aurait été plus efficace et moins cher de corrompre les pilotes que d'essayer d'arranger des dunes ;)
(pour ceux qui veulent en savoir plus, je recommande la lecture de ce PDF http://cqcb.mm.free.fr/cours/M2S1/IA/livre_touzet.pdf)

Je suis ouvert à toutes les questions que vous pourriez avoir sur l'IA.

(note : ce post est libre de droit, excepté les PDFs liés)

Le 19/05/2024 à 15h 39

Je ne rentrerai pas dans le débat de la finesse de gravure: on a vu des CPU bien naze avec une finesse plus poussée, et des archis rester compétitives avec 2 générations de retard.
Quand aux milliard qu'Apple débourse, Intel et AMD en font de même.

Je vois cela différemment. Apple montre qu'on peut faire de soc extrêmement performants. Et leur ratio perf/conso est impressionnant. Sans compter l'intégration. Ils montrent qu'on tire énormément d'une machine dont on maîtrise le hard et le soft.

C'est un peu la question: à quoi sert de comparer uniquement des CPU entre eux, si tout autour peut changer (CG, OS, softs...). Donc comparer un usage à un autre de façon "macroscopique" peut-être intéressant pour élargir les choix. Tout dépend de ce que l'on recherche.

Je ne suis pas un fan d'Apple, juste un technophile. Leurs produits sont excellents, comme il y a d'excellents PC. Une archi comparable à un Apple M, c'est la PS5: on se concentre sur le BUS, et le CPU (chez Apple, l'ALU) n'est pas le centre du monde.

Je pense que Apple joue fort, mais mondialement. L'informatique à la papa (à la papi?) avec des ordis de type IBM PC, c'est lourd, c'est coûteux écologiquement et c'est commercialement à la ramasse (peu de marge à en sortir). C'est aussi limité de partout avec un processeur qui est central (n'en déplaise, ce n'est plus du tout à la mode).
Et c'est gros. Et c'est complexe. Des bus partout, des centaines de pistes de cuivre qui ne seront souvent pas utilisées.

Apple montre que pour une station de travail, on n'a pas besoin de gros ventilos, qu'on peut avoir de la puissance sans chauffer à l'extrême (les lecteurs de la réunion doivent comprendre de quoi je parle).

Apple a des produits qui dépassent la compréhension du marché occidental. Je pense qu'ils visent au-delà, le futur: le marché indien/chinois/africain qui ne dépend pas et ne veut pas de Intel, Ms, et qui voient l'ordi un peu plus moderne qu'une tour.

[edit] Et puis c'est une expression anglaise: "compare Apple to Apple" :)

Whoa…

Oui, on peut avoir des CPU nazes quel que soit leurs finesses de gravure. Mais la performance Flop/W augment mécaniquement avec la finesse de gravure. C'est pas pour rien que y'a une course à la finesse.
Intel et AMD ne peuvent pas faire comme Apple point de vue milliards : ils vendent des CPU séparés des produits finaux, et donc, les prix doivent être limités, avec, comme tu le dis après, une marge fine. Ils peuvent pas faire comme Apple et vendre avec 50% de marge…

Les produits finis d'Apple sont très bons, certes. Mais aussi très, très cher. C'est ça le problème. Si ces produits te conviennent, très bien. Mais tu n'en as clairement pas pour ton argent. Ou, dit autrement, la courbe représentant les flops/$ est logarithmique, et doubler le prix apporte beaucoup moins que le double de puissance.

Ton argument sur l'informatique à la papi me semble complètement idiot : où vont aller la majorité d'utilisateurs ? Vers les produits qui ont le plus de marge pour l'entreprise les fabriquant, ou vers les produits aillant une marge fine ?
Apple est très très bon en marketing, mais leurs produits restent des PCs classique. Avec le même nombre de pistes de cuivres que les autres…

Une station de travail sur un SoC est possible uniquement parce que les puissances de tous les SoC augmentent avec le temps. C'est pour ça que Samsung Dex ou même les Chromebooks existent aussi.
Mais si ces SoC permettent de faire du boulot, ils ne sont clairement toujours pas à la hauteur pour faire du vrai boulot qui nécessite une vrai station de travail (workstation). Même les Mac Pro utilisent l'équivalent de 4 SoC pour s'en sortir…

Pour ce qui est de s produits qui dépassent le marché occidental… lol
42% Amérique
25% Europe
17% Chine
6% Japon
et… 8% reste de la région Asie/Pacifique (qui comprend l'Australie est la NZ donc).
Apple est très cher pour ce que c'est. C'est pas dans les pays à revenu limités que Apple va faire le plus de vente, donc pas l'Afrique, ni l'Inde.

Bref. C'est pas de la technophilie à ce niveau…

Le 17/05/2024 à 18h 25

D’une part je ne la paye pas 3 fois plus cher (que je ne sais quoi d’ailleurs mais admettons ce présupposé) parce qu’elle est 3 fois plus puissante… franchement c’est loin d’être mon critère premier la « PUISSANCE » de la puce. Il y a bien d’autres choses qui entrent en compte.

Pour le reste ces puces ne sont pas un « produit ». Donc ce n’est ni un bon ni un mauvais produit. Pas un produit. C’est un des composants de l’iPad, à côté de tout un tas d’autres composants assemblés, y compris un écran, une batterie, une carte mère etc. Qui pris chacun indépendamment ne sont pas un produit. Plus du software, plus une intégration etc. L’iPad lui est un produit. L’Apple silicon Mx non.
Donc je ne comprends pas où tu veux en venir.

Je répondrais à Wosgien qui disait que ces puces "sont de (très) bons produits". Ce qui n'est pas le cas, de mon point de vue.
Maintenant, si tu dis que ce ne sont pas des produits. Ok. Ca change rien au fond, ce sont pas des bons SoC.

Pour le reste, le produit final hérite du prix de ses parts. Et donc le prix du SoC est visible sur le produit final. Le fait que le produit final est 3x fois plus cher en moyenne : l'iPad Air avec une puce M2 est vendu 719€ en premier prix. Le Huawei MatePad 11 à un écran avec une meilleure résolution et meilleure densité, un octo-core, avec la 5G en rab, c'est 317€. Yep, je me suis planté, c'est pas 3x plus cher, c'est seulement 2.3 fois.

Donc oui, le prix de la puce rentre en ligne de compte.

Le 17/05/2024 à 17h 55

Mais là devant une puce qui n'existe que dans une machine, il faut comparer machine à machine, pour une ou plusieurs tâches qui intéressent.
Les Mac Mx sont généralement de (très) bons produits si on fait de la vidéo par exemple.

C'est un peu comme quand on compare la raspberry pi à des odroid ou Jetson nano.

C'est pas comme si on pouvait upgrader: dans ce cas une comparaison puce à puce est envisageable pour une plate-forme donnée (et je ne choisirais jamais le core i9 pour mes usages :) )

C'est ça le problème : ces machines équipées de Mx sont comparées à des machines beaucoup moins chères, alors qu'a prix ~équivalent, on trouve mieux.

Mon problème majeur, c'est que Apple présente ces puces comme révolutionnaires, alors que les seules vraies différences, c'est 1/ Qu'il ont accès à une techno de gravure une génération en avance, en exclusivité (en ayant payé énormément, probablement 1+ milliard de $), et 2/ En mettant de "grandes" puces (en nombre de transistors), ce qui coûte de l'argent aussi, beaucoup.
A nombre de transistors égale et à gravure équivalente, les concurrents font aussi bien voir même mieux, point de vue TFlops par Watt. Le seul avantage qu'a Apple, c'est donc l'argent. Que personne peut concurrencer.

Bref, c'est pour ça que je trouve déloyal de dire que ce sont des bons produits. Oui, les Mx sont puissantes, et économes. Mais également beaucoup lus chères.

Le 15/05/2024 à 16h 18

Ces puces ne sont pas vendues seules, qu’est ce qu’on s’en tabasse du prix du composant?
Les comparer aux autres ? Aux autres quoi ? Aux autres puces Mx ? Ouaip.
Aux autres puces ARM? Ouai bof. Aux Intel, AMD ? Bof encore.
Les Apple Silicon ne se trouvent que dans des produits Apple. Faites pour des produits Apple. Donc les comparaisons de composant à composant ont leurs limites.


Les nouveaux iPad équipés de cette puce ne sortent que demain. On verra bien.
Si Apple ne s’est pas plantée, (on n’est pas à l’abris - en ce moment c’est un festival) ça sera un moteur surpuissant dans un châssis de 5 millimètre d’épaisseur (sic) et donc à tempérance passive. Ça c’est important. Le plus important peut être. En gros ça dépote sans chauffer. Avec une excellente endurance.

Ce qui est le cas des iPad Pro M1, des iPad Pro M2 aussi. De super appareils, avec lesquels on ne ressent aucune latence dans la plupart des tâches (disons qu’il faut pousser pour y arriver - et aucune de mes activités n’y est arrivée). À mettre en relation avec leur format. Même le site de Next, sur lequel certains se plaignent des perfs : quetchi : superfluide.

Après on aime ou pas la proposition de Apple. Moi j’aime (pas tout sans condition mais globalement très satisfait). Et ces iPad Pro « grand format » sont ce que j’attendais depuis loooooontemps.
Je ne me jetterai cependant pas sur ce dernier : mon M1 est déjà laaaargement performant comme ça. (On verra l’Hi-Ha mais bon, je n’espère pas grand chose à vrai dire - du moins ce soir :-D)

Elles ne sont pas vendues seules, donc on connaît pas leurs prix.
Et donc, on peut pas dire si ce sont des bonnes puces ou non.

Dires "l'iPad c'est ouf, ça rame jamais sur le net", c'est pas une preuve de la qualité de ces puces, parce que la tablette, tu l'as payée 3 fois le prix d'une tablette concurrente. Est-ce qu'elle est trois fois plus puissante que la tablette concurrente ?

Tout ça pour dire qu'on ne peut pas dire que ces puces sont des bons produits. On peut dire qu'ils sont performants, oui, économe niveau énergie, oui, mais pas forcément de bons produits.

Le 15/05/2024 à 16h 14

Dans ce cas les core i9 et Ryzen 9 sont tous très mauvais. Le rapport perf/prix est très désavantageux par rapport à des CPU parfaitement comparables.

Sauf que, c'est pas leurs but : leurs but, c'est les perfs, quel que soit la conso.
Le but c'est de comparer à but égaux. SoC vs. SoC. Et de mettre en relation les perfs, la conso, et le prix pour trouver quelle puce est la meilleure.

Le 13/05/2024 à 17h 18

On ne sait pas s'ils sont bons : on ne connait pas leurs prix. Oui, leurs performances sont bonnes pour un SoC, clairement. Mais on peut pas les comparer aux autres sans connaître les prix : s'ils sont deux fois plus cher pour 50% de perfs en plus, c'est pas un bon produit.

Surtout, comme le dit @MountainOtter, quand on prend en compte qu'ils ont payé pour un process de gravure juste pour leurs puces. Le coût doit être faramineux.

Alors oui, en perfs pures, ces SoC sont bons. Mais à quel prix ?

Le 13/05/2024 à 15h 48

3 milliards de transistors de plus que le M3, c'est sûr que ça achète pas beaucoup de perfs (~10% max)

Le 29/04/2024 à 18h 52

Ca va plus loin que ça, tu possèdes même pas le matériel :
* Tu peux pas le réparer toi même
* Échanger des pièces rend le machin inutilisable
* Apple peut baisser les performances à volonté

Donc tu maîtrises pas le logiciel, et tu maîtrise pas le matériel. Bref, c'est un minitel.

Le 25/04/2024 à 15h 27

A quoi voit-on que le renommage d'une entreprise n'a pas fonctionné ?
Quand un an après, on utilise encore l'ancien nom. Exemple ici : Twitter ;)

Le 23/04/2024 à 16h 15

Ce qui est super "drôle" avec ces discours, c'est que si on remplace "E2EE" par "vêtements" ou "rideaux aux fenêtres", tout ces discours fonctionnent pareil.

Yep, c'est plus compliqué pour les flics de faire leurs boulots si on porte des vêtements, et ils veulent un accès privilégié pour pouvoir les retirer. On voit mieux les armes comme ça. Mais c'est pas pour ça que c'est une bonne idée…

Le 29/03/2024 à 17h 21

Les spécialistes : « Attention ! Avant les JOs faudra se préparer à un grand nombre d'attaques numériques ! »
Le gouvernement : « Pas de soucis, on est prêt ! »

157 attaques réussies et vols de données plus tard

Le gouvernement : « Bah en fait, il va falloir qu'on durcisse tout ça. On va allouer des fonds après la rentrée. »


Fières d'être amateurs…

Le 19/03/2024 à 16h 40

https://killedbymozilla.com/ Il y manque le Mozilla Location Service, fermé récemment je crois...

Et y'a pas l'instance Mastodon non plus, qui est en "test" depuis une éternité, et qui va fermer, il me semble.

Mozilla n'innove plus. Ils tentent juste de faire les trucs qui marchent déjà ailleurs. VPN, AI, Metaverse…
Bref, c'est risible le Mozilla de ces dernières années, si ce n'était pas si triste.

Le 19/03/2024 à 16h 32

LOL
Mozilla, qui détruit chacun de ses projets un à deux ans après les avoir créé, propose un système de… blogs.
What could go wrong…

Sinon, y'a Vivaldi qui propose mail+calendrier+blog+compte mastodon tout en un, depuis des années, gratuitement, et ça va pas fermer de sitôt, pour ceux qui veulent ;)

Le 14/03/2024 à 19h 43

Suite à cet événement, mon compte Wikipedia a été bloqué…

D'ailleurs, si y'a un admin de WP qui traîne ici, je veux bien un coup de main :)