votre avatar Abonné

Wosgien

est avec nous depuis le 18 mars 2003 ❤️

3767 commentaires

Le 14/06/2024 à 09h 17

Bravo pour cet article qui souligne bien les problèmatiques majeures:
* L'orientation est-sud-ouest n'est pas très importante (par contre ça peut conditionner l'heure à laquelle on a le plus de soleil)
* Les ombres doivent être étudiées (l'ombre des cheminées si sur un toit, l'ombre des arbres et bâtiments si au sol ou toit plat, et même... l'ombre des autres panneaux si sur du plat)

Perso je suis sur toit plat, 9 panneaux: 3 plutôt vers l'est, 3 plutôt à l'ouest, 3 plutôt au sud. Car mieux vaut je trouve produire moins en pointe mais toute la journée que énormément à un moment au risque de ne pas savoir le consommer.

Le 14/06/2024 à 09h 13

J'ai acheté chez allo solar et tout installé moi-même. Des collègues achètent chez matter france.
Il y a plein d'autres distributeurs, pour un ROI rapide.

Le 14/06/2024 à 09h 11

@fdorin "Rester le plus concis possible"

Le 14/06/2024 à 09h 02

Ce sont des stock-options. C'est très régulé. Donc il va surtout gagner chaque année des dividendes, mais ces 56G$, il ne peut pas les "toucher".
Etant au board, tout mouvement de ces actions sont contrôlées, vérifiées, pour éviter toute manipulation de cours ou délit d'initié. Il ne peut pas tout vendre d'un coup, et s'il vend trop l'action va se déprécier.

Annoncer 56G$ de rémunération, c'est un peu faussé.

Je ne vais pas le plaindre, mais c'est pas du cash quand même.

Le 13/06/2024 à 10h 58

Entre zero et O ça va poser problème

Entre 1 et I (voire T), 1 et 7 (si le 7 est écrit à l'anglaise et pas à la française), 4 et 7 (selon écriture), 4 et H ou Q (si écriture française du 4, pas anglaise), A et 4, 2 et Z, 5 et S, ... (longue expérience des codes de sauvegarde sur NES :) )

Le 13/06/2024 à 10h 52

C'est surtout le Machine Learning qui a été affublé de la dénomination commerciale IA (tout comme les marketeux collent digital partout pour parler du numérique)

Non non. Même des algos en dur ont été affublé d'IA par le marketing.

Le 13/06/2024 à 10h 51

Il y a de l'IA dans les ascenceurs depuis les années 1980.
C'est surtout le terme d'IA qui est totalement galvaudé et regroupe trop de disciplines: logique floue, réseau de neurones, algos logistiques, systèmes experts ... Ca c'était le vocabulaire avant le passage du marketing, c'était précis et ça existe depuis 40 ans.

Sans compter que "IA - intelligence artificielle" est une mauvaise traduction de "AI - artificial intelligence", le terme intelligence en Français et en Anglais n'ayant pas tout à fait la même signification.

Le 13/06/2024 à 07h 41

Personnellement, je suis tout à fait prêt à payer pour des mises à jour du constructeur. Si on me dit que le tel a un support de 5 ans et 10 ans étendus à 25€ par an, je pense que je le prendrais.
Ca permettrait de calmer le jeu niveau des tel en plus.

Le 13/06/2024 à 07h 39

complètement d'accord... xperia XZ2 ici, lineageos depuis 2022, nouvelle maj d'android il ya .. deux semaines, par un geek de XDA ; merci à lui !
le support officiel de sony? "plus de maj depuis 2020 (fabriqué en 2018)"

lineageos, c'est aussi oublier son fabricant et surtout google!

lineageOS est pas mal aidé pour les Sony: le XZ2 fait partie des "opensource" de chez Sony. tu télécharges le kit opensource, tu compiles ta ROM avec les sources de Sony (incomplètes, mais ils précisent les fonctionnalités manquantes) et tu as ta base.
Pareil chez NVidia pour la shield.

Le 11/06/2024 à 23h 09

Je en sais pas pour les Apple, mais je trouve que les mises à jours Android sont un peu surévaluées.
Sur Android, énormément de mises à jour sont dans la partie "user/services", bien plus que dans l'OS.
On peut avoir une tablette de 2016 et l'utiliser quotidiennement sous Android, où est le problème? (dans mon cas: NVidia Shield)

J'ai un tel android, il est passé de Android 11 à 14: qu'est-ce qui a changé pour moi???

Le 11/06/2024 à 10h 49

En fait, c'est tout simple et ça ne change pas grand-chose. FreeBSD, Windows, Linux et j'ai même failli l'installer sous OpenVMS une fois :)

Au final, qu'est-ce qui change? Là où on trouve les paquets, la config du web server (et encore, si on est sur apache partout, c'est pareil), un peu la gestion des certificats (si on veut faire propre, sous Windows, on centralise).

La gestion des logs sous Windows est sympa avec l'observateur d'évènements, et si on suit la règle du "on installe par copie via des zip, pas via des outils d'install", c'est bien.

Remarque: mes dernières aventures avec PHP sous Linux avaient TRES mal fini: pas de paquet officiel PHP pour ma distro, obligé de monter la version de distro -> impossible car pas les pilotes fiber channel, donc recompilation PHP -> impossible en l'état car GCC plus compatible sur la distro -> tentative de recompilation GCC .. 17 serveurs en load balancing + NFS + de la prod, de la vente en ligne ... gros gros doute -> abandon du matos (enfin non: réinstall de Windows et réaffectation des serveurs - des blades IBM à l'époque)

Le 11/06/2024 à 10h 44

Ben ça permet aux particuliers avec ce genre de serveur exotique de passer le week-end à corriger leur installation exotique.
Si une entreprise exploite ça, elle mérite de mourir durant le week-end.

Pas mort.

Le 11/06/2024 à 08h 50

Windows Core n'a rien à voir avec .Net. Windows Core est juste une version minimaliste de Windows, sans interface graphique.

Après, je suis étonné qu'une application ASP.Net ne puisse pas fonctionner sur Windows Core, car c'était justement le genre de chose qu'il était sensé pouvoir faire ! C'était vrai au tout début quand le framework .Net n'était pas disponible, mais ce n'est plus le cas maintenant depuis de nombreuses années (au moins plus de 10 ans).

C'était il y a longtemps maintenant :) De mémoire, car je ne retrouve pas les infos sur le net: ASP.Net de fonctionnait pas tout à fait. IIS, oui, mais .Net Framework n'avait pas de package de mise à jour compatible Server Core.
Maintenant, j'imagine que c'est réglé :) - mais je ne mets plus les mains là-dedans.

Le 11/06/2024 à 08h 47

Best fit est une fonction de Windows, je suis pas sur que les gnu aient ça comme ça. PHP est un exécutable, pas une bibliothèque de .NET, et il me semble qu'il tourne dans l'espace utilisateur, pas le noyau Windows ; du coup je veux bien que tu éclaires ma lanterne au sujet de Windows Core (ca fait quelques année que j'ai plus cet OS, je perds le fil)

Windows Server Core est un type d'installation de Windows Server depuis 2008-2012. Pas de GUI, 512Mo de RAM mini.
Moins de composants -> 2/3 de mises à jour en moins. On le manage à distance avec powershell ou les outils Windows.
Très très très utile en environnement Microsoft avec des VM.

Le 10/06/2024 à 20h 59

Après, une fois lancé, quelle différence entre un Windows et un Linux? En plus, de mémoire, PHP est lançable en Windows Core, pas ASP.Net :)

Le 10/06/2024 à 09h 38

"Amélioration de l'efficacité énergétique de 50%"
=> Elle consomme moitié moins pour la même tâche / elle fait deux fois plus de taches avec la même consommation

Donc elle a toujours la même conso au final puisqu'elle va 2 fois plus vite.

Et l'efficacité énergétique est souvent mesurée "plein pot", ce qui ne correspond pas à la réalité - d'où la conso "en veille" qui est intéressante aussi - quoique si on était à 0,000mW en veille, 70% de moins ...

Je préfère les benchs type "lecture vidéo", "internet", "jeu", c'est plus parlant sur la conso et la gestion d'énergie que le discours marketing aux extrêmes.

Le 07/06/2024 à 15h 42

Amélioration de l'efficacité énergétique de 50% mais performances x2 -> elle consomme 25% de plus pour le même temps de travail?

Le 07/06/2024 à 15h 45

J'adore l'efficacité. J'ai demandé un calendrier des jours fériés. Résultat rien qu'en Juin: la fête de la musique, la fête des voisins, la fêtes es mères et la fêtes de pères sont fériés, et les dates sont celles de 2023 mais sur la calendrier 2024.
Dans 2 ans, les collégiens utiliserons cela pour ne pas aller à l'école.

Le 31/05/2024 à 17h 37

Par contre, si on se pose un peu et qu'on regarde le fait que la plupart des erreurs sont d'ordre conceptuel, ça va dans le sens de modèles de langage qui font très bien des tâches assez classiques et répétitives (syntaxes etc) et beaucoup moins « intellectuelles » comme la conception logicielle. Bref, ça reste des machines :)
Bah on compare ChatGPT, généraliste et qui doit grosso modo avoir un niveau d'étudiant à la fac sur ces sujets, à des professionnels qui ont une légitimité (expertise, expérience ...) sur des sujets pointus. J'espère bien que l'avantage est aux humains face aux machines.

C'est là que je mets un gros doute sur l'intérêt de ce papier : le choix de la machine. Est-ce que ChatGPT est vraiment la cible à considérer dans une telle étude ?

Je trouve que l'étude a un intérêt: montrer que ce n'est pas prêt et pas une bonne solution actuellement.
Le problème de l'IA en ce moment, ce n'est pas l'IA, c'est de la sortir à toutes les sauces, comme la solution géniale.

L'IA permet de faire de belles démos, mais la plupart des projets autour de l'IA font de gros flops ... pas toujours pour les bonnes raisons (entre la résistance au changement, la peur d'être remplacé et en face l'efficacité réelle, pas toujours facile de savoir pourquoi le flop)

Peut-on prendre au piège un LLM? Oui, on aura toujours des limites dans l'apprentissage - comme un humain.
Doit-on considérer que ChatGPT n'est pas adapté? Certainement.
Mais du coup: doit-on attendre qu'il soit meilleur ou un autre LLM fera-t'il mieux actuellement? L'article n'y répond pas.

L'article ne répond pas non plus à ceci: doit-on considérer SO comme une source fiable? Ben ... pas vraiment, sans compter que les réponses de SO, si elles sont trop vieilles, ne sont pas toujours adaptées.

Le 07/06/2024 à 10h 58

Ha oui Picasa !! Je l'avais oublié aussi celui-là.:yes: :incline:

Windows Search @ 2024 comparé à Google Desktop @ 2010, et bien c'est tout simplement de la merd... :vomi2: ... mais apparemment tout ce que Microsoft touche se transforme en... bref...

Ils sont en train de tuer la confiance dans l'IA pour le grand public avec leur Copilot+ (rebranded into BigBrother+) :stress:

Mode nostalgie: et le début des moteurs de recherche? Altavista et copernic s'installaient en local et permettaient de mixer les résultat locaux et distants (vers début 2000).

Concernant Windows Search, c'est dingue comme ils le pourrissent. Le moteur est bien (il existe depuis Windows 2000, il y a avait une page web interne pour taper des requêtes). La recherche via l'explorateur est pas mal quand on maîtrise les mots clés ("contenu: wordpress type:powerpoint").
La recherche via la barre de recherche: une nullité

Le 05/06/2024 à 20h 16

Cette fonction a été pensée par des personnes qui n'ont aucune expérience de vie.
Des devs quoi.

Ou bien pire, des commerciaux

Le 05/06/2024 à 17h 34

Autant cette fonction a des applications concrètes intéressantes, autant je me demande même si pour certains ça ne va pas déclencher des troubles psychiques...

Le 04/06/2024 à 11h 29

Au niveau config kernel liquorix utililse une config RT, sauf qu'ils restent sur du kernel vanilla donc ils n'ont pas mis le patch preempt-rt.

Tout ce que je lis sur liquorix, c'est qu'il est low latency, et pas RT. De ce que j'avais compris, les low latency permettent d'être plus réactifs, mais sans garantie, les RT permettent qu'une tâche RT puisse interrompre n'importe quelle autre tâche dans un temps défini - généralement non low latency.
Passer le kernel d'abord en low latency puis appliquer du RT permet d'être plus fin sur le RT.

Le 03/06/2024 à 17h 42

Il ne faut pas confondre RT et faible latence. Ce n'est PAS le même sujet.

En RT, on te garanti la latence (ou au moins tu sais qu'elle n'est pas respectée) ou la durée de traitement - sans forcément chercher la meilleure. Mais avec une prévisibilité exemplaire.

Pour l'audio/le jeu, on a tendance à garantir la meilleure latence - ce qui liquorix revendique. Là on est pas sur de la prévisibilité.

Le 04/06/2024 à 11h 26

Team premier degré, au rapport! :prof:

Team discours formatté à la virgule près de vendeur de solutions de cybersécurité, au rapport itou! :windu:



Et du coup là je me sens obligé de préciser que même si ce que vous dites est vrai dans les grandes lignes, une infra correctement sécurisée ne laisse pas les données de 560M d'utilisateurs s'envoler comme ça. Sortir aveuglément les poncifs publicitaires comme défense de Ticketmaster, c'est ignorer ce qu'est un travail rigoureux en la matière et nier de facto leur éventuelle responsabilité. "Puisque de toute façon on sera piraté un jour, yolo!, c'est pas nous, c'est le destin."

Il ne faut pas que la fatalité statistique devienne un prétexte.

Je suis d'accord, une grosse fuite de 1,3To, c'est pas une fuite, c'est un fleuve, c'est pas normal. Mais les réaction " ils ont pas les moyens de sécuriser correctement": c'est beaucoup trop facile... Surtout quand on ne sait pas trop comment s'est déroulée la fuite...

Exemple: tout est nickel niveau sécu, mais on met en place une nouveaux presta de sauvegarde externe - et là patatra, la sécu n'est pas finie côté du presta, mais toutes les données viennent de passer.
Actuellement, si je devais attaquer, j'attaquerais les sauvegardes ou les infras de secours qui sont en passif sur internet "au cas où"

Les attaques que je qualifierais de "non frontales" pullulent aussi (exemple dernièrement pour moi: injection de contenu via un site d'un partenaire qui n'est pas aussi sécurisé que nous - mais le webmaster avait trouvé bien d'inclure leur site en iframe -> leur attaque était visible sur notre site -> heureusement nos infras veillent et nos sites sont hébergés in situ, donc on peut vérifier ce qui sort)

Le 04/06/2024 à 08h 43

Il n'existe aucun moyen sûr de sécuriser une infra. On ne se demande pas SI on va être piraté, mais QUAND on va l'être.
La mise en sécurité des données, elle passe pas mal par une refonte totale des applis. Mais quand on le fait, le nombre de développeurs qui comprennent/maîtrisent le principe est encore peau de chagrin.

Le 04/06/2024 à 08h 40

Au niveau marketing, c'est très utile.
Pour le moment, au niveau user, c'est limité.

Le 04/06/2024 à 08h 40

Tout à fait. La course à l'IPC, c'est so 2010. Entre un bon coucou de 2015 et un ordi tout neuf de 2024, en bureautique/ internet, il n'y a pas de différence flagrante à l'usage.
Mais si l'IA est utilisée, même l'ordi de 2024 sans aide ne va pas être très performant (bon, le coucou risque d'être enterré).

Le 02/06/2024 à 18h 34

J'aimerais qu'on remplace les députés par une IA. Ca élèverait le niveau: actuellement ce ne sont que des algorithmes (si untel vote X, je vote X)

Le 29/05/2024 à 00h 15

Je ne vois pas où est la critique « sans connaissance de cause ». La vidéo de Rhinocéros (Blast) est très instructive et très bien documentée. Elle démontre l'idéologie qui anime Tibo InShape, son lien privilégié avec les forces de l'ordre et l'armée, son côté sacrément réactionnaire et masculiniste, et son racisme. Il y a donc moyen d'être très bien informé

Je ne sais pas si _Fabien_ a vu la vidéo de Rhinocéros ou lu des articles du même acabit, mais aucun de nous deux ne peut déterminer à sa place qu'il « juge sans connaissance de cause » ou pas.

Bon, après, Blast, ils sont globalement critiques et franchement partisans. C'est pas le média le plus "neutre" et surtout le plus "objectif" de la planète... C'est du tabloïd.

Le 28/05/2024 à 15h 01

Soit l'IA va s'améliorer, et fera le job de mieux en mieux. Ce qui me semble réellement à sa portée pour le coup, il ne faut pas oublier qu'on est qu'au début...

Soit la moins chère l'emportera, et comme réinvestir dans des meilleurs modèles nécessite de l'argent mais que la situation actuelle semble être: il faut récolter l'argent ... On risque effectivement d'avoir d'abord une perte / un méchant biais qui s'installera.

Je vois déjà les dégâts de google trad sur certains étudiants (bon, pas les meilleurs): une note technique, c'est du charabia. Mais pour eux c'est normal, puisqu'ils ne lisent que des notes techniques traduites. --> Ils reproduisent des tournures de phrase sur leurs propres création qui sont issues de mauvaises trad habituelles.

Le 28/05/2024 à 08h 00

Le problème n'est pas l'IA, ses capacités... C'est ce qu'en font les gens. Et c'est aussi le système: même ceux qui sont convaincus que l'IA n'est pas prête seront certainement forcés d el'utiliser au moins un peu pour rester compétititfs.

Bon, ceci dit, traduire par l'IA des textes déjà en partie écrits par l'IA, je ne vois pas le problème.

Et puis vu comme certains se contentent de google trad (certains musées français, parcs d'attraction ont des traductions complètement incohérentes en anglais par exemple, je ne parle même pas de l'Allemand), le services de traductions en avait déjà pris un coup.

Y compris Ms, qui il y a quelques années fournissait un powerpoint intitulé "Coquillage Puissant" ou qui a mis des années à corriger le quotidien "10Go gratruit sur votre disque dur".

Sans parler des trads de doc technique, où est le technet/msdn collaboratif des années 2010? La qualité était top, maintenant même le texte anglais n'est pas toujours compréhensible.

Le 26/05/2024 à 08h 42

Les Atari ST. J'en ai rêvé petit, j'en ai depuis l'année dernière. Epatant en apparence: un vrai ordi, utilisable, je comprends le "mac du pauvre". Méchamment comparé à un Amiga en jeu, alors que l'atari pour le côté plug'n'work surpasse je trouve l'amiga. D'ailleurs mes deux atari viennent d'une entreprise - PAO j'imagine.

Et thumbs up pour le bus de périphériques. Vous le clavier/souris/manettes, même en interne, sont branchés sur un bus série un peu comme l'USB. Il y a plein de possibilités avec.

Mais quand on ouvre... Vive les puces soudées sur des puces , les fils soudés sur une patte coupée du CPU pour corriger les erreurs de conception... Enorme le boulot qui était fait à l'époque: sorti de ligne de fabrication, ils étaient "reprisés".

Et j'adore le "on n'a pas les supports mémoire, on produit quand même": j'en ai un à mémoire "SIPP". Atari a soudé des supports type "arduino", et fait souder des "pattes" au bout des barettes mémoire.

Sinon, je confirme, j'ai aussi un ordi encore plus vieux que les ST, et aucun problème pour l'utiliser.

Ceci dit: je n'ai pas tant d'ordis en panne que cela: je dirais que depuis 2005, voir un ordi de plus d'un an en panne, c'est assez rare (par rapport au nombre d'ordi fabirqués/vensu/distribués)...

Le 26/05/2024 à 08h 34

Fous dans quel sens ?
Corrigés de l'inflation ?

Du sentiment/Des souvenirs que j'en ai, les prix bruts à l'époque étaient déjà monstrueusement élevés, alors la correction de l'inflation rendrait tout ceci inaccessible à la même population aujourd'hui.

Quand les gens râlent sur les prix aujourd'hui, je leur rappelle juste que ce sentiment vient juste de quelques deltas locaux/anomalies locales qui leur ont donné un faux sentiment sur la valeur supposée des composants.
Le rapport prix/puissance est finalement tellement génial aujourd'hui, mais le paradoxe de Jevons fait que, paradoxalement, l& fréquence du changement du matériel est peut-être encore plus grande aujourd'hui qu'avant.

Effectivement, c'était cher, très cher. Un demi salaire, ou alors on avait un truc inutilisable

Le 24/05/2024 à 13h 53

"Toute requête "recall" devrait être loguée/signalée à l'utilisateur."

Une requête recall se faisait à l'écran j'imagine que recall l'archive aussi qu'on peut donc facilement lui demande de ressortir les X dernières demandes recall sans trop de problème. À moins de réussir à faire sa requête en moins de 5 sec entre 2 screenshot toutes les requêtes devraient aussi être archivées...

Mais si la requête est faite par quelqu'un d'autre? Par exemple, avec France Travail tu es au courant des connexions - donc si quelqu'un usurpe ton identité, tu as un moyen de le savoir. De même avec le stockage des documents de santé numérique, tu es au courant des accès à tes documents par les médecins.

Le 24/05/2024 à 08h 54

Je pense que ça peut être utile (parfois). Ca risque de poser des problèmes (je pense à tous les cas de surveillance abusive au sein de la famille).
Toute requête "recall" devrait être loguée/signalée à l'utilisateur.

Et quand on se dit qu'on va avoir cela sur nos ordis, ça en dit long sur les possibilités existantes à distance...

Le 22/05/2024 à 21h 29

Le NPU de Qualcomm, c'est 45 TOPS, la 4080 c'est 800 TOPS, j'aimerais pouvoir les utiliser sans devoir racheter un CPU.

Normalement tu pourras (cf la réponse de @tazvld : directML).
Ce qui choquait dans ta réponse, c'est le "normalement": les PC "normaux" n'ont pas de RTX4080. Et même, la grande majorité des PC fonctionnent sur iGPU.
Ceci dit, même le HD620 de Intel peut "accélérer" l'IA dans la plupart des conditions (mais pas à 40 TOPS).
Par ailleurs, les cartes IA M2 existent et devraient aussi fonctionner.

La plus grosse arnaque avec l'IA, c'est que les "accélérateurs" ne sont pas uniformes. Autant une RTX peut tout ingurgiter et régurgiter, autant les accélérateurs n'accélèrent pas tous les formats et nécessitent un modèle adapté en opérations et en RAM.

Le 22/05/2024 à 19h 05

sauf que ma CG ne sert pas qu'à faire de l'IA

J'entends l'argument mais il y a 30ans, on pouvait dire pareil: mon CPU fait des images 3D.
Oui, elle fait bien les graphisme et pas mal l'IA, mais on peut faire l'IA beaucoup mieux qu'elle.

On parle d'ordis conçu autrement que les brutasses PC (quoique quand on me dit 42Mo de cache ... c'est brutal aussi - on voit pourquoi l'autonomie n'est pas meilleure).

Le 21/05/2024 à 21h 58

Ben le but c'est de faire des PC qui feront 70-80% des performances du tien mais en 10 fois moins de conso. et 4 fois moins de matière première.

Le 21/05/2024 à 21h 56

Il me semble avoir lu quelque part que l'un ou les deux vont possiblement se lancer dans l'ARM.

D'un point de vue efficacité énergétique, 2 choses :
- l'architecture x86 a de manière inhérente une consommation plus élevée.
- les comparaisons sont souvent faites entre des CPUs où l'ARM a une finesse de gravure plus petite que le CPU x86 en face, ce qui n'aide pas la comparaison.

L'autre point d'action c'est que l'archi x86 garde son avantage concurrentiel de performance brut, mais qui deviendra sûrement de plus en plus un marché de niche. L'ARM est largement suffisant pour faire tourner un browser web pour l'utilisateur lambda.

l'architecture x86 a de manière inhérente une consommation plus élevée.
On se rappelle quand même les transmeta crusoe, qui faisaient déjà 10h d'autonomie et plus encore dans les années 2000. Alors oui c'était de l'émulation x86 mais ... bizarrement ... c'est ce qu'on veut faire ...

Le 21/05/2024 à 10h 25

« ils investissent des milliards dans le jeu suivant », t'es un peu marseillais des fois ? :mdr:

J'ai cherché quelques minutes, aucun jeu n'a jamais atteint le milliard d'investissement. Et GTA V aurait coûté autour de 300 millions. Les recettes de ce dernier s'élève, semble-t-il, à 8 milliards. cf. les echos

J'y lis d'ailleurs que, visiblement un peu plus d'un milliard est prévu pour le VI. Il sera sans doute le jeu le plus coûteux à produire ça c'est presque sûr.

Dans le jeu vidéo, il y a beaucoup de flops. GTA 5 est un hit, mais combien de jeux sont développés et vendus à moins de 100000 exemplaires?

Quand aux coût de dev, GTA5 a atteint 300M (de dev, pas de pub). Oui, mais sans pression. Pour le 6, c'est clair que les salaires vont avoir bien grimpé.

Sans compter risque l'équipe est certainement très élargie. C'est comme pour le cinéma/les séries: les budgets explosent, et le public demande à la fois de la nouveauté et de continuer des franchises.

Je ne suis pas très inquiet pour GTA6 et Rockstar. Mais je pense qu'on va vers la fin économique des grosses machines - ou alors on génère tout par IA et on fait corriger par une autre IA.

Le 20/05/2024 à 21h 17

Whoa…

Oui, on peut avoir des CPU nazes quel que soit leurs finesses de gravure. Mais la performance Flop/W augment mécaniquement avec la finesse de gravure. C'est pas pour rien que y'a une course à la finesse.
Intel et AMD ne peuvent pas faire comme Apple point de vue milliards : ils vendent des CPU séparés des produits finaux, et donc, les prix doivent être limités, avec, comme tu le dis après, une marge fine. Ils peuvent pas faire comme Apple et vendre avec 50% de marge…

Les produits finis d'Apple sont très bons, certes. Mais aussi très, très cher. C'est ça le problème. Si ces produits te conviennent, très bien. Mais tu n'en as clairement pas pour ton argent. Ou, dit autrement, la courbe représentant les flops/$ est logarithmique, et doubler le prix apporte beaucoup moins que le double de puissance.

Ton argument sur l'informatique à la papi me semble complètement idiot : où vont aller la majorité d'utilisateurs ? Vers les produits qui ont le plus de marge pour l'entreprise les fabriquant, ou vers les produits aillant une marge fine ?
Apple est très très bon en marketing, mais leurs produits restent des PCs classique. Avec le même nombre de pistes de cuivres que les autres…

Une station de travail sur un SoC est possible uniquement parce que les puissances de tous les SoC augmentent avec le temps. C'est pour ça que Samsung Dex ou même les Chromebooks existent aussi.
Mais si ces SoC permettent de faire du boulot, ils ne sont clairement toujours pas à la hauteur pour faire du vrai boulot qui nécessite une vrai station de travail (workstation). Même les Mac Pro utilisent l'équivalent de 4 SoC pour s'en sortir…

Pour ce qui est de s produits qui dépassent le marché occidental… lol
42% Amérique
25% Europe
17% Chine
6% Japon
et… 8% reste de la région Asie/Pacifique (qui comprend l'Australie est la NZ donc).
Apple est très cher pour ce que c'est. C'est pas dans les pays à revenu limités que Apple va faire le plus de vente, donc pas l'Afrique, ni l'Inde.

Bref. C'est pas de la technophilie à ce niveau…

Un bon produit n'est pas forcément le plus performant pour tout le monde. Il y a d'autres paramètres. Concernant le prix, ça reste extrêmement difficile de se comparer à Apple si on prend en compte l'encombrement.

Concernant l'informatique à la papi, ce n'est pas l'utilisateur qui décidera, mais l'offre. Et fabriquer un ordi basé sur un SOC est bien moins cher (cf les différents nipogi et autres qui s'infiltrent). Le PC avec les ports PCI-e en rab, c'est pas ce qui va être la cible à fabriquer: ca va devenir une niche.
Ca se cherche d'ailleurs, à voir les mini pc avec batterie intégrée, ou carrément avec écran maintenant: l'ordi qui est là, mais pas vraiment central.
Quand aux archis: le CPU ultra puissant, il est totalement dépassé: par les CG, par les NPU, par les puces de chiffrement... Le CPU est là pour organiser, pas pour calculer. Et le problème dans l'archi du PC, c'est que le CPU s'occupe trop de lire en RAM et écrire en RAM pour les autres: il faut le sortir et que les périph parlent ensemble.

Et ça, c'est pour le gros du marché, pas pour les geek. Mais ça va rendre les PC geek de plus en plus chers.

Voilà ce que voulait dire mon point: que les Apple M ne s'adressent pas aux geek, et que les non geek (et même des geeks) sont attirés par le compromis ou la conception, pas par des perfs brutes.

Tu peux chercher, mon laïus est toujours un peu le même: en dessous de 25% de perfs en plus, il n'y a aucun intérêt. Et seuls 50% de perfs en plus mini me font potentiellement envie.
Car on est à un point où les traitements, qu'ils soient plus cours de 20min, OSEF.

Le 18/05/2024 à 14h 08

C'est ça le problème : ces machines équipées de Mx sont comparées à des machines beaucoup moins chères, alors qu'a prix ~équivalent, on trouve mieux.

Mon problème majeur, c'est que Apple présente ces puces comme révolutionnaires, alors que les seules vraies différences, c'est 1/ Qu'il ont accès à une techno de gravure une génération en avance, en exclusivité (en ayant payé énormément, probablement 1+ milliard de $), et 2/ En mettant de "grandes" puces (en nombre de transistors), ce qui coûte de l'argent aussi, beaucoup.
A nombre de transistors égale et à gravure équivalente, les concurrents font aussi bien voir même mieux, point de vue TFlops par Watt. Le seul avantage qu'a Apple, c'est donc l'argent. Que personne peut concurrencer.

Bref, c'est pour ça que je trouve déloyal de dire que ce sont des bons produits. Oui, les Mx sont puissantes, et économes. Mais également beaucoup lus chères.

Je ne rentrerai pas dans le débat de la finesse de gravure: on a vu des CPU bien naze avec une finesse plus poussée, et des archis rester compétitives avec 2 générations de retard.
Quand aux milliard qu'Apple débourse, Intel et AMD en font de même.

Je vois cela différemment. Apple montre qu'on peut faire de soc extrêmement performants. Et leur ratio perf/conso est impressionnant. Sans compter l'intégration. Ils montrent qu'on tire énormément d'une machine dont on maîtrise le hard et le soft.

C'est un peu la question: à quoi sert de comparer uniquement des CPU entre eux, si tout autour peut changer (CG, OS, softs...). Donc comparer un usage à un autre de façon "macroscopique" peut-être intéressant pour élargir les choix. Tout dépend de ce que l'on recherche.

Je ne suis pas un fan d'Apple, juste un technophile. Leurs produits sont excellents, comme il y a d'excellents PC. Une archi comparable à un Apple M, c'est la PS5: on se concentre sur le BUS, et le CPU (chez Apple, l'ALU) n'est pas le centre du monde.

Je pense que Apple joue fort, mais mondialement. L'informatique à la papa (à la papi?) avec des ordis de type IBM PC, c'est lourd, c'est coûteux écologiquement et c'est commercialement à la ramasse (peu de marge à en sortir). C'est aussi limité de partout avec un processeur qui est central (n'en déplaise, ce n'est plus du tout à la mode).
Et c'est gros. Et c'est complexe. Des bus partout, des centaines de pistes de cuivre qui ne seront souvent pas utilisées.

Apple montre que pour une station de travail, on n'a pas besoin de gros ventilos, qu'on peut avoir de la puissance sans chauffer à l'extrême (les lecteurs de la réunion doivent comprendre de quoi je parle).

Apple a des produits qui dépassent la compréhension du marché occidental. Je pense qu'ils visent au-delà, le futur: le marché indien/chinois/africain qui ne dépend pas et ne veut pas de Intel, Ms, et qui voient l'ordi un peu plus moderne qu'une tour.

[edit] Et puis c'est une expression anglaise: "compare Apple to Apple" :)

Le 15/05/2024 à 18h 21

Sauf que, c'est pas leurs but : leurs but, c'est les perfs, quel que soit la conso.
Le but c'est de comparer à but égaux. SoC vs. SoC. Et de mettre en relation les perfs, la conso, et le prix pour trouver quelle puce est la meilleure.

Mais là devant une puce qui n'existe que dans une machine, il faut comparer machine à machine, pour une ou plusieurs tâches qui intéressent.
Les Mac Mx sont généralement de (très) bons produits si on fait de la vidéo par exemple.

C'est un peu comme quand on compare la raspberry pi à des odroid ou Jetson nano.

C'est pas comme si on pouvait upgrader: dans ce cas une comparaison puce à puce est envisageable pour une plate-forme donnée (et je ne choisirais jamais le core i9 pour mes usages :) )

Le 14/05/2024 à 09h 21

On ne sait pas s'ils sont bons : on ne connait pas leurs prix. Oui, leurs performances sont bonnes pour un SoC, clairement. Mais on peut pas les comparer aux autres sans connaître les prix : s'ils sont deux fois plus cher pour 50% de perfs en plus, c'est pas un bon produit.

Surtout, comme le dit @MountainOtter, quand on prend en compte qu'ils ont payé pour un process de gravure juste pour leurs puces. Le coût doit être faramineux.

Alors oui, en perfs pures, ces SoC sont bons. Mais à quel prix ?

Dans ce cas les core i9 et Ryzen 9 sont tous très mauvais. Le rapport perf/prix est très désavantageux par rapport à des CPU parfaitement comparables.

Le 14/05/2024 à 09h 20

Ces puces ne sont pas vendues seules, qu’est ce qu’on s’en tabasse du prix du composant?
Les comparer aux autres ? Aux autres quoi ? Aux autres puces Mx ? Ouaip.
Aux autres puces ARM? Ouai bof. Aux Intel, AMD ? Bof encore.
Les Apple Silicon ne se trouvent que dans des produits Apple. Faites pour des produits Apple. Donc les comparaisons de composant à composant ont leurs limites.


Les nouveaux iPad équipés de cette puce ne sortent que demain. On verra bien.
Si Apple ne s’est pas plantée, (on n’est pas à l’abris - en ce moment c’est un festival) ça sera un moteur surpuissant dans un châssis de 5 millimètre d’épaisseur (sic) et donc à tempérance passive. Ça c’est important. Le plus important peut être. En gros ça dépote sans chauffer. Avec une excellente endurance.

Ce qui est le cas des iPad Pro M1, des iPad Pro M2 aussi. De super appareils, avec lesquels on ne ressent aucune latence dans la plupart des tâches (disons qu’il faut pousser pour y arriver - et aucune de mes activités n’y est arrivée). À mettre en relation avec leur format. Même le site de Next, sur lequel certains se plaignent des perfs : quetchi : superfluide.

Après on aime ou pas la proposition de Apple. Moi j’aime (pas tout sans condition mais globalement très satisfait). Et ces iPad Pro « grand format » sont ce que j’attendais depuis loooooontemps.
Je ne me jetterai cependant pas sur ce dernier : mon M1 est déjà laaaargement performant comme ça. (On verra l’Hi-Ha mais bon, je n’espère pas grand chose à vrai dire - du moins ce soir :-D)

Tout à fait d'accord. On n'est pas sur de la machine réellement "grand public" ni sur de la machine "pro" - hors niche type station de travail. Mais c'est une excellente vitrine technologique de ce qu'on pourrait faire si on se débarrassait des vieilles technos.

Ce sont de très belles démos. Quand on voit le résultat de Android ou Windows sur ARM, on se dit aussi qu'un OS repensé c'est important.

Le 13/05/2024 à 15h 48

C'est dommage d'entacher ces produits, qui sont de (très) bons produits, par une comm' si "vulgaire".
Je rejoins l'avis sur le Neural Engine. C'est assez général. Tout le monde y va de son "TOPS", mais impossible de savoir quels formats sont supportés en accéléré et à quelle vitesse. Ni si c'est "ultra cablé" - auquel cas les modèles d'IA actuels fonctionneront en général, mais les futurs ... pas sûr.

Le 17/05/2024 à 11h 28

Je connaissez pas mais c'est un peu trop vieux pour moi ahah^^

Juste pour l'anecdote: SIMH a été (ou est toujours?) utilisé pour simuler des VAX et PDP dans des entrepôts, des banques ...
Les VAX ont eu plusieurs émulateurs dont certains commerciaux (charon-vax) dans les années 90/2000.

C'est pas de la virtu: c'est bien de l'émulation pro!

Le 16/05/2024 à 17h 52

Le mieux c'est SIMH pour les jeux les plus anciens.

Le 14/05/2024 à 16h 17

C'est en effet une conséquence de l'égalité de tous devant la loi. Mais comme contester des prunes prends du temps, même à coup sûr, il y a un certain effet dissuasif.
C'est un peu comme les 80% de ralentisseurs hors normes, les mairies ne respectent pas la loi qu'elle nous appliquent par ailleurs. Il n'y a bien que quand un Samu prends sa plume pour leur dire que s'ils perdent un blessé au passage d'un de leurs "murs", ils attaqueront, que c'est retaillé: Les maires sont en général trop vieux pour avoir une femme enceinte en passager qui leur expliquera combien c'est con... Puis ça incite aussi le chaland à acheter du 4x4 et autres SUV qui encaisse mieux ces conneries... ce dont certaines mairies commencent à se plaindre alors que cela fait partie des conséquences de leurs propres actions!

C'est un peu comme les 80% de ralentisseurs hors normes,
40% d'après enquête (et c'est déjà énorme)