(quote:2138132:consommateurnumérique) L’IA prend arbitrairement des données sans aucune forme de traitement de l’information et fait comme si tout se valait. Or c’est faux.
Il est très difficile de détecter tous les biais. Exemple: si tu fait ingurgiter à une IA des dossiers de patients malades uniquement, elle risque de trouver des maladies aux patients sains, puisque pour elle tout le monde est malade.
Concernant les biais, on va en trouver encore un moment, car les IA sont essentiellement portées par les US, donc on aura toujours des biais US, mêlés au biais des personnes qui font ingurgiter les jeux de données aux IA (Indiens? Kenyans? Malgaches?)
Si on veut une IA sans biais, il va falloir une IA par pays déjà, pour refléter les habitudes et réalités du pays. Voire plus bas si on veut traiter des habitudes plus locales.
C’est le problème d’utiliser des IA telles que ChatGPT “as-is”, au lieu de prendre une IA sur hugging face et de la réentraîner avec ses propres jeux de données. Utilisée comme actuellement on en prend le chemin, l’IA est un vecteur de conformisation à des modèles tout fait, une convergence des pratiques et des goûts.
A voir si cela reste rentable dans le temps (peut-on indéfiniment voir des films créés sur la même structure sans perdre en inpact? Peut-on construire tous les 10⁄20 ans des succès musicaux toujours sur le même rythme? Générer en boucle un contenu “convenu” suffit-il réellement du moment que la pub le vend bien?)
J’aime bien observer, car l’IA je trouve a tendance à exagérer nos tendances et comportements moyens habituels, et se retrouve critiquée pour des côtés parfois très humains (un médecin spécialiste qui voit surtout des gens malades ne finit-il pas par toujours détecter des maladies même chez des gens plutôt sains?)
Perso, l’émergence de l’IA me rend plutôt humble: je trouve que nous sommes des machines, qu’on ne raisonne pas tant que cela et que l’instinct/l’expérience parle suffisamment souvent pour que l’IA nous dépasse statistiquement rapidement.
Le
14/06/2023 à
07h
28
Tandhruil a dit:
J’aurais plutôt titré : Les biais humains renforcent les biais des modèles d’IA génératifs
+1
Et ce qui est étrange, c’est de voir régulièrement les IA s’enfoncer dans ces biais, être accusées de ne pas être impartiales, alors qu’au final, je vois ça un peu comme une simulation accélérée de l’humain moyen. J4ai toujours l’impression que l’IA fait un peu “comme nous”, mais au lieu de nous remettre en question, on se dit que c’est l’IA qui a un problème.
Leur disparition n’en demeure pas moins un triste évènement bien que l’avenir affiché de cette technologie était une immondice propriétaire lorsque la production aurait été rentable : Intel voulait enfoncer le cloud de sa supériorité dans le serveur en proposant une technologie indispensable que seul eux auraient pu proposer avec leur processeurs.
C’était juste leur vision de ce que sera le futur: une unification RAM/stockage et une RAM non volatile. C’était intéressant sur ce principe d’expérimentation.
Le
13/06/2023 à
17h
10
sleid a dit:
Et vous avez copié 1To de données dessus et vous avez réussi a relire intégralement ce To ?
Ce sont des prix courants. Là n rouve 2to pour 100€ (western digital) environ et 4 to pour 200€(crucial) Ce sont des SSD bas de gamme, limités en transfert et endurance, mais très bon pour du stockage (photo, vidéo, applis)
Personnellement je ne vois pas cela comme un remplacement des artistes. Dans mon cas je le verrais comme un complément pour trouver de l’inspiration.
Certains “artistes”, si, totalement.
Le
13/06/2023 à
08h
46
(quote:2137724:alex.d.) Moi je vois un changement quand même : on est passés des reprises des années 80 aux reprises des années 90.
SebGF a dit:
J’ai du mal à voir l’intérêt vu que quand j’entends la musique “de maintenant” (oué suis un vieux con) j’ai l’impression d’écouter que des reprises des années 90 ou des trucs qui sont déjà auto-générés par des synthétiseurs.
Sans compter les reprises des années 60-70 faites dans les années 80-90
Certains remettaient en cause le choix des sujets trop loin de ligne éditorial d’origine. En effet je rejoins ce qui ont répondu qu’il y a de moins en moins de chose à raconter dans le monde de l’IT.
C’est surtout côté geekado que ça n’est pas violent: les CG se suivent et se ressemblent, les CPU aussi…
Ca reste assez large quand même. Tout n’est pas ficelé. Il reste pas mal à voir niveau IOT, Cloud, Souveraineté … On est dans le moyen/long terme, l’avenir, les opportunités, les potentiels, la stratégie sous-jacente…
La pénurie des sujets IT touche également les autres médias d’info de l’IT. Il y a par exemple Phonadroide,
J’évite ce genre de site. Leurs “articles” semblent livrés tout fait avec une nette propension à orienter le marché. Tu cites les voitures électriques: Phonandroid, jv.com ne font pas d’analyse comme NXI le ferait: ils publient à la suite des tonnes d’annonces de produits qui “arriveront” (ex: la batterie qui tient 1000km - sauf que c’est les chiffres chinois, en norme européenne ça fera certainement en gros 400km :) ), tous leurs articles ont des titres limite putaclic, pas de source autre qu’un communiqué de presse mal traduit (au mieux) et tous ont un point commun: ils te disent d’attendre. Ca sent la campagne de com’ d’un constructeur chinois un peu en retard pour que son produit arrive sur le sol européen.
C’est ce qui est défendu ici: l’existence d’un média indépendant, qui prend son temps pour analyser et expliquer. Du journalisme donc.
Le web est rempli de pseudo média, dont le contenu est à plus de 50% orienté (par les sponsors, par le groupe qui les détient).
Si tu as vécu dans les années 90, on rejoue la presse du jeux vidéo (avec les articles qui encensent systématiquement un jeu moyen mais qui a payé l’encart publicitaire double page du milieu…)
JE sais, ça fait “de mon temps”, ça fait “boomer”, mais j’assume: c’est du déjà vu.
Le
09/06/2023 à
11h
27
Marrix a dit:
Un peu marre de voire la même tête à la même époque réclamé des sous-sous au chantage du dépôt de bilan. J’apprends qu”en 23 ans vous n’avez toujours pas innové pour générer des revenus… A regarder vos concurrents ils sont un peu plus astucieux et ils s’en tirent sans réclamer de dons ou de mécénat. Ils ont pris des risques et je peux vous dire que ca paie !!!
J’ai du mal avec ce post: NXI a quand même eu les bon plans tech, le comparateur… Et quels concurrents s’en sortent? Ceux qui sont dans un méga groupe média et sortent dix articles par jour de 1 page totalement orientés??
Le
09/06/2023 à
04h
56
kazord a dit:
Podcast je suis pas contre. La vidéo c’est le mal de notre siècle, a toutes les sauces, Les gens ne savent plus lire, pour avoir au final 3 infographies sur 20 minutes de vidéo, je veux bien qu’on m’explique l’intérêt de consommer 9-10x la bande passante du coup.
Tout à fait d’accord
(quote:2136794:skankhunt42 ) En attendant des simple youtubeurs avec un cameraman et un monteur gagnent dix fois plus. Et que je lis juste “ ouin ouin trou de 200 k “.
Si une diversification “vulgarisation” est peut-être envisageable pour essaye rde financer, ce n’est pas simple car:
non les youtubeurs ne gagnent pas tant que cela sur les sujets “coeur” de NXI
les sujets de NXI sont plus du niveau de “vous avez le droits” que “linus tech tips”
les vidéos, c’est clivant, on aime ou on aime pas du tout un youtuber
Et je reprend sla remarque au-dessus: dans une vidéo de 3 min, il y a3-4 infos, dans une lecture eNXI de 3 min, il y en a au moins 2 fois plus, détaillées et sourcées.
Comparer du journalisme à youtube (qui est pourri par une base “sociale” très bas niveau), c’est compliqué…
Le
08/06/2023 à
12h
06
Je pense aux employés, aux “talents” (pour une fois j’ose ce terme utilisé dans les offres d’emploi mais qui généralement me hérisse) qui travaillent malgré cette épée de Damoclès.
Le contenu récent, plus fréquent apparemment a eu quelques “coquilles”, mais il est INtéressant, revient sur des sujets que plus personne ne traite, ou enquête sur des sujets laissés de côtés ou bâclés par d’autres.
Bravo et merci pour ces dernières semaines et les prochaines, quelque soit l’issue. Il n’y a plus vraiment d’autres sites intéressant en Français. Et même en Anglais, l’offre reste maigre.
Euh je ne vois pas comment un PC moderne peut fonctionner sans firmware C’est le plus gros défaut de Debian, qui ne fonctionne pas vraiment par défaut tant qu’on n’a pas un peu réouvert vers le non-libre. Cette approche (seul le libre existe) rend l’accessibilité de l’OS difficile pour un non-linuxien.
Debian par du “minimum vital” et on ajoute (L’inverse de Windows donc). Si c’est le plus gros défaut, ce n’est pas bien grave :)
Par ailleurs, ce que tu cites concerne surtout les PC et workstations. Sur un serveur, on peut (parfois, souvent) tourner sans Firmware (pas de CG, pas de Wifi) et surtout, sur une VM, pas besoin de Firmware!
Donc si je regarde mon petit serveur perso, j’ai plutôt 1 debian avec les firmware, et 10 debian sans firmware.
J’ai beau réfléchir, à ce niveau, je crains que la seule chose qui permette de justifier le prix, c’est qu’il existe des couillons pour le payer.
Genre les cabinets dentaires avec des macs partout mais qui démarrent sous windows ou affichent un soft en SaaS…
Le
07/06/2023 à
09h
16
Tirnon a dit:
ah au moins là il y a de la place pour ajouter des cartes filles, pas comme chez intel et amd qui ont du mal à avoir plus qu’un seul port en 16x …
Regarde dans la bonne gamme, dans le workstations (= station de travail), ce sont les “PC” concurrencés par le Mac Pro. On trouve facilement 4 à 6 ports PCI-e, à moitié du prix de Apple.
Après, dans ce cas, il faut bien se renseigner sur l’archi: quels ports sont sur le CPU, quels ports sont sur un chipset (ce que Apple ne semble pas divulguer)
Article intéressant, mais il manque énormément de contexte, au moins sur le côté environnemental :
1/ 552 teqCO₂, ça veut dire quoi ? Est-ce beaucoup ou pas ?
En Europe on compte ~10 teqCO₂ par personne et par an. La cible donnée pour 2050 est de 2 teqCO₂ par an et par personne.
Donc 552 tonnes, c’est pas grand chose pour un projet qui a déjà changé pas mal de choses dans le monde. C’est équivalent à la prod de 50 européens.
Ou à 50 ans d’une vie d’apprentissage.
Il reste à évaluer le coût à l’utilisation pour savoir si c’est rentable, mais niveau apprentissage, ça me paraît rentable face à des humains (mais difficile de dire qu’il faut arrêter de produire des humains, c’est mal vu)
Si ton OS est clean mais que le driver video & media , proprio, dispose de fonctions de “débug” activable par exemple via un certain type de paquet réseau, l’OS pourra pas forcément faire grand chose
(quote:2135896:consommateurnumérique) Toujours étonnant de voir le marketing, la communication médiatique, traités comme quelque chose de vulgaire.
De mon point de vue: même nocif. Certaines communications sont intéressantes, mais il y a un brouhaha, un bruit de fond énorme qui noie totalement toute bonne volonté dans ce domaine. Ce n’est pas nouveau, ça a toujours été. L’imprimerie a été le 1er boom de la communication publicitaire, il y en a eu un dans les années 1800 avec le développement du journal (lié à l’éducation, au fait que de plus en plus de gens savaient lire, et que les langues locales disparaissaient), puis avec la TV et maintenant internet.
A chaque fois il a fallu tenter de réguler les abus.
Le
05/06/2023 à
08h
04
psikobare a dit:
Belle perf de Capucine Anav qui a profité d’une interview sur le sujet pour refaire de la pub Twitter
Ah oui elle n’a pas inventé l’eau tiède…
Je ne suis pas la sphère des “influenceurs” (j’ai bien quelques youtubeurs qui m’intéressent, mais en gros 1 vidéo sur 2 me paraît un peu légère)
Je ne sais même pas qui, à quelle occasion, comment on se retrouve sur des vidéos de ce genre de personne.
Mon moto: ne JAMAIS installer de pilote / utilitaire fourni par le constructeur SAUF à en avoir un besoin impérieux. De même, désactiver les applis du constructeur sur le tel…
Entre les failles chez HP, Dell, Lenovo, MSI, …
Ces outils ne sont toujours pas pris super au sérieux visiblement, souvent en creusant on trouve des traces que ce n’est pas le constructeur qui le développe et que la boîte qui le développe change régulièrement - et encore, quand il y a des mises à jour.
Là il va falloir passer à des UEFI alternatifs pour se prémunir de ces bloatwares…
Il suffit de travailler en millièmes ou en millionièmes donc en entier et d’utiliser la mise en forme pour s’occuper de l’affichage correct. cela donne par exemple le format 0,00 “€” qui va afficher avec deux chiffres significatifs une valeur après division par 1000.
On m’a dit, “en dessous du milliard ça fait pas sérieux”. Donc on est passé en milliards :) Mais bon, ça fait au plus 0,5 milliard…
Le
02/06/2023 à
08h
28
wanou a dit:
C’est le problème avec de nombreux calculs qui sont basés sur des nombres décimaux et qui doivent donner des résultats décimaux, genre excel. En SQL, il existe un type décimal, à virgule fixe qui fait bien l’affaire également et est très utilisé dans les calculs financiers ou tout ce qui doit être exact. Ce sont en fait des entiers.
D’où parfois les prises de bec avec les comptables qui utilisent Excel pour vérifier le logiciel de compta :)
Le problème est que, pour le moment, c’est implémenté logiciellement dans des bibliothèques telles que BigFloat que l’on trouve en Python ou en Perl et sûrement dans d’autres languages.
C#, Visual Basic, et même le VBA dans Excel ont un type décimal
A notre époque, il serait plus que temps de pouvoir travailler en décimal natif dans nos FPU et permettre enfin à nos tableur de calculer aussi bien que ma HP48G.
Hum, des instructions permettent de l’implémenter depuis le 8086 (eh oui, c’est du CISC car à l’époque avoir des instructions de ce type en assembleur c’était classe)
Hé oui, les nombres flottants sont calculés et stockés en décimal dans une HP48. Dans un registre de 64 bits soit 16 quartets pour la simple précision (un quartet de signe, 5 quartets d’exposant et 10 quartets de mantisse), et dans 80 bits soit 20 quartets pour les « extended Real ».
Les FPU depuis le 8087 ont un extended range de 80bits.
Le
01/06/2023 à
08h
50
La virgule flottante était encore étudiée en cours de mon vieux temps. Mais déjà beaucoup n’écoutaient pas, trop technique, ils ne voyaient pas l’intérêt.
Sauf que quand on arrive sur un système de facturation avec des nombres stockés en virgule flottante, et des millions de lignes, on arrive à faire du calcul avec un nombre qui est l’epsilon de l’autre, tout en cumulant les écarts sur les erreurs (comme le fait que certains nombre ne sont pas codables). Sans compter que les compilos (VB) et la façon d’écrire le programme fait perdre les infos d’arrondi (le FPU garde un trace que son nombre n’est pas exact, si on garanti de faire les calculs à la suite l’erreur est minimisée, mais si on fait une boucle et que chaque calcul est fait “séparément” on perd les infos).
Par exemple (en tirant le trait): 1000000+0,01 = 1000000, même si on le fait 1M de fois (un trop grand nombre sur une opérande fait dépasser la mantisse, donc le nombre plus petit est 0 lors du calcul).
Quand je vois float/double dans les programmes, je me demande toujours si la personne qui l’a écrit maîtrise le concept.
Je me rappelle aussi d’un cas où sur un PSION, dans le tableur, 199+200 = 399 rendait “faux” … Toutes les comparaisons devaient être faites avec un intervalle :)
Par contre, ce n’est pas un “problème”: le calcul en virgule flottante est excellent quand maîtrisé et parfaitement adapté aux calculs scientifiques (mais surtout pas compta/paie).
C’est un des défauts que je trouve à JS: il me semble qu’il ne connaît que la virgule flottante avec sa gymnastique particulière.
(pour rappel, le 3DNow de AMD était pas mal basé sur une virgule flottante approximative pour gagner en vitesse :) - donc avoir une approximation est déjà utile) (deuxième utilité: voir la vidéo sur l’optimisation de quake3, avec un développement limité très approximatif pour faire de mémoire 1/sqrt(x) , et une bidouille pour précharger le FPU directement avec un entier codé…)
Pas de bol, les lois physiques de la thermodynamique et de la thermique ont eu raison de l’optimisme effréné d’ Intel…
La loi du branch prediction aussi. Car les P4 étaient mauvais sur des algo peu “déterministes”, mais alors sur l’encodage vidéo, ils enterraient tout le monde (de mémoire).
Le
30/05/2023 à
12h
40
croustx a dit:
J’avais un Intel overdrive qui se montait par dessus le CPU qui était soudé à la carte mêre.
On restait avec ces solutions sur les limitations de la carte mère notamment en termes de vitesse d’IO, de ports (VLB au lieu de PCI), de vitesse mémoire.
Le
30/05/2023 à
06h
46
Petite remarque en relisant: le P-Rating a été réutilisé en 2000, mais à très bon escient: les P4 du début étaient atroce: un P4 2,4GHz se faisait régulièrement rétamer par un Athlon 1,3GHz
Sinon, mis à part les technos d’économies d’énergie, j’ai trouvé quelques chiffres, pas trop pour le 386 et 486 malheureusement (à l’époque, la conso du CPU n’était pas un problème - je sais qu’un 386 consommait moins de 2,5W - il y a une mesure à 260mA sous 5V, soit 1,3W pour un DX 33 qui traîne mais je ne suis pas sûr que ce soit la généralité) (et oui, les CPU des vieux ordis consomment moins qu’un CPU de smartphone en activité)
Donc, pour ceux qui veulent voir à quel point la montée en puissance de calcul a été surtout une montée dans la capacité à ne pas crâmer sur place: Wikipedia
Le
27/05/2023 à
13h
46
Le bond en vitesse à l’époque s’accompagnait d’un bond en ipv4: la division je crois qu’elle faisait jusque 84 cycles sur un 8086, 24 sur un 286, 4 sur un 486. Le marketing d’Intel était à toc, les concurrent pouvaient être bien plus performants (oui, même cyrix/idt selon le cas de figure). Et à cette époque monter un pc était (un peu) plus compliqué avec les jumpers de partout pour configurer la vitesse du cpu, du bus, souvent en termes de multiplication de l’un par rapport à l’autre, et même sur les cartes il y avait des jumpers. C’est aussi un période où le bond en terme de conso et échauffement commençait, car la puissance de calcul est venu avec la puissance électrique consommée par le cpu. Le refroidissement actif ‘obligatoire’ est arrivé avec les DX2 (ils devaient dissiper 15-20w je pense vu la taille du refroidisseur)
Petite remarque sur les annonces “marketing”: le +20% “power efficiency” est-il mesuré uniquement en condition de charge?
Car c’est souvent le cas, et selon l’utilisation c’est la conso au repos qui est importante.
Par exemple dans les tel portables: on n’a pas gagné en autonomie grâce à l’efficience des CPU/GPU, qui sont utilisés 90% du temps (même plus en fait) à très faible régime, mais parce que les batteries ont doublé de capacité en 6ans (2500mAh -> 5000mAh).
Au final l’autonomie des terminaux a peu évolué: en gros 2j.
C’est comme pour les CPU de PC de bureau et même de portable: longtemps on a comparé l’efficience du CPU à pleine charge (ce qui donne u avantage généralement à AMD) alors qu’au repos/à charge faible (genre … les 80% d’ordis utilisés uniquement en bureautique/internet), l’avantage semble plutôt chez Intel depuis des années.
De même avec la percée de l’IA, le CPU/GPU ne sont plus forcément les plus importants, mais les instructions d’IA + une structure mémoire adaptée sont très importants pour conserver l’énergie sur les terminaux.
Pour résumer ce que j’ai compris:
belle avancée sans être un bond pour les terminaux lourds (genre enfin un ordi ARM pour Windows?) et peut-être serveurs, cartes embarquées genre RPI
(quote:2135033:Erwan123 Les mecs qui collent des motards, c’est juste qu’ils jouent avec ta vie, mais pas avec la leur, et n’en ont rien à ciré du 2 roues devant eux…
Difficile de penser que les motards ne jouent pas tout seuls avec leur vie: les distances de sécurité, c’est eux qui les réduisent 90% du temps. Motard ou voiture, je ne colle pas les autres, mais les motards passent entre 2 voiture pour prendre une sortie au dernier moment, coupent la route d’un coup en venant en contresens sans se soucier qu’on ne pouvait pas les voir derrirère une camionette, coupent les virages en montagne…
Le
31/05/2023 à
16h
35
k0rnmuz3 a dit:
OK, tu n’as jamais eu peur en voiture… Genre le vélo qui tombe sans sommation pendant que tu t’apprête à le doubler ou la biche qui fonce droit sur toi dès sa sortie du bas côté.
(quote:2134917:Idiogène) Sur la plupart des modèles de série l’ABS sur neige je ne compte pas dessus.
On ne compte JAMAIS sur un système de sécurité. On espère ne pas en avoir besoin, et on est content quand il a fonctionné.
Un coup de frein pour moi c’est souvent une erreur de ma part, une négligence. Je le prends mal. Je conduis en freinant très (très très) peu.
Le
30/05/2023 à
13h
32
(quote:2134901:Idiogène) Sur sol mouillé l’eau n’est pas chassée roues bloquées. … le rendement du freinage est largement inférieur à l’optimisation que peut faire l’abs.
Il n’empêche qu’il m’arrive de rouler sur toure mouillée ou sur neige. Sur neige, l’ABS est clairement utile en cas de danger…
Le
30/05/2023 à
13h
27
k0rnmuz3 a dit:
En effet, l’ABS permet de conserver le contrôle du véhicule en tout circonstance et donc optimiser les distances de freinages. Mais l’ABS ne diminue pas les distances de freinage
On m’aurait menti? Dans les années 90, je me rappelle qu’il n’était pas si rare qu’on annonce des carambolages sur les routes fréquentées. A l’époque, en cas de freinage violent, on dérapait facilement sans ABS. Or en dérapant, tu ne freines pas. Si le gars devant fait un freinage d’urgence avec un ABS et que toit tu n’en n’a pas, tu vas glisser jusqu’à le taper.
Le
30/05/2023 à
07h
44
Patatt a dit:
d’où une part des soucis rencontrés par des gens ayant fait confiance au marketing.
Il va falloir que les gens apprennent à prendre leur distance avec le marketing.
Le
30/05/2023 à
06h
49
(quote:2134756:Idiogène) Ce qui revient à payer un chauffeur en quelque sorte… l’IA n’a donc aucun effet économique. CQFD.
Tu n’es pas censé lâcher le volant, c’est sous responsabilité du conducteur. C’est comme la conduite accompagnée finalement - il faudrait mettre un sticker à l’arrière du véhicule pour le signaler
(blague à part, dans les années 90, il fallait mettre un sticker à l’arrière des voitures équipées de l’ABS histoire qu’une voiture qui ne l’a pas ne la colle pas de trop près…)
Ah bah ça me promet bien du plaisir pour retrouver du boulot si je suis en concurrence avec des “p’tit jeunes” aidé par une “Intelligence” capable de répondre à des questions sur les œufs de vache (si, si, véridique, testé par un pote).
Pour moi, le problème c’est la maintenance: tout le monde peut créer un programme, mais alors le faire évoluer, pour le moment c’est un peu limité. Et le corriger … c’est très aléatoire.
En gros, en IA de ce que je vois, pour corriger avec l’IA on va plutôt lui faire recréer une partie, avec parfois des effets de bords en plus du fait qu’elle ne va pas forcément recréer 2 fois la même chose.
Il faudrait qu’on puisse faire ingurgiter correctement le cahier des charges qualité à l’IA.
Par ailleurs dans les “droits et devoirs” des fonctionnaires il existe le “droit à la protection des auteurs de signalements”, qui fait qu’aucune décision disciplinaire ne peut découler d’un signalement. Donc si elle a été révoquée, ce ne peut pas être au motif de cette dénonciation, ou alors ils ont vraiment tout faux.
J’ajoute, même si dans le contexte je ne pense pas que ça s’applique: “ L’agent public doit se conformer aux instructions de son supérieur hiérarchique, sauf dans le cas où l’ordre donné est manifestement illégal et de nature à compromettre gravement un intérêt public.”
Je me demande si Nintendo va réagir. Apres la mise à mort des PSP, tous les acteurs semblent à nouveau passionnés par les consoles portables.
Ce que nous apprend l’histoire: ne pas surréagir. Pour le moment, c’est juste un ensemble d’épi-phénomène. Nintendo va peut-être ajuster le planning, mais surtout rien sortir à l’arrache.
Ces machines sont belles, puissantes, mais c’est un peu comme des motos de collection: on les sort les jours de beau temps. Ca ne remplace pas une bonne vieille switch familiale bien plus abordable et sur laquelle on peut jouer à 2 tout de suite.
Moi, non-plus, les premiers Xeon c’était de la grosse blague… En fait, si le x86 est devenu si important, c’est sans-doutes en partie à cause d’AMD qui a commencé à utiliser des technologies d’interconnexion sérieuses comme l’hypertransport qui rendaient le multi-socket enfin exploitable correctement…
Et à bas coût. De même que pour le monde des PC, le monde des serveurs a été envahi de x86 car c’était moins cher et toutes les marques pouvaient en faire.
Lors qu’à part IBM pour les power, Sun pour les sparc et digital pour les alphas, ça ne se bousculait pas au portillon.
Le
23/05/2023 à
16h
51
OlivierJ a dit:
Les compilos savaient les générer (ne serait-ce que les boucles),
Pour certaines boucles, ça devait fonctionner. Toutefois, LOOP et un compteur dans CX ne fait pas tout.
De mémoire, c’était très limité (Turbo Pascal, Turbo C). Et souvent sans aucune optimisation sur les registres (capables de de relire dans AX un emplacement mémoire qu’ils viennent d’écrire avec BX…). De même, nu code en C qui fait une division et récupère le reste se voyait exécuter 2 fois la division, alors que le reste était donné déjà par la 1ère division. D’ailleurs en ARM première version, ils trouvaient que la division c’était superflu…
Les librairies standards avaient les instructions ASM spécifique, mais dans un algo, jamais (du temps du 16 bits) je n’ai vu la version compilée utiliser les instructions MOVS ou CMPS qui permettaient de copier/comparer des espaces mémoire.
ensuite on s’est vite retrouvé avec les 486 et surtout pentium, donc écrire de l’assembleur pouvait être contre productif.
Le
23/05/2023 à
09h
42
Z_cool a dit:
Si je me trompe pas, on pretend souvent que les perfs inegallées des CPUs ARM d’Apple est gagné grace a l’abandon du 32 il y a quelque années.
Voici mon avis:
x86 a été conçu quand la RAM coûtait cher, était très lente, et on programmait encore en assembleur. D’où des instructions capables de faire des boucles pour comparer des chaînes, ou des instructions pour faire du calcul décimal en BCD directement dans le CPU.
Dans les années 80, le prix de la RAM et la vague des langages compilé a balayé l’usage de ces instructions (car les compilos ne savent pas quand les générer)
D’où le constat fin 80 lors de la conception des ARM que seules les instructions +,-,*, les comparaisons, les échanges mémoire et les sauts sont utiles
ARM a continué avec ses instructions relativement limitées
Mais côté x86, on est passé du CPU tout câblé au CPU super scalaire qui réinterprète l’assembleur en autre chose, multiplie les registres en interne, et exécute tout sur des coeurs plutôt RISC.
Les anciennes instructions ne “plombent” pas vraiment le CPU (certaines sont déjà “émulées” via du microcode), mais les différents types d’accès mémoire sont certainement une plaie.
Intel ne supprime pas d’après le document le 32 bits, les instructions perdurent, il faut “juste” fournir un environnement 32 bits dans un OS 64. Par contre le mode VM86 disparaît et différents systèmes de “sécurité” jamais utilisés.
jpagin a dit:
Je me suis posé une question en lisant cet article : on a des processeurs 32 bits, 64 bits, mais est-ce qu’un jour on va voir arriver des processeurs 128 bits ? Y-a-t-il un intérêt à cela ?
Si le “128-bits” correspond à la largeur du bus mémoire, c’est encore un peu loin … On n’arrive pas à créer un ordi qui aurait la RAM maximale gérée par du 64 bits (par ailleurs, je doute que les ordis câblent les 64 bits). Si c’est pour la largeur de bus… Sauf à vouloir un CPU qui dépote avec la RAM (comme les cartes graphiques), c’est un peu coûteux sur des ordis qui ont de la RAM en barette: il faudrait passer les 128 lignes de bus de transfert sur la carte mère, c’est coûteux.
Par contre je peux te rassurer: la plupart des ordis ont des instructions 128 bits (SSE, MMX), 256 ou 512 bits (AVX)
Ça dépend des contenus. Beaucoup ne sont disponibles nulle part (encore plus en France). Et même pour des contenus qui sont dispos, certains sortent des catalogues et ne seront bientôt plus disponibles. Je pense à Disney qui purge son catalogue de certains contenus dernièrement qui ne seront donc plus du tout disponible (ni en ligne, ni en physique).
J’ai envie de dire: et alors? Il faut guetter. C ne disparaît certainement que temporairement.
C’est pas nouveau. J’ai dû attendre combien d’années pour voir Bad Taste car il n’étaient pas dans les vidéo club près de chez moi (et à l’époque, vidéo club c’était pas signe de qualité vu l’état des cassettes)?
J’ai acheté des DVD version mexicaine car jamais édités en France à cause de droits sur la musique (Daria) ou au Canada par manque de demande (Pushing Daisies saison 2).
Par contre j’ai acheté direct les BR de Good Omens au cas où ça disparaîtrait du prime (et c’est resté)
Le
24/05/2023 à
21h
07
Lyzz a dit:
Énormément de films et séries récents ne sortent même plus en support physique malheureusement :(
Pour les films, je ne suis pas sûr, pour les séries, effectivement c’est variable. Mais j’ai assez avec ce qui existe déjà :) J’arrive à peine à dégager le temps de voir 2-3 films dans le mois, une saison de série c’est pareil, il faut bouger des choses pour la faire passer…
En fait, je ne comprends pas où les gens vont trouver le temps de voir ce qui passe sur Netflix.
Le
24/05/2023 à
06h
36
(quote:2133948:dvr-x) Le téléchargement va reprendre du service…
Ouh! La menace. Je vais surtout retourner chez EasyCash pour échanger des DVD/BR :) Qui a dit que les vidéo clubs étaient morts?
Pour Python, l’un de slogan du langage, c’est “batteries included”. Python vient avec tout ce qu’il faut. Les bibliothèques de base de Python sont en effet assez bien fournies et je pense dépasse largement ce que l’on trouve dans la bibliothèque standard de C++ par exemple.
Oui, je me suis mal exprimé. C’est la doc qui ne va pas et/ou les usages. Que ce soit en python, C#, même C++, on trouve des tutos qui utilise des librairies magiques que les auteurs essaient de pousser. Alors que si on lit la doc, on a déjà de quoi faire avec le langage.
Sauf que pour C#, je crois qu’il n’y a plus de doc téléchargeable (avant en Java, j’avais la doc java sur mon poste, idem pour .Net jusque v4).
C’est assez terrible en fait: si on suit les exemples d’internet, il faut apprendre x bibliothèques (une par exemple) qui font télécharger y dépendances. On démarre vite, mais on alourdi l’appli ET son apprentissage.
Le
22/05/2023 à
06h
49
J’ai vraiment du mal avec les langages actuels (y compris .Net): TOUT est sous forme de package optionnel. Même des fonctionnalités basiques qui font partie 10 fois de l’OS (genre… les packages XML/JSON que certains projets utilisent).
On télécharge des dizaines (voire centaines) de Mo de packages et dépendances juste pour faire un serveur Web (qui est une chose “assez” basique) et on ne maîtrise plus rien.
Même RUST est basé sur ce type de comportement: je suis de l’ancienne école: quand j’installe un environnement de dev, je veux que des packages standards soient sur mon ordi, avec la doc, et que leur version change une fois tous les 2 ans au plus (j’accepte les mise à jour intermédiaires de sécu bien sûr).
L’écosystème python, si on n’est pas plongé dedans, c’est la caricature du dev actuel. Les exemples font télécharger plusieurs librairies, et python n’est pas le plus utile du tout, c’est une librairie particulière qui fait le taf, et soit elle n’est pas open source, soit elle contient une partie closed source sous forme de DLL voire discrètement de service web…
Ca fait cher. Même si on considère que ça a plus le look console, les NVidia Shield de 2014 faisaient mieux sauf sur l’autonomie (et encore, en jeu dans le cloud, c’est pas la cata), et en 2016 elles coûtaient 200€ (mais sans la manette, donc 260€ avec). A voir si la Shield est compatible XBox, mais pour Geforce Now c’est toujours compatible.
Je ne vois pas trop où ils veulent se positionner avec ce produit, je rate peut-être quelque chose.
Le mien n’est pas noté en A, mais en W maxi soit 4400w maxi en sortie -> 20A. Je me demande si l’article ne prend pas 40A mais en 110V
Shelly m’a répondu. C’est bien 40A, même pour ma V1, mais c’est mon mode d’emploi papier qui est erroné. Sur le V1, vu que les 4 voies sont câblées totalement indépendemment, 20A par voie ne fait pas peur.
Le
13/05/2023 à
07h
34
white_tentacle a dit:
Ici on a les sorties en haut, en l’entrée du neutre en bas (avec, comme tu l’as souligné une section de 2,5 pour du 40A ). C’est ce genre de détails qui ne rassurent pas sur la conception du produit.
Le mien n’est pas noté en A, mais en W maxi soit 4400w maxi en sortie -> 20A. Je me demande si l’article ne prend pas 40A mais en 110V
Je te rejoins pour le cablage inversé.
Le
13/05/2023 à
07h
31
ForceRouge a dit:
Je ne sais pas ce que dit la NFC 15 100 là dessus, mais du coup, il faut que chaque radiateur remonte individuellement jusqu’au tableau?
Chez moi c’est le cas
Le
12/05/2023 à
08h
17
Mindblast a dit:
Un gadget polluant de plus, à quoi peut bien servir un monitoring à domicile ?
Furanku a dit:
Je rejoins les critiques qui soulignent la consommation excessive pour un tel appareil.
J’en ai un depuis 1 an, et l’intérêt, c’est de le scripter. Il exécute tout seul un script, il me sert de délesteur automatique: au lieu de risquer que tous les radiateurs se mettent en route en même temps (notamment quand je suis en vacances d’hiver), il n’en permet que 2 à la fois pendant 30 min.
Je peux aussi lui envoyer un message pour tout couper dès que Linky déclenche le signal de dépassement.
Franchement j’adore les shelly. C’est juste bien fait, avec l’option cloud OU l’option DIY et ça s’intègre automagiquement dans homeassistant.
Et pourtant je ne suis pas domotique à fond… Mais j’en ai eu besoin en rénovation.
3768 commentaires
Les modèles d’IA génératifs renforcent les biais humains
14/06/2023
Le 14/06/2023 à 08h 42
Il est très difficile de détecter tous les biais. Exemple: si tu fait ingurgiter à une IA des dossiers de patients malades uniquement, elle risque de trouver des maladies aux patients sains, puisque pour elle tout le monde est malade.
Concernant les biais, on va en trouver encore un moment, car les IA sont essentiellement portées par les US, donc on aura toujours des biais US, mêlés au biais des personnes qui font ingurgiter les jeux de données aux IA (Indiens? Kenyans? Malgaches?)
Si on veut une IA sans biais, il va falloir une IA par pays déjà, pour refléter les habitudes et réalités du pays. Voire plus bas si on veut traiter des habitudes plus locales.
C’est le problème d’utiliser des IA telles que ChatGPT “as-is”, au lieu de prendre une IA sur hugging face et de la réentraîner avec ses propres jeux de données.
Utilisée comme actuellement on en prend le chemin, l’IA est un vecteur de conformisation à des modèles tout fait, une convergence des pratiques et des goûts.
A voir si cela reste rentable dans le temps (peut-on indéfiniment voir des films créés sur la même structure sans perdre en inpact? Peut-on construire tous les 10⁄20 ans des succès musicaux toujours sur le même rythme? Générer en boucle un contenu “convenu” suffit-il réellement du moment que la pub le vend bien?)
J’aime bien observer, car l’IA je trouve a tendance à exagérer nos tendances et comportements moyens habituels, et se retrouve critiquée pour des côtés parfois très humains (un médecin spécialiste qui voit surtout des gens malades ne finit-il pas par toujours détecter des maladies même chez des gens plutôt sains?)
Perso, l’émergence de l’IA me rend plutôt humble: je trouve que nous sommes des machines, qu’on ne raisonne pas tant que cela et que l’instinct/l’expérience parle suffisamment souvent pour que l’IA nous dépasse statistiquement rapidement.
Le 14/06/2023 à 07h 28
+1
Et ce qui est étrange, c’est de voir régulièrement les IA s’enfoncer dans ces biais, être accusées de ne pas être impartiales, alors qu’au final, je vois ça un peu comme une simulation accélérée de l’humain moyen. J4ai toujours l’impression que l’IA fait un peu “comme nous”, mais au lieu de nous remettre en question, on se dit que c’est l’IA qui a un problème.
Les disques durs HAMR de 32 To arrivent chez Seagate, 36 à 50 To à suivre
13/06/2023
Le 14/06/2023 à 08h 32
C’était juste leur vision de ce que sera le futur: une unification RAM/stockage et une RAM non volatile. C’était intéressant sur ce principe d’expérimentation.
Le 13/06/2023 à 17h 10
Ce sont des prix courants. Là n rouve 2to pour 100€ (western digital) environ et 4 to pour 200€(crucial)
Ce sont des SSD bas de gamme, limités en transfert et endurance, mais très bon pour du stockage (photo, vidéo, applis)
Meta publie MusicGen, un algorithme de génération de musique
13/06/2023
Le 13/06/2023 à 08h 46
Certains “artistes”, si, totalement.
Le 13/06/2023 à 08h 46
Sans compter les reprises des années 60-70 faites dans les années 80-90
Next INpact vit ses dernières semaines… sauf miracle
12/06/2023
Le 13/06/2023 à 07h 00
C’est surtout côté geekado que ça n’est pas violent: les CG se suivent et se ressemblent, les CPU aussi…
Ca reste assez large quand même. Tout n’est pas ficelé. Il reste pas mal à voir niveau IOT, Cloud, Souveraineté … On est dans le moyen/long terme, l’avenir, les opportunités, les potentiels, la stratégie sous-jacente…
J’évite ce genre de site. Leurs “articles” semblent livrés tout fait avec une nette propension à orienter le marché.
Tu cites les voitures électriques: Phonandroid, jv.com ne font pas d’analyse comme NXI le ferait: ils publient à la suite des tonnes d’annonces de produits qui “arriveront” (ex: la batterie qui tient 1000km - sauf que c’est les chiffres chinois, en norme européenne ça fera certainement en gros 400km :) ), tous leurs articles ont des titres limite putaclic, pas de source autre qu’un communiqué de presse mal traduit (au mieux) et tous ont un point commun: ils te disent d’attendre. Ca sent la campagne de com’ d’un constructeur chinois un peu en retard pour que son produit arrive sur le sol européen.
C’est ce qui est défendu ici: l’existence d’un média indépendant, qui prend son temps pour analyser et expliquer. Du journalisme donc.
Le web est rempli de pseudo média, dont le contenu est à plus de 50% orienté (par les sponsors, par le groupe qui les détient).
Si tu as vécu dans les années 90, on rejoue la presse du jeux vidéo (avec les articles qui encensent systématiquement un jeu moyen mais qui a payé l’encart publicitaire double page du milieu…)
JE sais, ça fait “de mon temps”, ça fait “boomer”, mais j’assume: c’est du déjà vu.
Le 09/06/2023 à 11h 27
J’ai du mal avec ce post: NXI a quand même eu les bon plans tech, le comparateur…
Et quels concurrents s’en sortent? Ceux qui sont dans un méga groupe média et sortent dix articles par jour de 1 page totalement orientés??
Le 09/06/2023 à 04h 56
Tout à fait d’accord
Si une diversification “vulgarisation” est peut-être envisageable pour essaye rde financer, ce n’est pas simple car:
Et je reprend sla remarque au-dessus: dans une vidéo de 3 min, il y a3-4 infos, dans une lecture eNXI de 3 min, il y en a au moins 2 fois plus, détaillées et sourcées.
Comparer du journalisme à youtube (qui est pourri par une base “sociale” très bas niveau), c’est compliqué…
Le 08/06/2023 à 12h 06
Je pense aux employés, aux “talents” (pour une fois j’ose ce terme utilisé dans les offres d’emploi mais qui généralement me hérisse) qui travaillent malgré cette épée de Damoclès.
Le contenu récent, plus fréquent apparemment a eu quelques “coquilles”, mais il est INtéressant, revient sur des sujets que plus personne ne traite, ou enquête sur des sujets laissés de côtés ou bâclés par d’autres.
Bravo et merci pour ces dernières semaines et les prochaines, quelque soit l’issue. Il n’y a plus vraiment d’autres sites intéressant en Français. Et même en Anglais, l’offre reste maigre.
Publication de Debian 12 « Bookworm » après un an, neuf mois et vingt-huit jours de développement
12/06/2023
Le 12/06/2023 à 08h 06
Debian par du “minimum vital” et on ajoute (L’inverse de Windows donc).
Si c’est le plus gros défaut, ce n’est pas bien grave :)
Par ailleurs, ce que tu cites concerne surtout les PC et workstations.
Sur un serveur, on peut (parfois, souvent) tourner sans Firmware (pas de CG, pas de Wifi) et surtout, sur une VM, pas besoin de Firmware!
Donc si je regarde mon petit serveur perso, j’ai plutôt 1 debian avec les firmware, et 10 debian sans firmware.
Puce M2 Ultra, MacBook Air 15, nouveaux Mac Pro et Studio : Apple achève sa transition vers Arm
06/06/2023
Le 11/06/2023 à 15h 21
Genre les cabinets dentaires avec des macs partout mais qui démarrent sous windows ou affichent un soft en SaaS…
Le 07/06/2023 à 09h 16
Regarde dans la bonne gamme, dans le workstations (= station de travail), ce sont les “PC” concurrencés par le Mac Pro. On trouve facilement 4 à 6 ports PCI-e, à moitié du prix de Apple.
Après, dans ce cas, il faut bien se renseigner sur l’archi: quels ports sont sur le CPU, quels ports sont sur un chipset (ce que Apple ne semble pas divulguer)
Difficile évaluation du coût environnemental et financier de l’utilisation des grands modèles de langage
08/06/2023
Le 09/06/2023 à 15h 08
Ou à 50 ans d’une vie d’apprentissage.
Il reste à évaluer le coût à l’utilisation pour savoir si c’est rentable, mais niveau apprentissage, ça me paraît rentable face à des humains (mais difficile de dire qu’il faut arrêter de produire des humains, c’est mal vu)
L’activation à distance des micros, caméras et GPS des terminaux numériques validée par le Sénat
09/06/2023
Le 09/06/2023 à 13h 32
Genre Next INpact
Apple Vision Pro : la réalité mixte finira-t-elle par décoller ?
07/06/2023
Le 07/06/2023 à 16h 08
On peut aussi parler des personnes qui ont des problèmes de vertiges récurrents (pas mal de monde en fait).
CPU AMD EPYC Rome (Zen 2) : un bug arrive après plus de 1 000 jours sans aucun redémarrage
06/06/2023
Le 06/06/2023 à 07h 44
« Name and shame » : la DGCCRF épingle six influenceurs
05/06/2023
Le 05/06/2023 à 09h 37
De mon point de vue: même nocif. Certaines communications sont intéressantes, mais il y a un brouhaha, un bruit de fond énorme qui noie totalement toute bonne volonté dans ce domaine.
Ce n’est pas nouveau, ça a toujours été. L’imprimerie a été le 1er boom de la communication publicitaire, il y en a eu un dans les années 1800 avec le développement du journal (lié à l’éducation, au fait que de plus en plus de gens savaient lire, et que les langues locales disparaissaient), puis avec la TV et maintenant internet.
A chaque fois il a fallu tenter de réguler les abus.
Le 05/06/2023 à 08h 04
Ah oui elle n’a pas inventé l’eau tiède…
Je ne suis pas la sphère des “influenceurs” (j’ai bien quelques youtubeurs qui m’intéressent, mais en gros 1 vidéo sur 2 me paraît un peu légère)
Je ne sais même pas qui, à quelle occasion, comment on se retrouve sur des vidéos de ce genre de personne.
Il faut vraiment avoir aboli son esprit critique…
Gigabyte corrige en urgence une faille dans l’UEFI de ses cartes mères
02/06/2023
Le 02/06/2023 à 15h 20
Mon moto: ne JAMAIS installer de pilote / utilitaire fourni par le constructeur SAUF à en avoir un besoin impérieux.
De même, désactiver les applis du constructeur sur le tel…
Entre les failles chez HP, Dell, Lenovo, MSI, …
Ces outils ne sont toujours pas pris super au sérieux visiblement, souvent en creusant on trouve des traces que ce n’est pas le constructeur qui le développe et que la boîte qui le développe change régulièrement - et encore, quand il y a des mises à jour.
Là il va falloir passer à des UEFI alternatifs pour se prémunir de ces bloatwares…
Les nombres en informatique : entiers, virgule flottante, simple et double précision (FP32/64), Tensor Float (TF32)…
01/06/2023
Le 02/06/2023 à 15h 08
On m’a dit, “en dessous du milliard ça fait pas sérieux”. Donc on est passé en milliards :)
Mais bon, ça fait au plus 0,5 milliard…
Le 02/06/2023 à 08h 28
D’où parfois les prises de bec avec les comptables qui utilisent Excel pour vérifier le logiciel de compta :)
C#, Visual Basic, et même le VBA dans Excel ont un type décimal
Hum, des instructions permettent de l’implémenter depuis le 8086 (eh oui, c’est du CISC car à l’époque avoir des instructions de ce type en assembleur c’était classe)
Les FPU depuis le 8087 ont un extended range de 80bits.
Le 01/06/2023 à 08h 50
La virgule flottante était encore étudiée en cours de mon vieux temps. Mais déjà beaucoup n’écoutaient pas, trop technique, ils ne voyaient pas l’intérêt.
Sauf que quand on arrive sur un système de facturation avec des nombres stockés en virgule flottante, et des millions de lignes, on arrive à faire du calcul avec un nombre qui est l’epsilon de l’autre, tout en cumulant les écarts sur les erreurs (comme le fait que certains nombre ne sont pas codables).
Sans compter que les compilos (VB) et la façon d’écrire le programme fait perdre les infos d’arrondi (le FPU garde un trace que son nombre n’est pas exact, si on garanti de faire les calculs à la suite l’erreur est minimisée, mais si on fait une boucle et que chaque calcul est fait “séparément” on perd les infos).
Par exemple (en tirant le trait): 1000000+0,01 = 1000000, même si on le fait 1M de fois (un trop grand nombre sur une opérande fait dépasser la mantisse, donc le nombre plus petit est 0 lors du calcul).
Quand je vois float/double dans les programmes, je me demande toujours si la personne qui l’a écrit maîtrise le concept.
Je me rappelle aussi d’un cas où sur un PSION, dans le tableur, 199+200 = 399 rendait “faux” … Toutes les comparaisons devaient être faites avec un intervalle :)
Par contre, ce n’est pas un “problème”: le calcul en virgule flottante est excellent quand maîtrisé et parfaitement adapté aux calculs scientifiques (mais surtout pas compta/paie).
C’est un des défauts que je trouve à JS: il me semble qu’il ne connaît que la virgule flottante avec sa gymnastique particulière.
(pour rappel, le 3DNow de AMD était pas mal basé sur une virgule flottante approximative pour gagner en vitesse :) - donc avoir une approximation est déjà utile)
(deuxième utilité: voir la vidéo sur l’optimisation de quake3, avec un développement limité très approximatif pour faire de mémoire 1/sqrt(x) , et une bidouille pour précharger le FPU directement avec un entier codé…)
L’incroyable évolution des processeurs : du 386 au 486 (plus d’un million de transistors), sans oublier les 5×86
26/05/2023
Le 01/06/2023 à 19h 24
La loi du branch prediction aussi. Car les P4 étaient mauvais sur des algo peu “déterministes”, mais alors sur l’encodage vidéo, ils enterraient tout le monde (de mémoire).
Le 30/05/2023 à 12h 40
Wikipedia
On restait avec ces solutions sur les limitations de la carte mère notamment en termes de vitesse d’IO, de ports (VLB au lieu de PCI), de vitesse mémoire.
Le 30/05/2023 à 06h 46
Petite remarque en relisant: le P-Rating a été réutilisé en 2000, mais à très bon escient: les P4 du début étaient atroce: un P4 2,4GHz se faisait régulièrement rétamer par un Athlon 1,3GHz
Sinon, mis à part les technos d’économies d’énergie, j’ai trouvé quelques chiffres, pas trop pour le 386 et 486 malheureusement (à l’époque, la conso du CPU n’était pas un problème - je sais qu’un 386 consommait moins de 2,5W - il y a une mesure à 260mA sous 5V, soit 1,3W pour un DX 33 qui traîne mais je ne suis pas sûr que ce soit la généralité) (et oui, les CPU des vieux ordis consomment moins qu’un CPU de smartphone en activité)
Donc, pour ceux qui veulent voir à quel point la montée en puissance de calcul a été surtout une montée dans la capacité à ne pas crâmer sur place: Wikipedia
Le 27/05/2023 à 13h 46
Le bond en vitesse à l’époque s’accompagnait d’un bond en ipv4: la division je crois qu’elle faisait jusque 84 cycles sur un 8086, 24 sur un 286, 4 sur un 486.
Le marketing d’Intel était à toc, les concurrent pouvaient être bien plus performants (oui, même cyrix/idt selon le cas de figure).
Et à cette époque monter un pc était (un peu) plus compliqué avec les jumpers de partout pour configurer la vitesse du cpu, du bus, souvent en termes de multiplication de l’un par rapport à l’autre, et même sur les cartes il y avait des jumpers.
C’est aussi un période où le bond en terme de conso et échauffement commençait, car la puissance de calcul est venu avec la puissance électrique consommée par le cpu. Le refroidissement actif ‘obligatoire’ est arrivé avec les DX2 (ils devaient dissiper 15-20w je pense vu la taille du refroidisseur)
Nouveaux cœurs Arm : CPU Cortex-X4, A720 et A520 en ARMv9.2 (64 bits), Immortalis-G720 et GPU « 5th Gen »
29/05/2023
Le 01/06/2023 à 07h 39
Petite remarque sur les annonces “marketing”: le +20% “power efficiency” est-il mesuré uniquement en condition de charge?
Car c’est souvent le cas, et selon l’utilisation c’est la conso au repos qui est importante.
Par exemple dans les tel portables: on n’a pas gagné en autonomie grâce à l’efficience des CPU/GPU, qui sont utilisés 90% du temps (même plus en fait) à très faible régime, mais parce que les batteries ont doublé de capacité en 6ans (2500mAh -> 5000mAh).
Au final l’autonomie des terminaux a peu évolué: en gros 2j.
C’est comme pour les CPU de PC de bureau et même de portable: longtemps on a comparé l’efficience du CPU à pleine charge (ce qui donne u avantage généralement à AMD) alors qu’au repos/à charge faible (genre … les 80% d’ordis utilisés uniquement en bureautique/internet), l’avantage semble plutôt chez Intel depuis des années.
De même avec la percée de l’IA, le CPU/GPU ne sont plus forcément les plus importants, mais les instructions d’IA + une structure mémoire adaptée sont très importants pour conserver l’énergie sur les terminaux.
Pour résumer ce que j’ai compris:
Une fuite de 100 Go de documents entache la gestion de Tesla et le fonctionnement de son Autopilot
30/05/2023
Le 01/06/2023 à 06h 12
Difficile de penser que les motards ne jouent pas tout seuls avec leur vie: les distances de sécurité, c’est eux qui les réduisent 90% du temps.
Motard ou voiture, je ne colle pas les autres, mais les motards passent entre 2 voiture pour prendre une sortie au dernier moment, coupent la route d’un coup en venant en contresens sans se soucier qu’on ne pouvait pas les voir derrirère une camionette, coupent les virages en montagne…
Le 31/05/2023 à 16h 35
OK, tu n’as jamais eu peur en voiture… Genre le vélo qui tombe sans sommation pendant que tu t’apprête à le doubler ou la biche qui fonce droit sur toi dès sa sortie du bas côté.
On ne compte JAMAIS sur un système de sécurité. On espère ne pas en avoir besoin, et on est content quand il a fonctionné.
Un coup de frein pour moi c’est souvent une erreur de ma part, une négligence. Je le prends mal. Je conduis en freinant très (très très) peu.
Le 30/05/2023 à 13h 32
Il n’empêche qu’il m’arrive de rouler sur toure mouillée ou sur neige. Sur neige, l’ABS est clairement utile en cas de danger…
Le 30/05/2023 à 13h 27
On m’aurait menti? Dans les années 90, je me rappelle qu’il n’était pas si rare qu’on annonce des carambolages sur les routes fréquentées.
A l’époque, en cas de freinage violent, on dérapait facilement sans ABS. Or en dérapant, tu ne freines pas. Si le gars devant fait un freinage d’urgence avec un ABS et que toit tu n’en n’a pas, tu vas glisser jusqu’à le taper.
Le 30/05/2023 à 07h 44
Il va falloir que les gens apprennent à prendre leur distance avec le marketing.
Le 30/05/2023 à 06h 49
Tu n’es pas censé lâcher le volant, c’est sous responsabilité du conducteur. C’est comme la conduite accompagnée finalement - il faudrait mettre un sticker à l’arrière du véhicule pour le signaler
(blague à part, dans les années 90, il fallait mettre un sticker à l’arrière des voitures équipées de l’ABS histoire qu’une voiture qui ne l’a pas ne la colle pas de trop près…)
Pour le PDG de NVIDIA, l’IA comble la fracture numérique, car tout le monde peut développer
30/05/2023
Le 30/05/2023 à 07h 12
Pour moi, le problème c’est la maintenance: tout le monde peut créer un programme, mais alors le faire évoluer, pour le moment c’est un peu limité. Et le corriger … c’est très aléatoire.
En gros, en IA de ce que je vois, pour corriger avec l’IA on va plutôt lui faire recréer une partie, avec parfois des effets de bords en plus du fait qu’elle ne va pas forcément recréer 2 fois la même chose.
Il faudrait qu’on puisse faire ingurgiter correctement le cahier des charges qualité à l’IA.
Profitant d’un congé, un adjudant-chef aurait illégalement validé 300 techniques de renseignement
29/05/2023
Le 30/05/2023 à 07h 02
Oui
Par ailleurs dans les “droits et devoirs” des fonctionnaires il existe le “droit à la protection des auteurs de signalements”, qui fait qu’aucune décision disciplinaire ne peut découler d’un signalement.
Donc si elle a été révoquée, ce ne peut pas être au motif de cette dénonciation, ou alors ils ont vraiment tout faux.
J’ajoute, même si dans le contexte je ne pense pas que ça s’applique:
“ L’agent public doit se conformer aux instructions de son supérieur hiérarchique, sauf dans le cas où l’ordre donné est manifestement illégal et de nature à compromettre gravement un intérêt public.”
Un mois avec l’Asus ROG Ally : une console sous Windows, bonne ou mauvaise idée ?
26/05/2023
Le 27/05/2023 à 16h 04
Ce que nous apprend l’histoire: ne pas surréagir. Pour le moment, c’est juste un ensemble d’épi-phénomène. Nintendo va peut-être ajuster le planning, mais surtout rien sortir à l’arrache.
Ces machines sont belles, puissantes, mais c’est un peu comme des motos de collection: on les sort les jours de beau temps. Ca ne remplace pas une bonne vieille switch familiale bien plus abordable et sur laquelle on peut jouer à 2 tout de suite.
x86 s : Intel réfléchit à une architecture totalement 64 bits
23/05/2023
Le 25/05/2023 à 18h 35
Et à bas coût. De même que pour le monde des PC, le monde des serveurs a été envahi de x86 car c’était moins cher et toutes les marques pouvaient en faire.
Lors qu’à part IBM pour les power, Sun pour les sparc et digital pour les alphas, ça ne se bousculait pas au portillon.
Le 23/05/2023 à 16h 51
Pour certaines boucles, ça devait fonctionner. Toutefois, LOOP et un compteur dans CX ne fait pas tout.
De mémoire, c’était très limité (Turbo Pascal, Turbo C). Et souvent sans aucune optimisation sur les registres (capables de de relire dans AX un emplacement mémoire qu’ils viennent d’écrire avec BX…). De même, nu code en C qui fait une division et récupère le reste se voyait exécuter 2 fois la division, alors que le reste était donné déjà par la 1ère division.
D’ailleurs en ARM première version, ils trouvaient que la division c’était superflu…
Les librairies standards avaient les instructions ASM spécifique, mais dans un algo, jamais (du temps du 16 bits) je n’ai vu la version compilée utiliser les instructions MOVS ou CMPS qui permettaient de copier/comparer des espaces mémoire.
ensuite on s’est vite retrouvé avec les 486 et surtout pentium, donc écrire de l’assembleur pouvait être contre productif.
Le 23/05/2023 à 09h 42
Voici mon avis:
ARM a continué avec ses instructions relativement limitées
Mais côté x86, on est passé du CPU tout câblé au CPU super scalaire qui réinterprète l’assembleur en autre chose, multiplie les registres en interne, et exécute tout sur des coeurs plutôt RISC.
Les anciennes instructions ne “plombent” pas vraiment le CPU (certaines sont déjà “émulées” via du microcode), mais les différents types d’accès mémoire sont certainement une plaie.
Intel ne supprime pas d’après le document le 32 bits, les instructions perdurent, il faut “juste” fournir un environnement 32 bits dans un OS 64. Par contre le mode VM86 disparaît et différents systèmes de “sécurité” jamais utilisés.
Si le “128-bits” correspond à la largeur du bus mémoire, c’est encore un peu loin … On n’arrive pas à créer un ordi qui aurait la RAM maximale gérée par du 64 bits (par ailleurs, je doute que les ordis câblent les 64 bits). Si c’est pour la largeur de bus… Sauf à vouloir un CPU qui dépote avec la RAM (comme les cartes graphiques), c’est un peu coûteux sur des ordis qui ont de la RAM en barette: il faudrait passer les 128 lignes de bus de transfert sur la carte mère, c’est coûteux.
Par contre je peux te rassurer: la plupart des ordis ont des instructions 128 bits (SSE, MMX), 256 ou 512 bits (AVX)
Netflix facture 5,99 euros par mois le partage de compte avec « quelqu’un qui ne vit pas avec vous »
24/05/2023
Le 25/05/2023 à 09h 43
J’ai envie de dire: et alors? Il faut guetter. C ne disparaît certainement que temporairement.
C’est pas nouveau. J’ai dû attendre combien d’années pour voir Bad Taste car il n’étaient pas dans les vidéo club près de chez moi (et à l’époque, vidéo club c’était pas signe de qualité vu l’état des cassettes)?
J’ai acheté des DVD version mexicaine car jamais édités en France à cause de droits sur la musique (Daria) ou au Canada par manque de demande (Pushing Daisies saison 2).
Par contre j’ai acheté direct les BR de Good Omens au cas où ça disparaîtrait du prime (et c’est resté)
Le 24/05/2023 à 21h 07
Pour les films, je ne suis pas sûr, pour les séries, effectivement c’est variable. Mais j’ai assez avec ce qui existe déjà :) J’arrive à peine à dégager le temps de voir 2-3 films dans le mois, une saison de série c’est pareil, il faut bouger des choses pour la faire passer…
En fait, je ne comprends pas où les gens vont trouver le temps de voir ce qui passe sur Netflix.
Le 24/05/2023 à 06h 36
Ouh! La menace. Je vais surtout retourner chez EasyCash pour échanger des DVD/BR :) Qui a dit que les vidéo clubs étaient morts?
Le dépôt Python package index attaqué
22/05/2023
Le 22/05/2023 à 15h 09
Oui, je me suis mal exprimé. C’est la doc qui ne va pas et/ou les usages. Que ce soit en python, C#, même C++, on trouve des tutos qui utilise des librairies magiques que les auteurs essaient de pousser. Alors que si on lit la doc, on a déjà de quoi faire avec le langage.
Sauf que pour C#, je crois qu’il n’y a plus de doc téléchargeable (avant en Java, j’avais la doc java sur mon poste, idem pour .Net jusque v4).
C’est assez terrible en fait: si on suit les exemples d’internet, il faut apprendre x bibliothèques (une par exemple) qui font télécharger y dépendances. On démarre vite, mais on alourdi l’appli ET son apprentissage.
Le 22/05/2023 à 06h 49
J’ai vraiment du mal avec les langages actuels (y compris .Net): TOUT est sous forme de package optionnel. Même des fonctionnalités basiques qui font partie 10 fois de l’OS (genre… les packages XML/JSON que certains projets utilisent).
On télécharge des dizaines (voire centaines) de Mo de packages et dépendances juste pour faire un serveur Web (qui est une chose “assez” basique) et on ne maîtrise plus rien.
Même RUST est basé sur ce type de comportement: je suis de l’ancienne école: quand j’installe un environnement de dev, je veux que des packages standards soient sur mon ordi, avec la doc, et que leur version change une fois tous les 2 ans au plus (j’accepte les mise à jour intermédiaires de sécu bien sûr).
L’écosystème python, si on n’est pas plongé dedans, c’est la caricature du dev actuel. Les exemples font télécharger plusieurs librairies, et python n’est pas le plus utile du tout, c’est une librairie particulière qui fait le taf, et soit elle n’est pas open source, soit elle contient une partie closed source sous forme de DLL voire discrètement de service web…
La console G Cloud de Logitech disponible en France pour 359 euros
17/05/2023
Le 17/05/2023 à 06h 23
Ca fait cher. Même si on considère que ça a plus le look console, les NVidia Shield de 2014 faisaient mieux sauf sur l’autonomie (et encore, en jeu dans le cloud, c’est pas la cata), et en 2016 elles coûtaient 200€ (mais sans la manette, donc 260€ avec).
A voir si la Shield est compatible XBox, mais pour Geforce Now c’est toujours compatible.
Je ne vois pas trop où ils veulent se positionner avec ce produit, je rate peut-être quelque chose.
Shelly Pro 4PM : prise en main du relais 4x 16 A sur rail, avec suivi consommation et écran couleur
11/05/2023
Le 16/05/2023 à 16h 30
Shelly m’a répondu. C’est bien 40A, même pour ma V1, mais c’est mon mode d’emploi papier qui est erroné.
Sur le V1, vu que les 4 voies sont câblées totalement indépendemment, 20A par voie ne fait pas peur.
Le 13/05/2023 à 07h 34
Le mien n’est pas noté en A, mais en W maxi soit 4400w maxi en sortie -> 20A. Je me demande si l’article ne prend pas 40A mais en 110V
Je te rejoins pour le cablage inversé.
Le 13/05/2023 à 07h 31
Chez moi c’est le cas
Le 12/05/2023 à 08h 17
J’en ai un depuis 1 an, et l’intérêt, c’est de le scripter. Il exécute tout seul un script, il me sert de délesteur automatique: au lieu de risquer que tous les radiateurs se mettent en route en même temps (notamment quand je suis en vacances d’hiver), il n’en permet que 2 à la fois pendant 30 min.
Je peux aussi lui envoyer un message pour tout couper dès que Linky déclenche le signal de dépassement.
Franchement j’adore les shelly. C’est juste bien fait, avec l’option cloud OU l’option DIY et ça s’intègre automagiquement dans homeassistant.
Et pourtant je ne suis pas domotique à fond… Mais j’en ai eu besoin en rénovation.