[Édito] Et si on arrêtait avec cette hypocrisie autour de l’IA ?
IA plus qu’à !
L’intelligence artificielle est un outil largement utilisé, qui inquiète autant qu’elle fascine. Elle provoque des échanges musclés entre internautes, qui ont parfois bien du mal à se comprendre. Une des causes : la sémantique. L’arrivée des grands modèles de langage et des chatbots a rebattu les cartes et exacerbé les tensions. Ceux qui l’utilisent y réfléchissent certainement à deux fois avant de le dire.
Le 11 décembre 2025 à 12h06
24 min
IA et algorithmes
IA
Il y a un peu plus d’un an, nous avions publié un édito sur l’intelligence artificielle, avec une question en trame de fond : est-elle intelligente ou artificielle ? Une chose est sûre, la réponse n’est pas binaire. C’est les deux à la fois et cela varie suivant les points de vue.
De l’algorithme aux intelligences artificielles puis aux IA génératives
La frontière entre algorithmes et IA est de plus en plus poreuse, tandis que la notion même d’intelligence artificielle est mouvante. Un rappel important : l’intelligence artificielle n’est pas nouvelle, loin de là puisqu’elle a plus de 75 ans. Citons, par exemple, l’article « L’ordinateur et l’intelligence » d’Alan Turing en 1950, dans lequel il est question du fameux test de Turing.
Le premier logiciel d’intelligence artificielle remonte à 1956 avec le Logic Theorist : « Il réalise tout seul des démonstrations de théorèmes mathématiques », expliquait le CEA. En 1957, le psychologue Frank Rosenblatt invente le premier logiciel d’apprentissage grâce à un neurone : le Perceptron. Il y a ensuite les « hivers de l’IA » dans les années 70/80 et 80/90. L’explosion de l’intelligence artificielle est arrivée avec la montée en puissance des ordinateurs et surtout des GPU particulièrement à l’aise avec ce genre de calculs.
Il y a déjà plus de quatre ans, soit avant l’arrivée des IA génératives, Alexei Grinbaum (physicien et philosophe) expliquait que le terme IA « désigne un comportement produit par une machine dont on peut raisonnablement estimer que, s’il avait été le fruit d’une action humaine, il aurait exigé de l’intelligence de la part de l’agent concerné […] L’apprentissage machine n’est qu’un outil d’IA parmi d’autres mais, en pratique, ces deux termes sont de plus en plus fréquemment synonymes ». Aujourd’hui tout se mélange sous une seule appellation : IA.
Ceux qui étaient généralement présentés comme des algorithmes ont donc été promus au rang d’intelligence artificielle. Pour distinguer les nouvelles IA – ou systèmes, un terme moins marketing mais plus adapté – « capables de créer des contenus (texte, code informatique, images, musique, audio, vidéos, etc.) », on parle d’intelligences artificielles génératives, rappelle la CNIL. Ces différences ne sont pas toujours comprises.
Cachez ces avantages que je ne saurais voir
Sur les réseaux sociaux et dans de nombreuses discussions, la question de son utilisation cristallise les échanges, peu importe le projet ou presque. Faut-il ou non l’utiliser ? Faut-il clouer au pilori les personnes qui le font ? Y a-t-il une bonne et une mauvaise catégorie d’intelligence artificielle ? Les débats sont nombreux, les peurs et les incompréhensions aussi, tout comme les avantages. Il ne faut pas les oublier. Ce n’est pas une généralité pour autant. Sur LinkedIn par exemple, les discussions autour de l’IA sont souvent différentes, plus apaisées et dans l’(auto)congratulation.
Régulièrement, ceux qui reconnaissent utiliser l’intelligence artificielle se font prendre à partie publiquement. D’autres l’utilisent sans le dire et passent à travers les mailles du filet de la polémique. On arrive dans une situation absurde où ceux qui cachent la vérité ou mentent – volontairement ou par omission – s’en sortent mieux que ceux qui l’indiquent.
L’intelligence artificielle permet des améliorations importantes dans de nombreux domaines, y compris la santé, l’automatisation de tâches fastidieuses ou répétitives afin de « consacrer davantage de temps à des tâches plus créatives ou plus centrées sur l'humain », des opérations de sauvetage (notamment en milieu hostile), la prédiction de défaillances techniques, la lutte contre le changement climatique, etc.
Pour la Commission européenne aussi, cela ne fait pas de doute : « Les technologies de l'IA apportent de nombreux avantages à la société et à l'économie ». Ils sont rarement mis en avant et, quand c’est le cas, ils finissent trop souvent ensevelis sous des montagnes de critiques. Quand ils ressortent dans la bouche de certains professionnels, c’est souvent pour finir lynchés dans les commentaires. Les exemples sont nombreux.
Il reste 81% de l'article à découvrir.
Déjà abonné ? Se connecter
Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.
Accédez en illimité aux articles
Profitez d'un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
[Édito] Et si on arrêtait avec cette hypocrisie autour de l’IA ?
-
De l’algorithme aux intelligences artificielles puis aux IA génératives
-
Cachez ces avantages que je ne saurais voir
-
L’intelligence artificielle (générative) est un outil
-
Copyright et risque sur les emplois
-
« Vous ne comprenez RIEN à l’IA »
-
Squeezie prévient qu’il l’utilise, la communauté râle
-
Mais… « J'ai payé un graphiste » !
-
Les IA sont déjà partout et s’améliorent à vue d’œil
-
« Être contre l'IA, c'est comme être contre Internet »
Commentaires (46)
Le 11/12/2025 à 12h31
C'est heureusement faux.
Modifié le 11/12/2025 à 13h14
Reste à voir la suite, parce que si on s'en tient à la réalité économique, alors les gens devraient payer 200€/mois pour 10% des capacités proposées actuellement, ce qui serait bien évidemment boudé de tout le monde.
Actuellement tout est à crédit, et le système économique ne pousse cette situation que parce qu'il croit qu'il y aura de tels gains de performances que ça sera rentable tôt ou tard pour tout le monde, en faisant exploser la productivité de chacun...
Il suffit de voir ce que propose Google avec Antigravity par exemple, c'est bien parce qu'ils ont du pognon à plus savoir qu'en faire et qu'ils veulent la suprématie qu'ils proposent de si larges plages d'utilisation gratuitement...
Le 11/12/2025 à 13h15
C'est noble, mais c'est pas gagné d'avance. Et reprocher à quelqu'un d'utiliser une voiture dans un contexte où tout est fait pour t'y inciter, c'est pas ouf.
Tu peux ne pas avoir de voiture, c'est très bien, mais c'est difficile de reprocher aux autres d'en avoir une.
Problèmes collectifs, solutions collectives.
Le 11/12/2025 à 15h14
Il n'a jamais dit que ça devait être individualisé.
Le 12/12/2025 à 10h13
Le 12/12/2025 à 13h41
Le 15/12/2025 à 09h34
Et l'usage vs la norme toussa. Moi j'suis team usage
Le 15/12/2025 à 10h05
Et comme c'est l'Académie Française qui défend la forme "Au temps pour moi", j'ai bien envie de me remettre à la forme "Autant pour moi".
Concernant l'usage vs la norme, je sais que la langue évolue mais quand même (et non comme même), il y a certaines choses auxquelles je ne me ferai pas, justement l'usage de "comme même" au lieu de "quand même".
Modifié le 11/12/2025 à 16h56
L'usage de l'IA aujourd'hui tend a faire oublier les savoirs faire. Et c'est à cela qu'il faut faire très attention. Car quand tout le monde à oublié, les vendeurs se trouvent en situation de monopole, et c'est avec la CB que ces pauvres savant amnésiques auront accès à leurs savoirs perdus...
Une petite vidéo informative
Modifié le 13/12/2025 à 11h20
la fameuse pé-da-go-gie pour expliquer que le progrès technique c'est le bien ça me manquait
Comme on voulait tout adapter à la voiture en ruinant santé environnement et cadre de vie au lieu de s'en libérer faisons pareil pour les LLM en modifiant le langage humain, faisant payer aux humains le coût des infras LLM
edit 13/12/25 UK is running out of water - but data centres refuse to say how much they use vu via la revue de presse de krys
Le 11/12/2025 à 13h01
Je me souviens que dans les années 90 je m'énervais assez facilement la dessus, et criais à tout va : "mais c'est pas de l'intelligence ! c'est des scripts !!!".
Déjà une confusion entretenue par les magazines spécialisés de l'époque...
Le 11/12/2025 à 13h16
Le 11/12/2025 à 14h21
Le 11/12/2025 à 13h47
Moi j'attends que la bulle explose pour ramasser les morceaux et voir ce qu'on peut faire d'honnête et d'éthique avec ce qu'il en reste, mais en attendant je touche pas à ce truc qui s'apparente quand même vachement à un sursaut des techbros pour faire croire qu'une croissance infinie à deux chiffres et possible, en déféquant sur la société au passage.
Le 11/12/2025 à 14h22
Les pas-content-qui-veulent-rester-à-l’âge-de-pierre (merci au passage pour l’insulte) ne sont pas des empêcheur de tourner en rond. Les LLM actuels sont construits sur une injustice énorme et ne font aucun effort pour s’auto-réguler ou éviter les comportement les plus problématiques. Applaudir à longueur d’article les gains possibles de cet outil en niant complètement les externalités revient à trouver que le commerce triangulaire, en son temps, était un chouette outil également.
Faudra-t-il attendre 25 ans comme pour Facebook et Instagram et je ne sais combien de drames, suicide etc. pour comprendre que faire all-in sur des outils et services qui alignent tous les red flags possible c’est une bétise ?
Le 11/12/2025 à 16h09
Le 11/12/2025 à 14h38
Le 11/12/2025 à 14h54
Le 11/12/2025 à 14h56
Par ailleurs, dans le même ordre d'idée, un sujet de sociétés riches..donc un problème de riches, qui cherchent à accélérer encore plus le déclassement des sociétés moins dotées. On continue comme ça jusqu'où ?
Le 11/12/2025 à 15h14
Le 11/12/2025 à 15h19
C'est un outil, oui, mais le simple fait de mettre à disposition ou non cet outil est très politique et dépends de notre vision de société.
Le 11/12/2025 à 16h55
D'ailleurs, son avis est que "la possibilité de faire des choix (accepter ou refuser) est maximale, et de loin, lors de l'introduction d'un instrument, d'un système ou d'une technique particulière", et que c'est très difficile après quand ça rentre dans les usages, dans le genre du "c'est là vous n'avez plus le choix" commenté plus haut.
Le 11/12/2025 à 15h16
Et puis d'un coup il passe à l'IA construite sur le vol du travail des artistes, forcément "la communauté râle".
Le 11/12/2025 à 16h15
La malbouffe est partout et pourtant il faut résister pour s'éviter des problèmes de santé.
Avec ce genre de raisonnement, il n'y aurait eu aucun effort collectif pour tenter de réduire la pollution dans les villes, les émissions de gaz à effet de serre, etc.
En fait TOUS ceux qui l'utilisent me font penser à une personne assise sur une branche d'arbre et qui est en train de la scier.
Quand plus personne n'aura confiance dans l'audio, la vidéo, les journalistes et les médias en général, plus personne ne les utilisera.
Exemple concret: il y a quelques temps les restaurateurs étaient accusés (à raison) de se procurer des plats sous vide ou congelés chez METRO (ou autre) et de les revendre à prix d'or aux consommateurs.
Une partie de la profession s'est rebellée et a proposé un label "fait sur place" (la petite maison en logo)... et cela a marché.
Je suis persuadé qu'à un moment, les médias vont être obligés de créer un label "sans IA" pour survivre.
Modifié le 11/12/2025 à 17h01
Elle ne permet pas d'aider à détecter des cancers, ou a trouver une erreur dans une page de 50k lignes de log en 1 0secondes.
C'est plus comme ta voiture, elle peut être nécessaire et utile, mais aller en SUV déposer tes gamins quand l'école est à 100m c'est débile. Le problème c'est l'usage, pas le produit.
Si tu pars du principe que tu scies une branche sur laquelle tu es quand tu prends un véhicule, quand tu manges de la viande, quand tu voyages, quand tu vas en concert, quand tu te fais un achat plaisir, etc... Ia vie va vite être triste. Il faut juste être mesuré, à tous les niveaux.
Le 11/12/2025 à 17h11
Ce n'est pas seulement le label qui compte. C'est aussi le contrôle sur pièce et les amendes qui font réfléchir.
Source;
https://entreprendre.service-public.gouv.fr/vosdroits/F32212
Modifié le 11/12/2025 à 16h22
« Perplexity ? Laissez tomber ! ils ont perdu leur label "bon c'est bia" y'a 2 mois ! »
Modifié le 11/12/2025 à 16h50
Le 11/12/2025 à 16h55
Mais quand on peut faire sans, pourquoi l'utiliser? Parce que c'est là, c'est trop tard?
La 5G aussi est là, je ne suis pas pressé de m'en servir, tout simplement parce que je considère cela comme un argument de vente, plus qu'une véritable plu-value.
Au delà de l'usage personnel, je vois (en simple spectateur donc) une course à l'IA-à-tout-prix qui n'a de sens que dans son propre cercle, sans considération d'énergie ou d'écologie.
Le 11/12/2025 à 17h15
Je ne chat pas avec, je bosse.
Ma productivité à clairement explosé et je fait tout pour garder le contrôle (pas toujours simple).
- Rédaction de documentations
- Code (je valide chaque modif et je commit quand c'est OK)
- Écriture les message de comit (du coup) :)
- Découverte de méthodes / logiciel etc.
- aide pour l'analyse de log
- ...
Dernière utilisations :
- Création d'une extension thunderbird + serveur MCP
- Décision si le mail est un spam ou non sur les relais SMTP (en test pas encore full auto, cette partie je veux utiliser un Mistral auto au hébergé pour le faire)
Je me fait défoncer par pas mal d'anciens collègues et ai appris à ne plus trop en parler du coup.
Je pense que je vais également me faire pourrir ici :(
Modifié le 11/12/2025 à 19h16
Les jugements de morale à la noix ne mènent à rien.
C'est se battre contre des moulins.
Pour moi, Gemini 3 Pro est le premier modèle capable de travailler productivement sur de gros projets (avec Copilot sur VSCode). C'est vraiment un beau modèle.
Le plus gros problème, c'est que la valeur ajoutée et les bénéfices issus des gains de productivité seront de plus en plus concentrés dans ces modèles, et donc dans les mains de quelques gros acteurs principalement américains.
Ça va accélérer le problème déjà aigu de concentration des richesses.
Modifié le 12/12/2025 à 07h36
C'est pour cela que le monde du libre doit s’emparer de cette techno. Mais il faut pas rêver cela va accroire les concentrations des richesses/pouvoir de notre système capitaliste (qui bousille tout, démocratie, climat, nature, humanité etc.).
Il faut également espérer que l’efficience de ces outils s'améliorer dans les très grandes largeurs car actuellement c'est complément naze au niveau énergétique.
Le 11/12/2025 à 19h42
Le 12/12/2025 à 09h25
Si demain, ces outils s'arrêtaient net , est-ce que tu serais aussi productif ? Tu es peut-être à ton compte, je sais pas mais pour moi ça créé une sorte aussi de dépendance.
Ces outils sont quand même concentrés dans peu de mains tout en ayant un impact sociétal important. Tu va me dire, comme l'arrivée des voitures dans la société. Et.... Oui, je trouve que c'est assez similaire:
- Une techno géniale , qui amène un changement de paradygme sur le boulot, mais dont les conséquences sociales, climatiques de long terme sont importantes. Pour les voitures , on y avait pas tellement pensé, alors que là on a l'expérience pour anticiper.
Il y a aussi la notion de souveraineté qui me parait importante à prendre en compte aussi - pour le coup je me demande quelles versions tu as utilisé dans le cadre pro que tu décris , et si tu as essayé d'utiliser à la place des modèles auto-hébergés.
(Car un des aspect je pense qui pourrait aider ce serait, selon moi que le silicium soit adapté pour que ces modèles , en tous cas lors de l'utilisation, soient nettement plus efficients)
Merci !
Modifié le 12/12/2025 à 10h13
La CICD n'est pas censée être bloquante en cas d'échec et un workflow d'intégration continue est supposé avoir un fallback manuel en cas d'indisponibilité. Dans la réalité, les devs se retrouvent au chômage technique quand GitHub Actions ou GitLab CI ou le Jenkins sont dans les choux.
Ces outils sont des accélérateurs de productivité. Les perdre va mécaniquement la ralentir. Au même titre qu'un EPOS en magasin est un accélérateur et que lorsqu'il est down, c'est plus long de noter à la main sur un papier les transactions. Cf aussi les hôpitaux qui ont eu leur IT verrouillé et ont du appliquer leur PRA manuel qui a ralenti les gestes métier.
La question est la même pour toute automatisation et informatisation qui entraînent de facto une forme de perte de compétence par manque de pratique.
Modifié le 12/12/2025 à 10h32
C'est plus une augmentation massive que je crains (je paie 100$/mois déjà).
On est tout à fais d'accord. Pour l'exemple des voitures c'est l'organisation de nos sociétés qu'il faut modifier... Mais je n'y crois plus. Je pense qu'il faudra une "crise" pour que ça se fasse. Janco l'explique assez bien.
Je suis 100% logiciel libre (à la seule exception des produits Jetbrain). Je n'utilise aucun service Cloud que je n'héberge pas moi même (Gogole, MS etc.). Je pousse les clients à en sortir.
Quand les LLM agentiques ont débarqués cela à tout changé et j'ai finit par prendre un abo Claude Code.
Depuis peut, avec mon plugin Thunderbird et le contrôle des spam sur les relais SMTP cette utilisation à changé (l'IA me fait du boulot quotidiennement pour le coup). Et c'est pour ça que je voudrai héberger un des petits modèle Mistral pour l'autonomie, l'automatisation et la confidentialité).
Je vais également tester ASAP Devstral et j'y place bcp d'attente.
Le 12/12/2025 à 11h40
J'avoue que moi-même je ne m'y suis pas du tout mis, un peu par flemme, un peu à cause de cette perte de maîtrise sur ce qui en sort, mais tu me montre que c'est aussi une excuse car , si c'est bien maîtrisé, c'est comme utiliser un compilo ou un IDE ....
Reste l'aspect environnemental de l’entraînement des modèles (car ce que j'ai compris c'est que lorsque tu utilises un modèle chez toi il a été "pré-configuré / pré-entrainé" , et que quelque part tu utilises , avec tes données, ce modèle déjà fait et donc c'est pour ça que c'est faisable en local (j'ai ptet complètement faux).
Je vois de + en + de TPU dans les puces qui sortent, donc à terme (j'espère !) que le coût environnemental qu'on paie maintenant il sera réutilisé plus tard...
Modifié le 12/12/2025 à 14h37
Très honnêtement, c'est vrai qu'il y a une perte de sens métier.
Je l'utilise depuis le mois de juin en gros. J'ai eu une grosse phase ou je me suis dis "mais à quoi je sert en fait ? ".
Plus de 30 ans d'apprentissage parfois difficile (sysLinux, bash/zsh, RZO, PHP, PERL etc.) pour découvrir qu'en fait toutes ces connaissances étaient très bien assimilés par les algos LLM.... C'est quand même un coup dur, mais ma réflexion en tant qu'indep était qui si je ne m'y met pas je devrais changer de taf...
Et puis, en lui faisant faire des choses que je connais bien, je me suis rendu compte qu'il était parfois "génial" et parfois "con comme ses pieds", je le recadre très régulièrement.
L'aspect non déterministe de l'outil est un peu déroutant pour un informaticien à l'ancienne comme moi.
Mon état d'esprit d'aujourd'hui est meilleur et le voie beaucoup plus comme une aide très/trop précieuse tout en sachant parfaitement que je ne peux pas lui faire confiance.
Même après 6 mois d'utilisation intensive (vraiment) j'apprends encore à m'en servir, trouver des idées ou il peut être utile, la façon de lui écrire, savoir dans quel situation il va me faire de la merde.
Ce qu'on entends du genre "un prompt une application" ou tout ce genre de connerie est faux,pour le moment au moins.
Perso il a plutôt élargis mes horizons, je me suis lancé dans des trucs hors de mon périmètre que je n'aurai jamais abordé sans lui.
Reste :
- l'aspect écologique (j'y suis sensible, végétarien, je prend pas la bagnole, fait attention au max possible) mais l'outil amène trop d’avantage pour mon métier (J'espère aussi des gains d'efficacité et faire tourner du model en France on peut se dire que le jus est un peu plus vert).
- l'aspect concentration des richesses dégueulasse (logiciel libre ou à défaut open sources)
- On reste une colonie des US qui tourne ultra mal (soutient à Mistral au max)
- Quid des jeunes qui ont ça dès le départ de leur apprentissage ? Que va devenir l'humanité ?
Je parle de Claude code dans ce message, putain quand je me relis j'ai l'impression que c'est une personne c'est grave
Modifié le 11/12/2025 à 19h13
- pillage des artistes (GenAI)
- consommation excessive en énergie et en eau (LLM et GenAI)
- abrutissement des utilisateurs et perte de qualité technique abyssale (tous)
- augmentation du prix des ressources (tous)
pour le dernier point, je parle pas que du prix de l'électronique, mais aussi du prix de l'électricité, de l'eau, et de tout ce qui y est lié de près ou de loin et qui a ou va forcément augmenter dans les prochaines années...
par exemple, les prix de l'alimentation augmenteront tous pour amortir la mise à jour du matos informatique de la chaîne, ou pour payer l'électricité de plus en plus chère...
Le 11/12/2025 à 19h50
Oh, et puis merde.
Modifié le 11/12/2025 à 22h42
Bien entendu que l’iA est un outil parmi d’autres. Et bien entendu qu’il faut l’utiliser en fonction des besoins, et bien entendu, dans certains cas cela fait gagner un temps précieux. Mais l'IA n’invente rien. Ne découvre rien. Ne fait rien en réalité à la place de.
L’iA est un problème majeur, et peu importe à quoi l’on pense (prédictive, générative, prescriptive ou je ne sais quoi), évoquons donc un instant :
- Les sommes considérables que cela nécessite : 1000 milliards de dollars déjà dépensés;
- Les projets de société qu’ont en ligne de mire les leaders du secteur ;
- La stratégie invasive globale qu’elle sert (c’est tout de suite ça, et cela vient de l’autre côté de l’Atlantique);
- L’enjeu déterminant de la disponibilité de l’énergie, et de son utilisation…
Le coût réel de l’iA est exorbitant. Il est totalement déraisonnable (car avec cette énergie et cet argent, on règle par exemple, définitivement l’accès à l’eau pour tous les humains de la planète), et surtout hors de contrôle.
Je suis désolé, mais l’humanité n’est pas contrainte d’accepter un tel projet de société, qui conduit à l’homme augmenté, à remplacer les problèmes humains par des solutions normées, calculées et prévisibles.
L’IA sert l'ambition de ces hommes qui nous annoncent tous les jours quelque chose, vers leur objectif que je considère cauchemardesque : l'homme augmenté, l'individu effacé, la planète sacrifiable, et la conquête infinie. C'est un projet imaginé par des fous qui nous feront perdre ce que nous sommes ontologiquement.
« Les algorithmes produisent un réel prévisible, normé, calculé, sans exubérance et sans protubérance, sans bifurcation et sans imprévu, adapté à la surveillance de masse et formaté à la rentabilité.
Voulons-nous que les publicités soient ciblées pour décupler nos addictions et que les contenus pseudo-informationnels soient choisis pour conforter nos convictions ? Que nos CV soient lus par des machines, que la finance mondiale soit régie par des programmes dont plus personne ne comprend les rouages ?
Veux t-on que nos désirs soient anticipés afin que plus aucune excursion hors des attendus ne puisse survenir ?
Veux t-on que nos assurances et vulnérabilités soient calculées en fonction de probabilités objectivées, que nos amis ou nos amants soient sélectionnés par des filtres normalisés ?
Que nos créations soient supplantées par des interpolations ? »
(Aurélien Barreau)
C'est pour toutes ces raisons qu'un tel édito est décevant. Je comprends bien la cible. Mais c'est tellement loin de ce qui est important.
Franchement, les créations des YouTubeurs ... c'est une blague ?
Et ce manichéisme persistant est également très décevant. Etre pour ou contre n'est absolument pas l'enjeu. La plupart des gens s'ils s'opposent à ce point c'est qu'ils pressentent le danger fondamental d'une telle technologie que l'on confie à bien peu de responsables sur cette planète.
Responsables dont l'équation personnelle interroge bien trop souvent.
Nous sommes en train de financer et d'écouter les développeurs d’iA qui sont absolument convaincus que leur technologie, nourrie exclusivement ou presque, de la langue anglaise sous un tropisme occidental colonialiste, accélérera la recherche, le progrès et finalement permettra de trouver les solutions à nos plus grands défis. Des langues parlées par plus de 100 millions d'humains n'ont pas droit à une seule ligne de données dans les datacenters.
Des savoirs-faire éprouvés, que nos ancêtres exploitaient afin de survivre s'adapter à différents milieux, toujours hostiles et leur permettant d'assurer la pérennité des lignées n'ont pas de publication scientifique en appui. Rien de tel n'est exploité par l'IA.
Alors franchement, l'argument des YouTubeurs ... non, vraiment pas.
(Edit : correction de coquilles)
Le 14/12/2025 à 17h39
Moi qui pensait prêcher dans le désert.
Gunther Anders, Barjavel ?
Modifié le 16/12/2025 à 12h48
L'avantage d'avoir une vie active un peu derrière (mais pas trop, je ne suis pas encore totalement hors-jeu), c'est que les dangers, on les pressent un peu.
En l'espèce c'est assez facile de voir que ce sujet est un sérieux problème, confié à des gens pas franchement sérieux.
C'est le problème actuel, tout considérer sous le prisme du business, finit par aveugler sur ce qui dimensionne notre propre existence.
Après, c'est juste un choix, mais qui devrait être collectif, ou a minima, pas du fait exclusif de quelques illuminés qui n'ont aucun mandat pour décider pour tous les autres.
Modifié le 12/12/2025 à 08h24
Pour moi, la transparence est essentielle pour instaurer de la confiance. Mais comme utiliser ces outils est perçu comme la nouvelle honte à la mode et la haine du moment, difficile de l'être sans se voir accusé, jugé, condamné et exécuté dans la minute.
Voire exécuté, accusé, condamné a posteriori, puis éventuellement jugé.
Le 12/12/2025 à 11h07
Le 14/12/2025 à 18h57
* Cet article parle trop peu des coûts environnementaux de cette IA générative. Parce que la rentabilité d'utiliser ces services devrait la prendre en compte, et ce serait catastrophique.
* Un autre problème est la casse sociale que provoque (ou va provoquer) ces outils : la baisse généralisée du coût du travail, ce qui va amener un travailleur et une IA a rentrer en concurrence, et ce sera le moins-disant niveau salaire qui sera embauché/utilisé.
* Les grandes IA neuronales (LLM, IA génératives, et tant d'autres) ne sont pas déterministes : c'est à dire que quand on les exécutes sur une même tâche, elles peuvent donner deux résultats différents. Et comme ce sont des boites noires, il n'y a aucun moyen de corriger le moindre bug ou hallucination, à moins de re-créer tout le réseau de neurone, ou de rajouter des pansements (genre écrire les pré-prompts, utilisés pour guider la génération). Utiliser un outil dans lequel tu peux pas avoir confiance, c'est pas top.
* Et bien sûr, le vol de données qui ont permit de les créer.
Tout cela fait que quand j'en ai la possibilité, j'évite d'utiliser ces "IAs".
Pour le reste, quand JdG dit qu'il avait 2.5 personnes qui bossaient, donc utiliser une IA c'est OK, non, il pouvait embaucher une personne supplémentaire.
Et si les gens voient que c'est dégueulasse car ça utilise de l'IA, c'est que c'est mal utilisé, donc quoi qu'il en soit, à refaire.
"J'ai fait un long métrage, mais j'ai dû utiliser l'IA parce que les trois personnes qui bossaient pour moi n'arrivaient pas à tout faire dans le temps imparti", c'est pas une bonne excuse. Juste revoit des objectifs à la baisse.
Enfin, rappelons que toutes ces IA ne sont pas intelligentes : elle ne sont pas capable de pensées neuves, elle ne peuvent que faire une moyenne de ce qu'elles ont déjà vu.
Dans ce cas là, quasi tous les scripts bash que je fais sont de l'intelligence artificielle, alors que, clairement, non. Décoder un QR code peut être fait à la main, avec beaucoup d'intelligence, mais demande pas grand chose d'intelligent pour le lire à un ordinateur.
Bref, faudrait peut-être définir "intelligence" avant tout.
Enfin, pour moi, utiliser ou non l'IA est un choix moral : vais-je utiliser un outil qui derrière pollue et vole, ou vais-je prendre les 5 minutes de plus que m'aurait demandé le boulot si je l'avais fait sans ?
Mon choix est fait, et j'ai du mal à respecter ceux qui font l'autre choix, tout comme j'ai du mal à respecter Total ou les entreprises qui exploitent les sweat shops.
Mais qui sait, peut-être que j'ai tort.
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?