La revue Nature plaide pour s’occuper des dangers actuels de l’IA au lieu de parler d’apocalypse
Le 29 juin 2023 à 05h06
3 min
Sciences et espace
Sciences
Dans un éditorial publié ce mardi 27 juin, la revue scientifique Nature pousse à ce que le débat sur l'IA ne se concentre pas sur une éventuelle apocalypse comme l'ont évoqué plusieurs PDG d'entreprises du numérique en mars dernier, mais sur les dangers concrets et actuels liés aux techniques d'intelligence artificielle.
Faisant remarquer qu' « il est inhabituel de voir des chefs d'entreprise parler de la létalité potentielle de leur propre produit », la revue estime que c'est un tour de passe-passe qui « détourne l'attention du véritable problème : les dommages sociétaux que les systèmes et outils d'IA causent aujourd'hui, ou risquent de causer à l'avenir ».
Selon cet éditorial, « de nombreux chercheurs et éthiciens en IA auxquels Nature s'est adressé sont frustrés par le discours catastrophiste qui domine les débats sur l'IA ». D'une part, parce qu’il alimente l'image d'une machine toute-puissante qui pousse chaque pays à vouloir la contrôler et en tirer le plus de profit. Et, d'autre part, car très mobilisateur d'émotions, il permet à un groupe homogène de dirigeants d'entreprises et spécialistes des technologies « de dominer la conversation sur les risques et la réglementation de l'IA, tandis que d'autres communautés sont laissées de côté ».
L'éditorial cite les biais des algorithmes d'IA, la suppression d'emplois et l'utilisation abusive de la reconnaissance faciale comme des exemples de sujets sur lesquels « les débats manquent d'oxygène ».
Pour la revue scientifique, « Les entreprises technologiques doivent formuler des normes industrielles pour le développement responsable de systèmes et d'outils d'IA, et entreprendre des tests de sécurité rigoureux avant la mise sur le marché des produits » et « les gouvernements doivent mettre en place des cadres juridiques et réglementaires appropriés et appliquer les lois existantes ».
Nature appelle à ce que les chercheurs spécialistes du domaine soient entendus : « Les chercheurs doivent jouer leur rôle en créant une culture de l'IA responsable à partir de la base ». « Les discours alarmistes sur les risques existentiels ne sont pas constructifs. Une discussion sérieuse sur les risques réels et les mesures à prendre pour les contenir le sont », résume l'éditorial.
Le 29 juin 2023 à 05h06
Commentaires (7)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 29/06/2023 à 10h33
+10 000 !
En voilà un article rafraîchissant et pragmatique au milieu de cette tonne de populisme anxieux autour de l’Illusion Artificielle !
Malheureusement, côté gouvernants, législateurs, de même que côté bizness, j’ai bien peur que le pragmatisme ne soit pas la vertu la plus cultivée en ce moment…
On a notamment la nette impression que les “responsables” de tous bords ne font que patauger dans la semoule pour masquer leur ignorance, juste histoire de dire qu’ils s’en préoccupent, mais que le résultat est bien plus proche du néant que de l’infini…
Suggestion que je suis loin d’être le seul à avancer : peut-être n’a-t-on pas forcément besoin de nouvelles lois, mais de renforcer les existantes, et de renforcer la Justice en général ?
Le 29/06/2023 à 13h26
”. Une discussion sérieuse sur les risques réels et les mesures à prendre pour les contenir”
oui c’est qu’il ‘faudrait faire’, mais…. !!!
Le 29/06/2023 à 13h51
Ben un exemple de risque :
https://www.01net.com/actualites/quand-les-outils-dia-utilises-par-les-militaires-finissent-dans-les-mains-des-employeurs-aux-etats-unis.html
( Utilisation de l’IA pour débusquer les “syndicalistes potentiels” aux US. Qu’est ce qui pourrait bien mal tourner…)
Le 29/06/2023 à 15h32
Là dessus il n’y a pas à tergiverser : il y en aura. Les allumeurs d’éclairage public, ça n’existe plus non plus.
Après, la suppression peut aussi être de la transformation vers d’autres types d’emplois. L’avenir le dira. Et des mauvaises décisions de chefs d’entreprise, il y en aura aussi. On a pas attendu l’IA pour ça ni aucun autre changement technologique.
Perso j’intègre la couverture de NXI dans la nature du discours. Elle est déséquilibrée vers le négatif et induit des effets de loupe en se concentrant sur les mauvais usages et défauts des outils, ce qui biaise l’opinion. La couverture ici manque de pédagogie sur comment bien utiliser ces outils et éviter de se faire avoir par les louanges des commerciaux. Apprendre à avoir du recul sur comment ils fonctionnent, comment les utiliser, avoir un regard critique sur le résultat produit, etc.
L’IA génératrice n’est pas une nouveauté technique car le développement date de plus d’une décennie si je ne m’abuse, mais sa prise en main par le grand public oui (même pas un an). Tout comme son impact sociétal. Vous avez la possibilité d’y contribuer de manière constructive en informant et aidant à prendre en main tout en avertissant des risques et dérives. Un discours équilibré me paraît plus intéressant qu’un point de vue biaisé sur le négatif.
Le 30/06/2023 à 11h21
Pour revenir sur le risque de suppression d’emploi, ce sont les assistants parlementaires qui vont commencer à s’inquiéter.
Des députés qui reconnaissent avoir utilisé ChatGPT pour rédiger des amendements. C’est amusant ce côté “honteux” de la chose alors que ça ne l’est pas du tout vu que ce n’est que de l”assistance.
Le 30/06/2023 à 17h02
Le pb, c’est pas l’IA, mais ceux qui développent les modèles (soit disant développeurs) (et aussi ceux qui l’utilisent, soit-disant journalistes)(ou décideurs).
Par exemple, penser qu’une IA peut reconnaitre des malfaiteurs selon leur visage, c’est la définition même de la ségrégation.
L’IA qui en a résulté était foireuse, OK, on dit que son modèle était biaisé, mais en réalité à quoi d’autre (que créer une IA ségrégationniste) on pouvait s’attendre ?
Le 02/07/2023 à 15h29
Plutôt que dire qu’il n’y a aucun débat autre que ceux apocalyptique, n’est-ce plutôt pas plutôt un problème de caisse de résonnance ?
Certes, ces discours alarmistes tiennent factuellement le haut du pavé médiatique, mais ce n’était à l’origine pas une fatalité.
Dans les risques actuels, déjà évoqu&s, et qui auraient bien besoin d’une caisse de résonance :
On imagine bien que puisque la collecte des données dépasse largement la capacité de traitement, et si ces données sont collectées a priori, cela appelle un traitement ultérieur pour recherche a posteriori ce que l’on souhaite. Pratique pour museler l’opinion (qu’elle soit générale ou d’adversaires politiques) ainsi que l’information.
Économie, Sécurité & Ferme-ta-gueule.
Cette réflexion peut d’ailleurs être reliée à la précédente, qui apporte de l’eau au moulin de l’anxiété et de l’empêchement à penser/s’exprimer (l’une alimentant l’autre).