Connexion
Abonnez-vous

Geoffrey Hinton quitte Google, des observateurs lassés par la tournure du débat sur les risques de l’IA forte

Geoffrey Hinton quitte Google, des observateurs lassés par la tournure du débat sur les risques de l’IA forte

Le 10 mai 2023 à 05h12

Spécialiste des réseaux de neurones artificiels (il a reçu le prix Turing en 2018 avec Yann LeCun et Yoshua Bengio pour ses contributions sur le sujet), Geoffrey Hinton, 75 ans, a quitté Google après une décennie de travail pour elle. Parmi les raisons de son départ, expliquées dans la Technology Review : la volonté de pouvoir s’exprimer librement sur les questions de sécurité de l’IA, même s’il se déclare satisfait des orientations prises par Google.

Auprès du New-York Times, il explique qu’une partie de lui « regrette l’œuvre de sa vie » : depuis peu, l’ingénieur a rejoint la foule des critiques de l’intelligence artificielle. Plus précisément, il s’inquiète ouvertement des risques que pose l’intelligence artificielle, domaine qu’il a participé à construire.

Depuis les années 1980, il déclare s’inquiéter de l’usage de l’intelligence artificielle dans l’industrie militaire, et redouter ce qu’il qualifie de « robots soldats ». Plus récemment, alors qu’une course à la sortie des fonctionnalités d’IA générative s’est engagée entre Microsoft, Google et le reste de l’industrie, il s’inquiète des effets de ces modèles sur l’information (pour lui, les « hallucinations » des machines sont une fonctionnalité, pas un bug, de la même manière que les humains « affabulent tout le temps »), le marché du travail et, plus loin, l’humanité entière.

Comme le souligne la Technology Review, les débats autour des capacités de l’intelligence artificielle sont très clivants. Et les deux articles pré-cités n’ont pas manqué de provoquer des réactions comme celles de la chercheuse Timnit Gebru et du journaliste et critique de la tech Paris Marx.

Pour eux, les termes employés par Geoffrey Hinton ressemblent aux idées véhiculées dans d’autres discours très hypothétiques, notamment du côté du courant long-termiste, sur les potentiels de l’IA. Ce faisant, ils détournent l’attention de problématiques plus urgentes que posent ces modèles, c’est-à-dire des dommages qu’ils peuvent causer dès aujourd’hui.

Le 10 mai 2023 à 05h12

Commentaires (12)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

(pour lui, les « hallucinations » des machines sont une fonctionnalité, pas un bug, de la même manière que les humains « affabulent tout le temps »)


Ca marche encore l’excuse du it’s a not a bug, it’s a feature ? :transpi:



Mais bon, oui ça reste bien de rappeler que ce sont des outils faillibles à utiliser en tant que tel. Ca effectue un très bon taff pour trier, synthétiser, ou restituer de l’information, mais faut contrôler son boulot.

votre avatar

Donc il faut des gens pour contrôler et des gens encore plus compétents qu’avant.

votre avatar

(pero.) je me sers de “l’AI.” QUE comme d’un ‘brouillon’ (1er jet), après
je personnalise sa réponse !
mais c’est sûr que SI on fait un simple ‘Copier/Copier’ et qu’on ne
se ‘foule pas trop’ ! :fumer:

votre avatar

Ce qu’il dit est assez juste et il reproche que l’on considère que les hallucinations puissent être un bug. C’est une des conséquences du fonctionnement des LLM, c’est intrinsèque à ces systèmes. Les LLM ne sont pas faillibles à cause de cela.



Tant que les systèmes d’AI générative pour le texte seront basé quasi essentiellement sur des LLM, c’est se mettre un doigt dans l’oeil que de croire qu’on aboutira à une IA qui répondra de manière sensée à nos questions. Le bug est au niveau du message marketing autour de ses solutions (et par transitivité au niveau des utilisateurs qui y croient) et c’est bien cela qui gêne ces experts en IA. L’IA n’est pas mise en place et vendue correctement et amène déjà à des dérives.



Il s’agit bel et bien d’une feature des LLM, il ne s’agit pas que d’un clin d’oeil à une expression de dev pour rejeter facilement le fait d’avoir à gérer un bug ;)

votre avatar

Merci pour cette précision :)




wanou2 a dit:


Donc il faut des gens pour contrôler et des gens encore plus compétents qu’avant.


Ce qui en soit est l’évolution classique de l’industrialisation. Avant t’avais un ouvrier qui savait serrer un boulon. Puis un robot l’a remplacé, et ce robot est supervisé par un opérateur humain.



Autre exemple plus récent : les caisses autonomes en magasin, supervisées elles-aussi par une ou plusieurs personnes (selon la taille du parc) à défaut d’une personne pour chaque poste qui doit dépatouiller les clients en difficulté. Le retail est toujours un bon exemple de l’impact de l’informatisation, où avant un magasin avait des profils spécialisés et maintenant plus versatiles (cette règle varie évidemment selon la surface).



C’est une des conséquences sociales que l’utilisation de l’IA va forcément engendrer (les évolutions technologiques, ça casse de l’emploi, mais ça en créé ailleurs aussi). Sauf que là, au lieu de remplacer un ouvrier, c’est un cadre. Pour le coup, c’est une catégorie qui est traditionnellement moins menacée par l’industrialisation, et c’est quelque chose qu’on remarque dans les débats sur le sujet.

votre avatar

SebGF a dit:


Mais bon, oui ça reste bien de rappeler que ce sont des outils faillibles à utiliser en tant que tel. Ca effectue un très bon taff pour trier, synthétiser, ou restituer de l’information, mais faut contrôler son boulot.


Tu parles des IA ou des humains là ?

votre avatar

  • Etes vous préoccupé par l’augmentation de l’intelligence artificielle ?

  • Non, mais je suis préoccupé par la diminution de l’intelligence réelle.



:8

votre avatar

En gros, pour lui, le bug des IA actuelles est une fonctionnalité destinée à se développer ? Ça promet. ^^

votre avatar

On a pris pour modèle (et objectif) le cerveau humain, bah on a un résultat qui ressemble au cerveau humain. Maintenant on n’aime pas l’image que nous renvoie le miroir, ok, mais si on voulait un truc qui a toujours raison et qui ne ment pas pour se sortir des situations inconfortables, fallait pas prendre ce modèle au départ.

votre avatar

Pour un humain, il y a des techniques de pédagogie, des sciences comme la psychologie, la sociologie, la biologie. Je doute que l’IA fonctionne avec les mêmes méthodes et fonctionne avec les mêmes lois naturelles (en tout cas, à l’heure où on parle).

votre avatar

Une course à la sortie des fonctionnalités d’IA générative s’est engagée entre Microsoft, Google et le reste de l’industrie


Business as usual




il s’inquiète des effets de ces modèles sur l’information (…), le marché du travail et, plus loin, l’humanité entière.


Les effets du ranking sur tout et n’importe quoi (site web, news, video, …) depuis 20 ans ne semblent pas les avoir dérangés.



D’autant que “le marché du travail et l’humanité entière” ne sais pas comment est calculé le score: pourquoi ce résultat est affiché avant les autres ? Pourquoi celui là est en page 3 ? Mystère.

votre avatar

le marché du travail


C’est pas important … tant qu’on met en place un truc pour ceux qui sont mis sur la touche.



Remplacer le travail humain par de l’IA (ou le simplifier) et une bonne chose dans l’absolu.

Geoffrey Hinton quitte Google, des observateurs lassés par la tournure du débat sur les risques de l’IA forte

Fermer