Connexion
Abonnez-vous

Jean-Gabriel Ganascia : avec l’IA, « l’espace public est en train de disparaître »

Lucidité, refus, ironie, obstination

Jean-Gabriel Ganascia : avec l’IA, « l’espace public est en train de disparaître »

Le 25 septembre, Next a lancé son premier podcast, Algorithmique, dédié aux enjeux de l’intelligence artificielle. Une semaine sur deux, entre chaque épisode, les abonnés pourront écouter en intégralité l’un des entretiens qui a servi à sa fabrication, ou lire sa retranscription. 



Le 02 octobre à 16h16

Professeur à la Faculté des sciences de Sorbonne Université et chercheur au Lip6, où il travaille sur l'intelligence artificielle depuis de nombreuses années, Jean-Gabriel Ganascia est aussi philosophe, et auteur de plusieurs ouvrages de vulgarisation, parmi lesquels Le mythe de la singularité : faut-il craindre l’intelligence artificielle ? (Seuil, 2017), Servitudes virtuelles (Seuil, 2022) et L’IA expliquée aux humains (Seuil, 2024).

Dans cet entretien, il détaille les notions d'intelligence, de conscience (artificielle ou non), de biais, évoque l'histoire de l'IA, la fabrication du règlement européen sur l'intelligence artificielle, et se penche sur les risques que pose le domaine de l'IA.

Entretien avec Jean-Gabriel Ganascia

Les suppléments d'Algorithmique - par Next.ink

Algorithmique, supplément de l'épisode 1 : l'entretien complet avec Jean-Gabriel Ganascia

Publié le 02 octobre 2024 à 16h16

Pour les adeptes du texte, l'entretien a été retranscrit à l’aide d’Amberscript et édité pour plus de clarté.

Qu’est-ce que l'intelligence artificielle?

Le terme a été introduit en 1955 par de jeunes chercheurs qui voulaient essayer d'utiliser les machines qui venaient d’être créées – le premier ordinateur électronique remontait à 1946, moins de dix ans avant – pour mieux comprendre l’intelligence.

Mais qu'est-ce que l'intelligence ? C'est ça la vraie question. C'est toujours ça qui fait peur. Le terme intelligence est éminemment polysémique.

Le synonyme le plus classique, c'est l'esprit. L'intelligence rationnelle, ce n'est pas la fabrication d'un esprit artificiel, contrairement à ce qu'on croit dans le grand public. Le deuxième sens, c'est l'ingenium, l'astuce. Quand on dit d'un élève qu'il est intelligent, ça veut dire qu'il est capable de résoudre des problèmes de façon judicieuse. C'est la sagacité.

Il y a un autre sens que je crois important de mentionner, parce que souvent ça fait l'objet de malentendus. Certains nous disent : « l'intelligence, c'est une mauvaise traduction de l’anglais », parce qu'ils pensent qu'intelligence artificielle utilise le même terme que dans intelligence service ou Central Intelligence Agency (CIA). Mais cette définition d’intelligence existe aussi en français : nous avons l’expression « être en bonne intelligence », qui signifie avoir une forme de connivence, ou le « crime d'intelligence avec l’ennemi ». C'est faire fuiter des informations. Donc ce n'est pas de cela dont il est question.

En réalité, l'intelligence dont il est question a été introduite au XIXᵉ siècle et correspond à des études psychologiques. Des philosophes ont voulu étudier les problématiques de la philosophie, c'est-à-dire de l’esprit, avec les méthodes des sciences physiques. C'est ce qu'on appelait la psychologie cognitive, et ça naît avec le courant positiviste. En France, nous avons un excellent représentant de ce courant qui s'appelait Hippolyte Taine, qui a écrit à la fin du XIXᵉ siècle un gros ouvrage en deux tomes qui s'intitulait De l'intelligence.

Dans ce sens, l’intelligence est l'ensemble de nos facultés psychiques, de nos facultés mentales, de nos capacités. C'est la perception, le raisonnement, la mémoire, la capacité à communiquer, à parler, etc. L'intelligence, c'est la résultante de l'ensemble de ces facultés. Et que fait l'intelligence artificielle? Elle se propose d'utiliser les machines pour mieux comprendre ces facultés, en les modélisant, en les simulant sur ces machines, et ensuite en confrontant ce que fait la machine et ce que font les hommes.
C'est même plus général d'ailleurs que les hommes, parce que l’idée est de comprendre toute l’intelligence, y compris l'intelligence animale, ou n’importe quelle autre source d'intelligence. C'est un champ de recherche qui est vraiment passionnant, c'est pour ça que j'ai commencé à travailler dessus.

Et puis il y a une deuxième chose, c'est qu’une fois ces capacités cognitives modélisées, on est capable d'utiliser ces simulations dans un très grand nombre de technologies. Ça rend des services considérables. Et c'est ce qui se produit aujourd'hui dans la société de l'information, puisque tout est réduit à des flux d'information. Ensuite, bien sûr, on peut utiliser les systèmes de traitement de l'information avec de l'intelligence artificielle pour rendre plein de services, par exemple depuis votre téléphone portable.

La reconnaissance faciale, la reconnaissance vocale pour faire des machines à dicter, par exemple, c’est de l'intelligence artificielle. Aujourd'hui, on fait de la synthèse d'images, mais on peut faire du raisonnement automatique. On peut faire des mémoires qui sont organisées avec ce qu'on appelle les ontologies pour structurer l'information, pour retrouver l'information. Tout ça, c'est de l'intelligence artificielle. Ça joue un rôle important au quotidien. Ce qu’on oublie souvent, d’ailleurs, c'est que le web est le couplage des réseaux de télécommunications (qui ne sont pas de l'intelligence artificielle) avec un modèle de mémoire. Or, la mémoire, c’est une fonction psychique.

Ce modèle de mémoire, qui s’appelle l’hypertexte, a été programmé avec des techniques d'intelligence artificielle et d'une certaine façon, c'est de l'intelligence sociale. Le protocole du web http, hypertext transfer Protocol, ou HTML, le langage d'écriture des pages web, fait aussi référence à l'hypertexte. Donc vous voyez, on fait tous de l'intelligence artificielle aujourd'hui, un peu comme Monsieur Jourdain faisait de la prose sans le savoir.

L’IA n’a donc rien de neuf ?

Ça n'a rien de neuf. 1955, c'est la date à laquelle a été rédigé un projet par John McCarthy et Marvin Minsky, et deux autres scientifiques, Nathaniel Rochester, qui était le directeur scientifique d'IBM, et Claude Shannon qui était le pionnier de la théorie de l'information. Ils rédigent un projet pour demander de l'argent à la Fondation Rockefeller pour organiser une école d'été en 1956. Donc non, l’IA n’est pas née de la dernière averse.

Est-ce qu’il n’y a pas, tout de même, une différence entre le champ de recherche scientifique – qui chercherait à mieux comprendre l'intelligence humaine – et la partie applicative, à la fois scientifique, mais aussi économique ?

Il y a effectivement une différence, mais dès le début, les Américains, qui sont extrêmement pragmatiques, ont l'intuition que ce développement aura beaucoup d'applications pratiques.

Il faut bien comprendre que l'intelligence artificielle ne naît pas de rien. Elle s'inscrit déjà dans la postérité d'un courant scientifique qui a démarré au milieu du XXᵉ siècle, en 1943. C'est ce qu'on appelait au départ en français l'automatique, mais qui ensuite va s'appeler la cybernétique. Ce courant de recherche va donner naissance, entre autres, à ce qu'on a appelé les réseaux de neurones formels qui sont toujours utilisés en intelligence artificielle. Les premiers articles datent de 1943, donc avant les premiers ordinateurs, parce que l'idée, c'était vraiment d'utiliser les relais téléphoniques, les dispositifs électroniques pour comprendre, pour avoir une image de la complexité de notre cerveau.

On mettait aussi cela en parallèle avec la complexité de la société. Et lorsque, en 1946, Norbert Wiener, qui était l'un des papes de cette discipline, crée le terme cybernétique, il l'invente en référence au grec cybernétique – le gouvernement, l'homme qui est à la barre, qui dirige. C'est cette idée qu'il y a des parallèles et des règles générales qui sont les propres de la complexité, que l’on retrouverait à la fois dans les sciences sociales, la politique et puis la biologie, voire la physique. L'intelligence artificielle entre dans ce courant là. Et dès le début, il y avait des idées d'applications pratiques. D'ailleurs, c'était l'idée derrière le terme de cybernétique. C'est important de bien comprendre cette double finalité derrière les techniques d'intelligence artificielle : finalité scientifique et finalité pratique.

Il y a eu le jeu d’échec, le jeu de go… Pendant très longtemps, et peut-être même encore aujourd’hui, c’est spécifiquement le jeu qui a servi d'étalon pour dire à quel point les machines arrivaient à produire de l'intelligence artificielle.
 Pourquoi ?

À la fin des années 50, au début des années 60, l'intelligence artificielle essayait de simuler les facultés de l'intelligence. L'une des facultés emblématiques de l'intelligence, c'est la capacité à jouer. Même auparavant, Alan Turing, l'un des pionniers de l'informatique, avait écrit un article sur la capacité des machines à penser. Il avait imaginé aussi le jeu parce que c'est emblématique. Quand on voit le film d'Ingmar Bergman, Le Septième sceau (sorti en 1957, ndlr), où il joue avec la mort, c'est une partie d'échecs, vous voyez ? Le jeu, c'est vraiment ce qui est le plus intelligent.

Les pionniers de l'intelligence artificielle se sont donc dit : « Mais les Jeux, c'est un peu un test d’intelligence ». Et John McCarthy, qui a créé le terme intelligence artificielle, a eu cette expression que je trouve merveilleuse, il a dit : « Les jeux, c'est la drosophile de l'intelligence artificielle ».

La drosophile, en biologie, c’est la petite mouche du vinaigre qui se reproduit extrêmement vite, qui permet d'étudier la génétique. De la même façon, les jeux permettent d'étudier tout un tas de phénomènes sur des espaces de complexité réduite. On sait qu’on ne peut pas étudier l’ensemble des capacités intellectuelles avec les jeux, parce qu'il n'y a pas de perception, il n'y a pas de prise de contact directe avec le monde, mais c’était un début. Donc on a utilisé le jeu d'échecs, le checkers (jeu de dame anglo-saxon, ndlr)… Les premières techniques d'apprentissage machine, ce qu'on appelle l'apprentissage par renforcement, ont été développées pour ces jeux-là.

Ensuite, bien sûr, on a entendu parler du jeu de Go, mais entre temps, il y a eu le jeu de poker, le jeu de bridge, etc. Si on a tant entendu parler du jeu de Go, c’est qu’il offrait un terrain d’une bien plus grande complexité, parce que l'espace des possibles y est beaucoup plus important. Et de nouvelles techniques d'intelligence artificielle ont été développées pour essayer de l'emporter sur les meilleurs d'entre les hommes à ce jeu.


Récemment, ce qui fait le plus de bruit en matière d’intelligence artificielle, c'est l'arrivée des modèles génératifs. Ces derniers représentent-ils une rupture dans les réflexions sur l'intelligence artificielle qui ont lieu depuis 70 ans, ou en sont-ils la continuité ?

Première chose : l'intelligence générative est ancienne. Très tôt, on se dit qu'on va pouvoir avec l'IA faire de la musique, faire de la poésie, faire de la peinture. Les premiers travaux sur la musique ont été créés, je crois, par le Français Pierre Barbaud en 1957. Donc c’est ancien.

Ensuite, en peinture, il y a eu beaucoup de tentatives qui ont été faites, notamment par Vera Molnar. Il y a eu une exposition d'elle l'an dernier – j’étais très ému parce que je me suis rendu compte que j'avais croisé cette dame. Elle s'appelait Vera Molnar, elle était mariée à François Molnar, un théoricien du numérique qui a vécu dans les années 70. Et elle, je l'ai croisée parce que mon patron de thèse m'avait demandé de lui amener des choses quand j'étais tout jeune. Elle a fait des choses superbes. Si on peut, il faut vraiment regarder ses œuvres faites grâce au numérique – elle utilisait l'informatique pour créer. Malheureusement, elle avait 99 ans et elle est décédée fin décembre 2023, donc avant d'avoir atteint son 100ᵉ anniversaire. Mais ça montre que ce sont des choses qui sont anciennes.

Ensuite, il y a eu beaucoup de tentatives différentes à partir des réseaux de neurones profonds – depuis 1943, ça a fait énormément de progrès. Ce qu'on appelait les réseaux de neurones profonds, c'est le fait que ce sont des réseaux de neurones organisés en couches, avec beaucoup de couches différentes. Ils ont de très bonnes propriétés, mais il faut des très grandes puissances de calcul pour pouvoir les entraîner.

Les développer est devenu possible à partir de 2012 - 2013. Ces technologies ont eu un très grand succès, elles sont d'ailleurs à l'origine du succès de la machine AlphaGo sur l'un des meilleurs joueurs au monde au jeu de go. Ensuite, en 2014, un des pionniers de l'apprentissage profond, Joshua Bengio, et son équipe, ont écrit un article pour utiliser ces réseaux de neurones profonds afin de générer automatiquement des images. C'est ce qu'on appelle en anglais les GAN (Generative Adversarial Networks), en français réseaux adversariaux génératifs.

Un GAN, c’est un réseau de neurones qui apprend. On lui donne des images et il essaye de les caractériser. Ça vient du fait que lorsqu'on veut apprendre avec des réseaux de neurones, on fait ce qu'on appelle de l'apprentissage supervisé. Il faut des images étiquetées, il faut un professeur. Par exemple, si vous voulez essayer de reconnaître des mélanomes, des grains de beauté qui sont potentiellement des cancers, vous allez demander à des médecins d'étiqueter. Et ce qu'on extrait avec la machine, c'est une espèce de concentré de la connaissance du médecin.

Lorsqu'on veut générer, bien sûr, on n'a plus ça. L'idée, c'est de prendre un certain nombre d’images – par exemple des tableaux – et vous allez dire « Tiens, on va prendre le style Picasso ». Donc vous étiquetez les Picasso, puis les non Picasso. Et à partir de ça, vous allez entrainer un réseau de neurones à vous répondre oui sur un Picasso et non sur un non Picasso. Ensuite on va avoir un deuxième réseau de neurones et il va générer une image aléatoire et ensuite il va demander : est-ce que c'est un Picasso? Est-ce que ce n'est pas un Picasso? Et bien sûr, si on lui dit que ce n'est pas un Picasso, il va s'améliorer jusqu'à générer des équivalents de Picasso. C'est ce couplage du réseau génératif et du réseau discret, ce qu'on appelle le discriminateur. Ça donne les réseaux adversariaux génératifs qui permettent de fabriquer des images.

Depuis 2014, en France, on a une équipe, sur Sorbonne Université, le consortium Obvious (Pierre Fautrel, Hugo Caselles-Dupré et Gauthier Vernier, ndlr) : ils ont fait un certain nombre de tableaux avec ce type de technique. Et pour ne pas se tromper d'ailleurs, l'équipe faisait signer ses tableaux par une équation mathématique. Ils ont toute une série de tableaux qu'ils ont appelé la famille de Belamy. Belamy, c'est un peu un nom de code des techniques qu’ils utilisent, parce que les personnes qui en sont à l’origine, j’ai dit que c’était Joshua Bengio et son équipe, mais celui qui a vraiment fait les choses, il s'appelle Goodfellow en anglais… ce qui donne en français Belamy.

Dans cette famille Belamy, le tableau d’Edward Belamy s'est vendu chez Christie's à 460 000 $ ou quelque chose comme ça, ce qui montre bien que ça a pu faire tourner la tête – d’autant qu'on n'est pas certain que les autres tableaux seront vendus aussi cher. Ce qui est important, c'est de comprendre que l'intelligence générative est à dix ans maintenant. On a de nouvelles techniques, mais le principe est vraiment ancien.

Depuis quelques années, on a eu un autre phénomène : chez Google, il y a l'idée de trouver une alternative aux moteurs de recherche classiques. Le début de Google, c'est 1998, ça faisait 25 ans l'an dernier. Donc ils se disaient : « il faut qu'on trouve de nouveaux moyens d'échanger avec les utilisateurs ». IIs ont beaucoup travaillé là-dessus et notamment sur les réseaux de neurones formels. Leur idée était d’essayer d'extraire l'esprit de la langue. Pour cela, ils ont fait de l'auto-encodage, c’est-à-dire qu'ils ont fait apprendre avec les mêmes techniques, mais au lieu de mettre une étiquette, ce qui est vraiment difficile pour le langage, parce qu'il faut un professeur, leur idée était de mettre une phrase en entrée et la même phrase en sortie et de retrouver quelque chose qui se rapproche de la même phrase.

À partir de cela, on obtient une espèce de concentré de ce qu'il y a dans cette phrase. On fait ça sur de très gros corpus, avec l’équivalent de centaines de milliers d'ouvrages. Ensuite, on utilise ces modèles de langue pour différentes techniques de traitement automatique, par exemple pour des systèmes questions-réponses, pour faire du résumé de texte ou pour faire de la génération de texte. Dans le cas de la génération de texte, c'est ce qui se passe : on met une phrase et puis le système va nous trouver le mot qui suit dans la phrase et puis celui qui suit, etc. Et comme ça, on peut avoir des enchaînements de mots. Bien sûr, ce sont comme des perroquets, ils répètent ce que l'on dit.

Mais c’est étonnant, et tous les linguistes ont été stupéfaits ! Parce qu’avant, si on voulait faire du traitement de la langue et de la génération de texte, il fallait avoir une idée de la syntaxe, de la sémantique. Là non. Tout ça, c'est comme si c'était codé de façon probabiliste. À l'intérieur de ces réseaux, on a des phrases qui sont bien construites, avec assez peu de fautes d'orthographe. Le sens est tout à fait improbable. Mais ça nous semble correct de temps en temps.

Pourtant, c'est totalement imaginaire. On a utilisé une expression pour caractériser ça, c'est l'expression d'hallucinations. C'est malvenu, parce que l’hallucination, au sens classique, c'est le fait d’avoir une perception différente de la réalité. Mais là, la machine ne perçoit rien du tout, elle affabule, elle raconte des sornettes, mais comme elle n'a pas d'idée de la vérité, peu importe.

Néanmoins, ces résultats ont stupéfait. Et Google s’est retrouvé très ennuyé, parce qu'un de ses employés, Blake Lemoine, a voulu utiliser ces modèles et a fait des déclarations en disant : « Ces modèles sont vraiment formidables. J'ai des échanges avec eux qui sont tellement profonds que je ne peux pas imaginer qu'il n'y ait pas d'âme dans la machine. » Google était très ennuyé parce que ça n'est pas sérieux. Et puis ça fait peur à la population. Donc ils ont renvoyé ce Black Lemoine, et mis un peu la pédale douce sur les recherches associées.

Arrive une petite société, OpenAI, qui elle n'avait aucun enjeu, qui pouvait juste s’amuser. Elle a repris les mêmes modèles de langage – tous ces modèles sont fondés sur un principe et qu'on appelle les transformers. L’initiale de transformeurs, c'est le T. Google a fait le premier modèle avec les Transformers, l’a appelé BERT, le T c’est Transformer (Bidirectionnel Encoder Représentations from Transformers, pour l’acronyme complet, ndlr) et cette deuxième société en a fait un autre qu'ils ont appelé GPT, dont le T signifie toujours Transformer (Generative Pre-trained Transformer, ndlr).

Ensuite, ils ont utilisé ce système pour faire un chatbot – aucun problème puisqu’un chatbot, il suffit de lui donner une phrase pour que le système la complète. Ensuite on met une deuxième phrase, c'est tout simple à faire. La seule chose, c'est qu’on s’est rendus compte qu’on est dans une société assez puritaine, donc qu’il ne faut surtout pas que le système soit inconvenant. Ce qu'ils ont fait, c'est qu'ils ont utilisé d'autres techniques d’intelligence artificielle, ce qu'on appelle l'apprentissage par renforcement, qui a été utilisée dans les années 50 pour entraîner les systèmes au jeu de dames. Ces techniques sont pionnières dans la discipline. OpenAI les a utilisées pour faire des systèmes qui apprenaient à partir de ce que proposaient des modérateurs.

Donc on leur apprend, on leur dit si quelque chose ne va pas : si on parle de sexe, de porno, de racisme, etc, et donc ils ont fait une espèce de censure automatisée. Le système a appris avec cette censure, avec ces techniques-là, et puis OpenAI a mis ça face au grand public fin novembre 2022. Et là, l'outil a connu ce succès absolument incroyable, en quelques mois, le monde entier utilisait ce type de technologie… Google s'est retrouvé un peu coincé, parce que vis-à-vis du grand public, il était ignoré alors qu'il était à l'origine des techniques en question. Alors ils se sont dit : « On va montrer qu'on peut faire quelque chose ». Ils ont décidé de mettre en place un moteur qu'ils ont appelé BARD » (désormais Gemini, ndlr). Ils ont décidé de le faire moins puissant que celui utilisé par Blake Lemoine, qui s'appelait LaMDA (Language Model for Dialogue Applications, ndlr), parce qu’ils étaient un peu traumatisés.

Google a lancé Bard, et barde, les lecteurs d'Astérix s’en souviennent, c'est celui qui chante les résultats du moteur de recherche. Et là, ils ont fait une conférence de presse, où ils annonçaient : « On ne va pas le donner au grand public parce qu'il y a encore des erreurs, on va le donner à des utilisateurs de confiance, mais on va vous montrer quand même ce qu'on sait faire. » Ils font une conférence de presse en mars 2023, ils posent une question très simple : quelles sont les trois découvertes du Télescope James Webb que vous pourriez raconter à un enfant de neuf ans ? La machine donne trois réponses. Les deux premières sont vraies, malheureusement, la troisième est complètement fausse, ce qui a fait chuter l'action de Google.

Donc la pauvre société Google, je ne sais pas si elle est vraiment pauvre, mais en tout cas il y a une espèce de malédiction contre elle sur les modèles génératifs puisque c'est eux qui sont à l’origine, mais qu’à chaque fois, ils ont eu des problèmes avec.

En quoi les modèles génératifs nous aident-ils à mieux comprendre l'intelligence humaine ?

Sur les modèles génératifs du langage, quelque chose est lié à certaines de nos facultés, celles qui nous permettent de nous imprégner d'une langue et de la répéter. Dans la population, les enfants parlent et parlent et parlent et finissent par respecter les règles de la langue. Or, ils n’ont jamais appris la grammaire de façon abstraite. Dans ces modèles, on a quelque chose qui nous rend compte un tout petit peu de cela. Et c’est assez extraordinaire à voir. Mais ça a surpris tout le monde, ça a surpris à la fois les spécialistes de l'intelligence artificielle, les linguistes…

Ce qui a surpris, c'est la qualité des résultats ?

Oui, c'est la qualité aux plans syntaxique et grammatical. Ensuite, bien sûr, que les propos soient souvent faux, ça semble tout à fait naturel puisqu'il n'y a pas de vérification, de validation, ni de confrontation entre le résultat et des données factuelles. Donc soit la machine nous dit ce qu'elle a déjà entendu littéralement, soit ça fait un peu la même chose que dans notre imagination : ça met ensemble des choses qui n'ont rien à voir et ça invente, c’est capable d'inventer des éléments de vraisemblable.

Parmi les problématiques que ces modèles ont rendues visibles, mais qui étaient déjà largement étudiées dans le milieu scientifique, il y a toute la question des biais… On a vu Chat GPT dire que les femmes ne pouvaient pas faire tel métier, alors que les hommes si, Midjourney produire des images extrêmement stéréotypées de ce qu’était une banlieue, en produisant des clichés de destruction. Tout cela a permis de discuter de cette notion de biais, qui est plus compliquée que ce qu'on pourrait croire.

Oui, cette notion de biais est vraiment complexe. Le terme lui-même, à l’origine, signifie oblique : quelque chose en biais, c’est quelque chose qui ne va pas droit.

Il a été repris par un certain nombre de psychologues pour caractériser des raisonnements qui ne sont pas rationnels. Il y a deux très grands psychologues, en particulier, Kahneman et Tversky, qui sont très connus. Kahneman a eu le prix Nobel (en 2002, ndlr), Tversky ne l'a pas eu simplement parce qu'il est décédé avant (en 1996, ndlr).

Ensemble, ils ont étudié des raisonnements humains et les ont confrontés à des raisonnements rationnels. Pour ça, ils se sont intéressés à l’économie, parce, dans une situation à deux solutions, on sait très bien montrer laquelle va rapporter le plus. Par exemple, on vous dit : « voilà, vous avez deux choix, vous avez 50 % de chance de gagner 1000 € et 50 % de ne rien gagner. Et puis le deuxième, on vous donne à coup sûr 400 €. Qu'est-ce que vous préférez ? » Une étude statistique montre qu'on a intérêt à tenter le coup, parce que si on a 50 % de gagner 1 000 € et 50 % de ne rien gagner, c'est plus intéressant que de gagner 400 € à coup sûr. Pourtant, on constate que la plupart des gens interrogés préfèrent gagner les 400 € à coup sûr. Est ce que c'est rationnel ou pas? D'après eux, ça ne l’est pas.

Bien sûr, ça se discute, en fonction du risque, etc. Mais Kahneman et Tversky ont fait beaucoup d'expériences de ce type-là et ont montré qu'il y avait des biais de réflexion, qu'on ne choisissait pas toujours la ligne optimale. De façon plus générale, ils ont essayé de caractériser ces différents biais cognitifs, c'est-à-dire le fait qu'il y a des idées et des raisonnements qui sont erronés. À partir de ça, on a estimé qu'un certain nombre de machines pouvaient, elles aussi, présenter des biais, mais pour être capable de caractériser ces biais, encore faut-il savoir quel est le raisonnement exact.

Or, il y a un tas de cas de figures dans lesquels on ne le sait pas. Prenons un métier, médecin par exemple, et demandons-nous s’il est exercé par une femme ou un homme. A priori, on ne sait pas. Certes, aujourd’hui, il y a plus de médecins femmes que de médecins hommes, mais le mot lui-même ne permet pas de l’estimer. Infirmiers ou infirmières (nurse, terme neutre en anglais, ndlr), certes le terme est genré en français, mais a priori, ça n’est pas parce qu'on nomme la profession qu’on déduit le genre de celles et ceux qui l’exercent.

Et puis statistiquement, il y a plus d'infirmières, mais il y a aussi à peu près autant d’hommes que de femmes médecins. Mais quand on parle de médecins et d’infirmiers, on se représente des rangs différents dans la société. L'image qu'on se fait de l’infirmier, même si le métier est tout à fait admirable, qu’il implique un très grand dévouement… bref, on a dit que les systèmes (notamment ceux qui traduisaient des mots neutres, notamment a doctor et a nurse, vers de termes genrés, un médecin, une infirmière, ndlr) sont biaisés.

Est-ce qu'ils sont vraiment biaisés? C'est compliqué. C'est-à-dire qu'ils reflètent les exemples d'apprentissage qu'on leur a fournis. Alors on se dit que pour corriger ce qui serait des préjugés présents dans la population, issus de l'habitude, il faudrait essayer de changer les exemples que l'on fournit aux systèmes. Mais c'est délicat.

Par exemple sur la reconnaissance faciale, des chercheuses américaines, qui sont quand même des militantes de la cause noire, ont fait des recherches et ont montré que les systèmes de reconnaissance faciale du grand public sont biaisés, c'est-à-dire qu'ils reconnaissent moins bien les femmes noires que les hommes blancs (c’est notamment le résultat du travail de l’informaticienne et créatrice de l’Algorithmic Justice League Joy Buolamwini, ndlr). C'est vrai que les résultats sont un peu choquants. Après, on peut se demander quels sont les effets de ces problèmes ? On peut se penser que si la police utilise cela, ça peut avoir des effets négatifs, etc.

La question est aussi de savoir d’où viennent ces biais. Ils peuvent venir du fait que les ensembles d'exemples sont mal équilibrés. C'est-à-dire qu'on a plus d'exemples d'hommes blancs que de femmes noires. Auquel cas, bien sûr, le système va moins bien reconnaître les femmes noires. Mais il peut aussi y avoir d'autres raisons. Par exemple, le fait que les femmes ont l'habitude de se maquiller et de changer de coiffure et donc que de ce fait, elles puissent être moins facilement reconnaissables. Ou alors que la peau noire reflète moins la lumière et donc qu'on ait plus de mal à reconnaître les personnes. Donc vous voyez, c'est délicat.

Qui plus est, l'article qui est cité (Gender Shades, de Joy Buolamwini, ndlr) montre un très fort taux d'erreur. Mais ce taux d'erreur n'est pas sur l'identification. Et là, il faut bien comprendre ce qu'on entend par reconnaissance faciale. Pour le préciser, la reconnaissance faciale, ça peut être l'authentification, ce qui se produit dans le système Parafe. Dans ces cas-là, il y a des erreurs, mais très faible, et il y en a un peu plus effectivement pour les femmes noires que pour les hommes blancs, certainement pour les raisons que je vous ai données. Là, c'est pas une question d’ensemble d'apprentissage puisqu'il n'y a pas d’apprentissage : on confronte l'image de la personne avec ce qui est décrit sur le papier d'identité.

Ensuite, on peut faire de l'identification, c'est-à-dire être capable dans la rue, prendre une photo, dire : « Ça, c'est Monsieur Untel ». Ça fait très peur, parce que ça peut être utilisé en Chine, par exemple, pour le crédit social, ça peut être utilisé pour arrêter des personnes, etc.

Mais le test que fait [Joy Buolamwini], c’est un test de catégorisation. C'est essayer de dire : cette personne, c'est quelqu'un qui a telle émotion, qui est de telle ethnie. Par exemple les Chinois caractérisent les Ouïghours, ce qui donne un peu froid dans le dos. Mais là, c'était de la catégorisation en genre : est-ce que [la personne représentée sur l'image] est une femme ou un homme ? Et il y a beaucoup plus d'erreurs sur les femmes noires que sur les hommes blancs. C'est-à-dire que les hommes blancs, on les prend toujours presque pour des hommes, tandis que les femmes noires, de temps en temps, la machine les prend pour des hommes (voire ne les détecte pas dans l’image, ndlr).

Alors quel est l'effet discriminatoire là-dessus ? Est-ce que ça pose problème de mal reconnaître le genre des femmes noires ? Je ne sais pas. J'avais imaginé un scénario des toilettes, par exemple, de femmes où il y ait une caméra à l'entrée et on punisse les hommes qui rentrent. Bon, vous voyez que ça fait un peu sourire. (Problématique proche de l’idée de M. Ganascia : il est arrivé que des fournisseurs automatiques de savon équipés de détecteur à quasi-infrarouge ne fonctionnent pas devant des peaux noires, très probablement parce que la technologie avait principalement été testée sur des peaux blanches, ndlr.)

Ce qui est important, plus que les biais, c'est la discrimination qui serait induite par l'utilisation massive de techniques d'intelligence artificielle. Et c’est, je crois, ce dont il faut se préoccuper le plus. Et bien sûr, s'il y a des biais qui tiennent aux ensembles d’apprentissage qui peuvent être corrigés, il faut absolument le faire.

Là, quand vous dites discrimination, c'est au sens tout à fait classique de discrimination sociale, sans prendre en compte les seuls résultats de la machine ?

Oui, je parle de discrimination injustifiée en réalité. Parce que qu’est-ce qu'on appelle discrimination ? Le fait de trier. Si, lorsqu'il y a une offre d'emploi, on trie a priori les gens en fonction de leur religion ou de leur couleur de peau, de leur ethnie d'origine, c'est inadmissible (et illégal, ndlr). Mais il arrive quelquefois que la discrimination soit justifiée. Par exemple, j'avais imaginé l'histoire d'une offre d'emploi pour des mannequins pour faire des essais de soutien-gorge. À ce moment-là, c'est logique de discriminer les hommes. De même, si vous avez un poste de médecin, il est normal qu'on discrimine les personnes qui n'ont pas de diplôme de docteur en médecine, puisque a priori, c'est nécessaire. Donc certaines discriminations sont justifiées et d’autres, notamment selon des critères précis (25 sont interdits par la loi, ndlr) sont injustifiées.

Ce qui est délicat, c’est qu’il y a la discrimination consciente, qu’il est facile d’éliminer, et puis la discrimination inconsciente. Dans les systèmes, il peut y avoir des facteurs corrélés, par exemple, au code postal. Dans certains pays, il peut être corrélé à l'origine ethnique, auquel cas, si vous filtrez sur le code postal, vous risquez bien sûr en fait d'avoir un filtrage raciste. Ce sont ces questions extrêmement difficiles sur lesquelles on essaye de travailler en intelligence artificielle, pour éviter que l’emploi de ces techniques ne crée des injustices.

Est-ce que la notion de biais n'est pas aussi floue parce que derrière, on peut y mettre un sens statistique, parfois un sens économique, ou social, et que les trois ne sont pas réductibles ensemble ?

Oui, parce que derrière la notion de biais, il y a aussi une autre notion qui est la notion d’équité. L'équité n'est pas l'égalité. C'est une vieille question philosophique. Aristote en parle déjà, ou, récemment, Vladimir Jankélévitch. Toute l'histoire de la philosophie nous dit que donner la même chose à tout le monde, ça peut être injuste parce que certains ont plus besoin que d’autre. À ce moment-là, il faut se pencher sur leur cas spécifique – c’est toute la question de la justice distributive.

Ce qu'on fait dans nos pays, c'est essayer de donner plus à ceux qui sont plus pauvres. On fait payer plus d'impôts aux riches, c'est normal. Jusqu'à quel point est-ce qu'il faut faire payer plus d'impôts aux riches ? C'est une question qui est ouverte, qui fait débat.

De même, est-ce qu'un système d'intelligence artificielle doit être équitable ? C'est délicat parce qu’il peut facilement être égal, mais ensuite, il faut derrière qu'on ait un certain nombre de critères qui soient admis par tous, qui soient explicités, et qu’il y ait une forme de transparence sur les choix sociaux que l'on décide d’effectuer de ce point de vue.

En 2016, vous publiiez Le mythe de la singularité. Depuis, l'intelligence artificielle générative a émergé et fait revenir le même type de débats qu’à l’époque. Pour résumer, pourquoi l'idée que la machine ait une conscience, comme le disaient Blake Lemoine et d’autres, n’a pas de sens ?

C'est une vieille idée que la machine puisse avoir une conscience. C’est bien antérieur à l'intelligence artificielle, si on regarde les mythes anciens. Le mythe de Pygmalion, avec Galatée qui s'anime, par exemple : c'est Pygmalion, un sculpteur qui fabrique la plus belle des femmes. Il en tombe amoureux et elle s'anime. Ou Pinocchio. Geppetto, un pauvre petit sculpteur qui fabrique des pantins, tout d'un coup, il voit l'une de ses sculptures s'animer et faire plein de bêtises.

C'est une vieille idée, qui va revenir avec la science-fiction, au début du XXᵉ siècle. Les premiers travaux de l'intelligence artificielle y font écho parce qu’elle est dans l'imaginaire, surtout dans celui des chercheurs aux États-Unis, qui ont beaucoup lu de science-fiction. Les pionniers de l'intelligence artificielle sont à la fois nourris de littérature, de science-fiction, eux-mêmes sont interrogés par les cinéastes… Kubrick, par exemple, lorsqu’il fait 2001, l'Odyssée de l’espace, il prend Marvin Minsky, l'un des pionniers de l'intelligence artificielle, comme conseiller scientifique.

Minsky, c’est l'une des quatre personnes qui ont rédigé ce projet d'école d’été, en 1955. Il a lui même écrit un roman de science-fiction avec un auteur et John McCarthy a écrit une nouvelle de science-fiction.

Donc tout ça, c'est une histoire très ancienne. Mais qu'est-ce que ça veut dire, que la machine a une conscience ? Et qu'est-ce que ça peut être, une conscience en général ? Le terme conscience, comme le terme d'intelligence, est polysémique. Il a au moins trois sens différents.

Il y en a peut-être encore plus, mais le premier sens, c'est le fait que vous observez une machine et que pour essayer de savoir ce qu'elle va faire, vous allez projeter dessus une entité abstraite. On appelle ça un agent. C'est comme une espèce d'âme qui va animer cette machine. Vous savez qu'il n'y en a pas, mais on l’imagine, parce que c'est une stratégie pour mieux maîtriser la chose. De même, face à un animal, on va projeter sur cet animal une âme pour essayer de mieux comprendre ce qu'il va faire, ses buts, etc.

Cette notion, cette idée de systèmes intentionnels, a été introduite par le philosophe Daniel Dennett. Est-ce qu’en ce sens-là, les machines ont des consciences ? Oui, mais ce sont des consciences au sens non métaphysique, elles n'ont pas de volonté propre, c'est nous qui nous imaginons qu'elles ont une volonté propre. Pour ceux qui ont utilisé des petits aspirateurs Roomba, on les prend pour des animaux un peu, on projette. C'est ça le premier type de conscience.

Le deuxième type de conscience, ça fait référence à l'idée qu'on a une conscience morale. C'est une réflexion : on s'analyse, on regarde quelles sont les conséquences de ce qu'on va faire et à partir de ça, on va choisir en toute conscience, après réflexion, l'action qui nous semble la plus appropriée, pour diminuer des dommages, par exemple, etc.

Est-ce qu'on peut avoir une machine qui est consciente en ce sens-là, qui réfléchit ? Pourquoi pas. Il y a depuis longtemps des machines qui examinent leurs comportements passés, qui essaient de s'améliorer pour le futur ou même qui regardent avant d’agir quelles sont les conséquences des différentes actions qu'elles pourraient entreprendre. Si elles évaluent le nombre de prescriptions morales qui interdisent d'accomplir un certain nombre d’actions, ça veut dire qu'elles sont morales au sens où elles agissent conformément aux règles de la morale. Il y a une distinction, que fait le philosophe Emmanuel Kant, entre agir par devoir et agir conformément au devoir. La machine n'agit pas par devoir, elle n'a pas conscience du devoir, mais elle connaît les règles. Donc ça c'est le deuxième sens, et on peut imaginer des machines qui sont en ce sens-là dotées d'une conscience.

D’autre travaux s’intéressent à la perception : quand vous percevez quelque chose, ça peut arriver à la conscience, et il y a des types de perceptions qui n'arrivent pas à la conscience. Quand on voit, par exemple, il y a plein d'éléments dont on ne se rend pas compte, sur lesquels l’attention n’est pas focalisée, mais qui en réalité sont quand même perçus. C'est très important quand on conduit, par exemple : il y a tout un tas d'éléments qu'on ne voit pas, mais qui sont quand même pris en considération. Tout cela fait l'objet de beaucoup de travaux de psychologues, neurobiologistes, etc.

Et puis la troisième chose, c'est la conscience au sens de perception comme réception, comme ressenti. Est-ce que la machine peut avoir chaud ? Est-ce qu’elle peut savoir ce qu'est la rougeur ? Est-ce qu'elle peut sentir l'odeur de naphtaline par exemple ? C'est justement là que c'est beaucoup plus difficile. Peut-on imaginer qu'une machine puisse avoir conscience en ce sens-là ? Si c'est le cas, ça pose problème parce que ça voudrait dire qu’elle pourrait avoir des désirs, vis-à-vis de son ressenti. Peut-être, si elle a des désirs, risque-t-elle d'avoir une volonté propre (celle de satisfaire ses désirs) et donc de nous échapper. C’est cela qui fait extrêmement peur. Mais on n'a aucun élément aujourd'hui qui nous laisse entendre qu'elle puisse avoir une conscience en ce sens-là. Et même si elle en avait, il y a toutes les chances que cette conscience soit extrêmement éloignée de la nôtre.

Parce que les désirs sont liés à notre capacité à survivre. Si on aime l'eau, c'est parce qu'on pense que l'eau est bonne. L'eau est bonne pour nous. Il y a ceux qui préfèrent l’alcool, certes, mais même là : s’ils l’aiment, c’est parce qu'il y a une ivresse, au moins passagère. Si on suit ce raisonnement, la machine, elle devrait détester l'eau et aimer l'électricité. Donc elle nous serait totalement étrangère.

Donc est-ce que c'est probable qu'une machine ait une conscience ? On en est extrêmement loin, en tout cas en ce troisième sens. Et si elle l'avait, ce serait tellement étranger que je ne vois pas très bien ce qu'on pourrait en faire.

Après, bien sûr, le risque, ce serait qu’elle nous échappe complètement. Mais là encore, il y a beaucoup d'animaux dans la nature qui ont des consciences qui nous échappent beaucoup, qui peuvent être très hostiles, et on est arrivé à les maîtriser. Donc il n'y a pas de raison qu'on n'arrive pas à maîtriser de ce point de vue là les machines.

Vu la classification des trois concepts que vous faites, quand Blake Lemoine dit que Bert ou LaMDA sont conscients, en réalité, il est en train de projeter sur les résultats de la machine ?

Oui, quand il parle des émotions profondes, c’est parce qu’il y a une empathie cognitive, pour moi, qui permet d’avoir une forme de connivence avec cette machine, qui fait que je m'entends avec elle. Il en fait une personne, mais c’est improbable parce que même si la machine avait une conscience au sens où on l'a dit dans ce troisième niveau, il y a toutes les chances que cette conscience n'ait rien à voir avec la nôtre, et donc il n'y a aucune raison qu'elle exprime les mêmes sentiments, le même désir, etc.

Beaucoup des discours qui parlent de cette potentielle conscience des machines sont formulés sur un ton inquiétant, mais le sont aussi souvent par la voix de gens qui travaillent dans le domaine. Soit ils y travaillent d’un point de vue scientifique, soit ils le promeuvent d'un point de vue économique... Comme s'ils expliquaient que c'est parce que les machines risquent de nous dépasser qu’il faut continuer de travailler dessus… Comment expliquez-vous ce paradoxe?

Dans Le mythe de la singularité, j’appelle ça les pompiers pyromanes, c’est-à-dire que ce sont ceux qui mettent le feu, qui vous expliquent ; « attention, il faut absolument éteindre l’incendie. Et d'ailleurs, comme nous le savons très bien ce dont il s'agit, nous allons vous aider. »

Il y a un implicite derrière. Ils nous disent : « Vous savez, nous on n'y peut rien, La technologie se déploie de toute façon et c'est nous qui l'avons faite. Mais ce n'est pas de notre faute parce qu'elle est arrivée sans nous. »

Je crois qu'il y a plusieurs explications possibles. Une explication, c'est qu’ils essaient de se dédouaner, se déculpabiliser. Ils nous expliquent que ça se fait sans eux et que c'est dangereux. Et en même temps, quand ils nous disent : « c'est dangereux », ça veut dire : « nous on sait des choses que vous ne savez pas et nous sommes les seuls à pouvoir vous aider à résoudre ces problèmes. »

Mais il y a peut-être d'autres raisons. Je pense que l’une d’elle est qu’on veut nous raconter des fables pour nous obscurcir un peu l'horizon et surtout pour masquer ce qui réellement est en train de se passer : une prise de pouvoir par les grands acteurs de l'internet qui connaissent le numérique. Dire : « les machines se développent d'elles-mêmes, on n'y peut rien, on va vous aider, on est tous ensemble, c'est l'humanité, etc. » c’est cacher qu’en fait, ce n'est pas l'humanité, ce sont de nouveaux pouvoirs qui sont institués. On est en train de rentrer dans une forme de nouveau féodalisme et c'est de ça dont il est question… mais dont les grands acteurs ne veulent absolument pas qu'on parle. Quand ils disent : « on est tous ensemble contre le même mal », en réalité, on n’y est pas du tout.

Et puis il y a aussi une espèce de vertige d'hubris, l’idée qu'il n'y a plus de limites. Ils pensent refaire l'œuvre de Dieu. Il y a vraiment de cette idée démiurgique que la technologie peut tout faire. Et de ce point de vue là, là encore, ça pose un certain nombre de questions. Parce que quand on connaît bien ces technologies, on en connaît les limites.

Voilà un tas d'explications possibles. J'en avais une autre, un peu différente : derrière ces théories qui font appel à la science-fiction, qui nous vendent une forme d'immortalité et de transformation, on trouve peut-être quelque chose qui s'apparente à des courants spirituels qui ont eu lieu dans les Ier et IIᵉ siècle après Jésus-Christ, qu'on appelait les gnoses.

Gnose, ça vient de connaissance. C'est l'idée que le monde est mal fait, que c'est un faux Dieu qui l'a construit et qu'il faut, avec la connaissance, essayer de le réparer. On a la même idée chez ces technologues qui nous disent : « on vieillit, on est mortel, on est limité. Avec les technologies, on va réparer la vieillesse, on va essayer de trouver quels sont, par exemple, les mécanismes de l'apoptose, la mort programmée des cellules pour faire en sorte que vous soyez éternellement jeune », le bain de jouvence. De même, l'idée qu'il y a une mortalité leur déplaît : « On va vous rendre immortel, on va télécharger votre conscience… » Voilà, ce qui est intéressant, je crois, c'est de retrouver à travers ces mouvements novateurs de vieilles superstitions. Mais je pense qu'il y a surtout la volonté de nous obscurcir les choses.

En 2016, vous terminiez votre livre sur une question ouverte : « Comment faire pour que les peurs métaphysiques ne masquent pas les dangers réels » ? Est-ce qu’entre temps vous avez trouvé la réponse ?

Non, malheureusement. J’ai publié ça en 2017, on est en 2024, ça fait sept ans et je vois qu’on a toujours les mêmes peurs. Je vous cite deux exemples : l'an dernier, l'un des pionniers de l'apprentissage profond, Yoshua Bengio, a été à l'origine d'un moratoire qui demande qu'on arrête de développer ces technologies qu’il a lui-même contribué à mettre en place, en nous expliquant que c'est dangereux parce qu'il y a des esprits numériques à l'intérieur des machines. Ça fait un peu sourire. Il nous explique que ça va changer l'histoire de la vie sur Terre, alors que bon, des robots bavards, même s'ils parlent très bien, je ne pense pas qu'ils vont changer grand-chose à la vie des paramécies et des bactéries. Juste après, on a eu une autre déclaration qui nous a expliqué que l'intelligence artificielle, c'était plus dangereux que la bombe atomique et les pandémies. Ce qui fait sourire parce que ce ne sont jamais que des robots bavards.
Il y a un très beau poème de René Char, qui dit : « La parole soulève plus de terre que le fossoyeur ne le peut. » Est-ce que c'est de cela dont ils veulent parler? Je ne pense pas : on peut même se demander s'il s'agit d'une vraie parole.

Le même Yoshua Bengio a écrit à la fin de l'été, cosigné avec 18 autres scientifiques, un article sur la conscience où il explique que les machines vont présenter des indicateurs de conscience. Et là encore, lorsqu'on lit l'article en détail, on se rend compte que ça part d'un a priori et que ça se renforce. Ce qu'il nous dit, c’est qu’il pense que les seules théories de la conscience sont celles qui sont des modèles computationnels. Ensuite, il nous dit : la conclusion c'est qu’on a fait beaucoup de progrès sur la conscience. On est capable de tout modéliser parce qu’il n’a pris que les théories de la conscience qui utilisent des modèles computationnels.

On ne sort pas de la démarche scientifique dans un cas comme ça ?

Dans un article comme ça, je pense qu'on sort un peu de la démarche scientifique. D'ailleurs, il est resté jusqu'à présent sur des sites de prépublication et n'a même pas encore été publié.

Quels sont les dangers réels dont on devrait plutôt s’occuper, plutôt que de se pencher sur ces discours-là ?

Je crois qu'il y a d'abord la prise de pouvoir considérable que prennent ces grands acteurs, qui tous les jours ont plus de moyens et rivalisent avec les États, le fait qu'ils assument à leur place un certain nombre d'attributs de la souveraineté… Du point de vue politique, ça me semble extrêmement important.

Les questions énergétiques aussi. Pour l'entraînement de ces très gros systèmes d'intelligence artificielle, il y a un coût non négligeable. À terme, si ça se développe, ça va être beaucoup plus important.

Il y a aussi bien sûr, les interférences avec les institutions démocratiques, avec le fait que ces systèmes d'intelligence artificielle sont capables potentiellement de générer énormément de fausses informations, de fausses images, de textes totalement fallacieux, de personnes qui prononcent des textes. Tout cela peut induire en erreur. C'est d'autant plus dangereux, d’ailleurs, que les fausses images ressemblent à des photos. La photo, au sens sémiotique, c'est ce qu'on appelle l’indice-signe -Peirce distingue le symbole de l’index. L'index, c'est montrer quelque chose, le symbole, c’est la représenter. Une peinture, on représente quelque chose. Si elle est fausse, on peut dire que c'est une erreur du peintre. Tandis que là, l'index, on vous montre quelque chose : une photo. Vous avez l'impression que c'est vrai parce que vous avez l'impression qu'on pointe sur quelque chose. Mais en réalité, cette soi-disant photo a été fabriquée par une machine et peut être totalement erronée.

Au-delà de cela, il y a le fait que les informations erronées, les infox ou fake news, vont être diffusées sélectivement à des segments de la population prédéterminés. C'est extrêmement problématique, parce que ça veut dire que l'espace public de débat qui faisait que nous avions tous la même information et que nous réagissions tous aux mêmes choses est en train de disparaître.

Aujourd'hui, ce qui se produit, c'est que chaque segment de la population a les informations qui lui conviennent, avec le risque d'arriver dans une société où on ne peut plus se comprendre. Où il ne peut plus y avoir d'espace public. Il y a un grand philosophe qui a joué un rôle important en Europe, pour essayer de construire une morale commune, c’est Jürgen Habermas, spécialiste de la philosophie de la communication. Il a écrit il y a deux ans un ouvrage où il s'inquiète de ça, Espace public et démocratie délibérative : un tournant (Gallimard, 2023). Je crois que c’est ça, le plus grand danger consécutif à l'utilisation des techniques d'intelligence artificielle.

Plus que leurs effets sur le monde du travail ?

Sur le monde du travail, la question est très complexe. Ça fait partie de craintes anciennes. Le terme « robot », par exemple, vient d'une pièce qui a été écrite en 1920 (R.U.R.), d'un dramaturge tchèque, Karel Čapek, qui faisait intervenir le terme robot. Ça vient de « Rob », qui veut dire esclave en tchèque. Ce sont des travailleurs artificiels. Dans cette pièce de théâtre, ces travailleurs artificiels gagnaient en dignité ce que les hommes perdaient en dignité parce que les hommes devenaient oisifs, et ils prenaient le pouvoir.

Il y a toute une vieille légende autour des machines : on connaît la crainte, les luddites qui se sont révoltés contre les métiers à tisser, etc. Donc l'idée qu'une machine fasse perdre leur emploi aux hommes, c'est une vieille crainte, qui n'est pas totalement infondée, parce que de nouvelles technologies peuvent changer les conditions de travail – donc mettre un certain nombre de professions au chômage. Il faut bien sûr s'en inquiéter.

En même temps, l'expérience a montré qu'il y avait de nouvelles activités et que changer les conditions de travail, ça peut supprimer certains métiers, mais ça peut aussi modifier l'activité dans d'autres métiers, et qu’il y a donc besoin d’adapter ces automatismes. Un métier ça n'est pas une seule tâche, ce sont souvent plusieurs tâches : certaines sont automatisées. Il se peut que le métier s'exerce un peu plus rapidement, auquel cas on aura peut-être besoin de moins de personnes, ce qui peut poser des problèmes. Mais il se peut aussi que ce métier s'exerce différemment, auquel cas il va falloir former de nouvelles personnes.

Tout cela pour dire qu’il y a beaucoup d'enjeux importants, liés à la formation et à la mutations du monde du travail. C'est normal : la modernité est faite de ces transformations. Mais il faut être vigilant. Il faut que les pouvoirs publics aident la population à assumer ce genre de choses. Il faut que les gens qui ne peuvent plus travailler puissent continuer à vivre et former de plus en plus pour qu'on puisse continuer à exercer son métier pendant toute sa vie.

Il faut aussi penser que les évolutions technologiques sont rapides et donc qu'entre la formation initiale et la fin de carrière, on peut avoir plusieurs évolutions, ce qui implique de former tout au long de la vie. Dans un pays comme la France, où on forme les gens une fois pour toutes, au début de la vie, on imagine que ça ne peut pas tenir. Donc il y a besoin de réflexions avec tous les partenaires sociaux : il faut que les syndicats soient associés, il faut eux aussi qu'ils évoluent… J’ai échangé avec certains d'entre eux, la CGT, la CFDT, ils sont mûrs pour ça, il faut les associer, il faut qu'ils comprennent que le monde change et qu'il n'y a pas obligatoirement une perte, que les travailleurs ne sont pas obligatoirement perdants, que c'est difficile bien sûr, mais que c'est la réalité contemporaine.

Donc il ne faut pas craindre, je crois, que les machines soient nécessairement les responsables d'une mise au chômage. À cet égard, les statistiques sont très intéressantes : en France, il y a plutôt moins de chômage qu'il y en avait dans les années 90, alors qu’il y a plus d'automatisation. De même, les pays où il y a le plus de robots, le Japon, l'Allemagne, la Corée du Sud, ont moins de chômage que les autres pays. Il y a d'autres raisons à cela, des raisons démographiques, simplement, je crois qu'il faut noter qu’il n’y a pas un lien automatique entre les robots et la perte d’emplois, ou de l'industrie. Justement, s'il y a beaucoup de robots, ça peut la rendre plus compétitive ou plus dynamique.

Tout cela fait partie des questions qu'il faut très sérieusement se poser.

Pour se pencher sur les problématiques réelles dont vous parliez tout à l'heure, il y a eu beaucoup de réflexions, dans le milieu, ce qui a notamment mené à l’émergence du champ de l'éthique de l'intelligence artificielle. Dans Servitudes Virtuelles, que vous avez publié en 2022, vous expliquez que malheureusement, beaucoup des principes de cette éthique tirés de la médecine ne sont pas adaptés au champ de l'IA. Pourquoi ?

Qu'est-ce que c'est que l'éthique ? C'est justement la partie pratique de la philosophie qui nous aide à agir dans le monde. Et qu'est-ce qu'on doit faire dans un monde où les liens entre les hommes se sont transformés, où les notions qui font le tissu social évoluent, par exemple ? L'amitié, c'est une notion très ancienne, mais avec le numérique, l'amitié sur les réseaux, c'est pas tout à fait la même chose que l’amitié dans l’Antiquité. La confiance, qu’est-ce que c’est à l'ère de la blockchain ? Quid de la réputation, avec des scores calculés automatiquement, et le risque, en Chine par exemple, de vous faire condamner pour mauvais comportement ?

Toutes ces notions évoluent. Certaines personnes, qui s'inquiétaient à juste titre de ces évolutions, ont essayé d'utiliser ce qu'elles connaissaient et ce que l'on connaît du point de vue éthique. La bioéthique et ses principes sont d'abord issus de très vieux principes de d’Hippocrate : la non-malfaisance, c'est-à-dire qu'on ne doit pas donner de poison ; la bienfaisance, on doit donner des choses qui vous soignent ; et la justice, on doit soigner tout le monde.

À cela s'est ajouté un autre principe à partir de la fin de la Seconde Guerre mondiale, quand on a vu les atrocités commises dans les camps de concentration : le principe d'autonomie. L’autonomie de la volonté signifie qu’on ne peut pas vous infliger un traitement que vous n'auriez pas décidé. Donc on doit vous informer et c'est l'idée de vous éclairer sur ce qu’il se passe – ce qu'on appelle le consentement éclairé.
À cela, on a ajouté le principe de transparence : l'idée que si une machine vous propose une décision, elle doit être normalement assortie d'une explication pour que vous puissiez la comprendre, pour que vous ne soyez pas absolument forcé de la prendre.

Est-ce que ces principes sont adaptés ? Ce que j'essaye de montrer, c'est qu'ils ne le sont pas tout à fait, et surtout qu'ils sont en contradiction les uns avec les autres. On a assisté ces dernières années à un très grand nombre de comités d'éthique qui se sont réunis, qui émettent énormément de recommandations, ce qui conduit à des législations qui sont extrêmement lourdes.

La dernière en date, c'est le AI Act. Quand on regarde ces textes de près, on se rend compte qu'ils sont totalement décalés, qu'ils sont souvent incapables de résoudre les vrais problèmes éthiques. Par exemple, un laboratoire de l'université de Stanford a utilisé les techniques de reconnaissance faciale pour détecter l'orientation sexuelle. Puis un autre pour détecter l'orientation politique. Ça me semble tout ce qui est anti-éthique au possible, parce que l'orientation sexuelle fait partie d'un choix délibéré. De même, l'orientation politique. En plus, scientifiquement, c'est un peu étrange parce qu'on connaît beaucoup de personnes qui ont changé d'orientation sexuelle, qui ont changé d'orientation politique. Or, ils ont les mêmes traits de visage, même s'ils ont un peu vieilli. Donc c'est un peu curieux.

De même, il y a beaucoup de travaux sur les neurotechnologies qui peuvent poser des problèmes. Par exemple, Elon Musk nous dit qu'il va mettre tous les cerveaux en réseau, ce qui, du point de vue éthique, poserait un problème central. Or, ces comités ne se sont pas jusqu'à présent prononcés sur ces questions-là – on voit qu'ils ont eu du mal à anticiper les difficultés.

De même, le AI Act, le règlement européen sur l'intelligence artificielle, se fonde sur la notion de risque. Le risque, malheureusement, avec les technologies, c'est le risque au regard de ce qui s'est produit dans le passé. Mais bien sûr, les technologies ne sont jamais dans le futur la même chose que ce qu'elles ont été dans le passé. C'est ce qui fait la caractéristique de la technologie, à la différence de la médecine. Le rapport entre le médecin et le malade est d'une certaine façon identique à travers les âges, même si les technologies médicales évoluent. On soigne mieux aujourd'hui qu’hier, mais ce que doit faire le médecin est identique, tandis que dans le cas de la technologie, tout change.

Ce qui est très intéressant, quand on regarde ce règlement européen, c'est qu’on y trouve des fantasmes complets. Parmi les risques, certains sont caractérisés comme étant inadmissibles parce qu'on nous on explique que ça va être interdit. C'est dangereux parce que politiquement, ça fait très peur. Le premier de ces risques inadmissibles, c'est l'interdiction des technologies subliminales. C'est très intéressant parce que les technologies subliminales, c'est typiquement un fake.

C'est une notion qui a été introduite en 1955 par un publiciste américain, James Vicary, qui a expliqué que s'il mettait une image toutes les 25ᵉ de seconde dans un film avec un message, ça pouvait influencer les spectateurs du film sans que ça parvienne à leur conscience – c'est pour ça que ça s'appelle subliminal. Par exemple, si on vous dit buvez du coca, mangez des pop-corn, vous ne le voyez pas, vous ne le savez pas, mais vous avez 18 % plus de chances d'acheter du coca et 40 % de chances de plus d'acheter des pop-corns. Cette idée, on l’appelle la persuasion clandestine, et ça fait très peur. Beaucoup de psychologues ont essayé de refaire cette expérience et personne n'y est arrivé. On s'est demandé pourquoi et James Vicary, en 62, a avoué qu'il n'avait jamais conduit cette expérience.

Ce qui est passionnant, c'est que cette notion totalement fantasmatique a été reprise par des juristes, 65 ans plus tard, pour l’interdire. Ça fait des lois tout à fait surréalistes qui ne correspondent à rien du tout. Après, certains dirons qu’en réalité, c'est le fait de persuader les gens, c’est la publicité qui est interdite. D'accord, mais la publicité, elle est certes inconsciente, mais elle n'est pas subliminale. Marlboro, c’est représenté par un Cow-boy extraordinaire, qui fumait. Dans ces publicités, il y a l'association de la liberté, de la force virile et puis de la cigarette. Alors certes, on a interdit les publicités sur la cigarette, mais je n'imagine pas une seconde que la Communauté européenne veuille interdire la publicité.

Donc, on a ces fantaisies complètes, et d'un autre côté, il y a des choses beaucoup plus problématiques qui ne sont pas interdites. Par exemple les jeux vidéo : il n'y a aucune régulation dessus, alors que ça peut provoquer des addictions. D'ailleurs c'était un des exemples de risques faibles. Ce qui est très drôle, c'est que dans la première version de cette réglementation rédigée par la Commission européenne, les chatbots étaient considérés comme des technologies à risque faible. Ensuite, ils ont donné le texte au Parlement européen, qui a mis plein d'amendements. Et entre temps, en novembre 2022, il y a eu l'apparition de chat GPT. Alors là, le Parlement s'en est donné à cœur joie et il s'est mis à prendre les chatbots très au sérieux, puis à encadrer les modèles de langage – ils appellent ça les modèles de fondation…

Ça montre que ce règlement n'avait pas anticipé l'évolution de la technologie, qu'il faudra le revoir régulièrement. Et puis les réglementations étaient devenues tellement strictes que les ministres de l'Union européenne se sont inquiétés et vous avez eu un certain nombre de débats parce que les industriels se disent que si on obéit à toutes les réglementations extrêmement pointilleuses, l'Europe ne pourra jamais développer ses propres modèles de fondation. Le risque, ce serait qu’ensuite, on soit obligé d'utiliser les technologies des Chinois ou des Américains parce que la Commission européenne nous aura interdit de les développer en Europe.

Ce sont toutes ces raisons qui font, je crois, qu'il faut être extrêmement prudent avec ces législations. L'éthique, ce n'est pas la politique, ni la réglementation. La réglementation peut être utile, mais à condition d'être légère, de ne pas être trop compliquée, parce qu'il faut normalement que tout le monde puisse la comprendre. Or, là, seuls des juristes spécialisés en sont capables, ça risque de donner naissance à des contentieux énormes, c'est un coût pour les entreprises extrêmement fort… En même temps, poser un certain nombre de limites me paraît important.

L'éthique, c'est justement pas simplement la règle. La règle, le droit, c'est quelque chose de général, d'abstrait, et ensuite des magistrats la font appliquer dans les cas particuliers. L'éthique, c'est différent, c'est aussi le fait de ressentir.

Il y a un très beau texte de Jacques Derrida écrit en 1994, à la Sorbonne, je crois. L'idée, c'était qu’à ce moment un peu particulier de l’histoire, il y avait une bascule. Alain Minc a fait un exposé d'économiste brillant et argumenté. Et Derrida a dit : moi je suis beaucoup moins compétent, mais je vais vous parler d'autre chose que ce qui vient, je vais m’intéresser à ce qui advient. Du point de vue philosophique, l'éthique, c'est cette réflexion sur le fait qu'on est surpris par le futur.

Pour la comprendre, il faut un parallèle avec la théorie mathématique du chaos, la théorie de ce qui est imprédictible. C'est exactement ce qui se produit avec l'intelligence artificielle : le futur est imprédictible. Les dernières années nous l'ont montré. Il faut donc se préparer à être surpris par le futur, avoir cette vigilance permanente pour être capable d'interdire des choses qui brusquement apparaissent mauvaises et méchantes. Ce n'est pas une réglementation extrêmement lourde qui le fera. C'est plutôt être capable de s'assurer que si on a donné notre accord pour l'utilisation d'un certain nombre de technologies, dans certains contextes, que l'utilisation dans d'autres contextes, le détournement des technologies, peuvent poser des problèmes. Que, si on se rend compte que certains usages sont mauvais, cette vigilance permanente permette d'arrêter. C'est ça l'éthique.

Pour rester sur l’AI Act, une autre approche que l'approche par les risques aurait-elle été plus efficace selon vous ? Aurait-il plutôt fallu travailler par industrie, par secteur…

C'est un peu présent dans l’AI Act, mais je pense qu'effectivement, il faut développer plus en fonction de chaque secteur. Dans le domaine de la santé, les problèmes ne se posent pas du tout de la même façon que dans le domaine de la surveillance par exemple, etc.

On est en train de terminer un rapport dans le cadre du comité pilote d'éthique du numérique sur la reconnaissance faciale, posturale et comportementale (rapport publié en mars 2024, critiqué par certaines associations, ndlr). On a conclu qu’il ne s'agissait pas de donner des interdictions générales, mais d'avoir une méthodologie d'approche qui nous conduit à nous demander dans chaque cas particulier ce qu'on veut faire avec cette technologie. Que veut-on dans chaque situation particulière ? Il faut se demander quel est l'objectif précis, puis s'assurer que tous les partenaires sont d'accord avec cet objectif, qu’il est légitime.

Ensuite, se demander si les technologies qui sont développées répondent bien à ce souhait, si elles le font de façon efficace, et si elles le font mieux que les autres technologies qui existent. Ce n'est pas parce qu'une technologie utilise l'intelligence artificielle qu'elle va être moins coûteuse. Si vous utilisez l'apprentissage, si vous devez avoir des personnes qui sont là pour récupérer les réponses de la machine, ça a un certain coût. Il faut comparer les coûts, faire des études économiques, épistémologiques, se demander, du point de vue scientifique, si on peut valider l'utilisation de ces technologies…

Ensuite, on peut prendre une décision, puis mettre en place un suivi pour s’assurer qu'il n'y ait pas de mauvaises utilisations ultérieure de ces technologies. Ça montre bien, je crois, que dans chaque secteur, il y a des questions qui se posent de façon un peu différente, qu’il y a besoin de respecter les bonnes pratiques. Or, une réglementation aussi générique que l’AI Act me paraît néfaste.

En même temps, le fait qu'elle soit extrêmement complexe, lourde, qu'elle ait été rédigée à la hâte, au milieu d’au moins quatre régulations sur le numérique d’importance (le Digital Services Act, le Digital Markets Act, le Data Act…), que celles-ci aient été adoptées entre 2019 et la fin 2023, en très peu de temps…

Après avoir vu que les technologies subliminales sont fausses, j'ai regardé les autres interdictions. La deuxième, ce sont les systèmes de notation. Ça m’a surpris parce que les banques utilisent des systèmes de notation : comment allaient-elles faire pour attribuer un crédit sans ? J’ai vu qu’il y avait des exceptions pour tous les partenaires privés, ça m’a rassuré. Mais ç'a été possible parce qu’ils utilisent leur pouvoir d'influence, que ce soit Bruxelles ou à Strasbourg, au Parlement européen, pour influer sur les textes.

Mais les seuls qui ne puissent pas jouer de leur pouvoir d'influence, ce sont les États. Et donc on vous a interdit tous les systèmes de notation pour les autorités publiques. Les autres, ils ont le droit. Alors, je me suis intéressé aux systèmes de notation que les autorités publiques utilisent dans beaucoup de pays, en tout cas en Europe, qui utilisent de l’intelligence artificielle. Et j’ai trouvé le permis à points. Le permis à points fait appel à de l’intelligence artificielle, parce que lorsqu’on vous flashe sur l'autoroute et qu'on détecte que vous avez été trop rapide, automatiquement, on envoie votre photo, on vous enlève des points.

Même si on vous explique qu'il y a quelqu'un derrière, il n’y a personne en réalité. Donc selon l’AI Act, ça devrait être interdit – je suppose que beaucoup d'Européens seront contents de l’apprendre. En réalité, ça fait sourire : on imagine mal la fin du permis à points, il a quand même fait la preuve de son efficacité puisque le nombre de morts a diminué, même s'il est impopulaire.

À la fin de Servitudes Virtuelles, vous proposiez des principes formulés par Camus. Est-ce que vous pouvez nous les rappeler, et nous dire si, quelques années plus tard, ces derniers vous semblent toujours être de bons guides ?

La référence à Camus, c'est un petit texte que je trouvais très émouvant, qui a été écrit en 1939, juste avant la défaite. La guerre avait été déclarée, on était dans l'entre deux, ce qu'on appelait la drôle de guerre. Il y avait une censure très forte, et Camus, très jeune, il avait 26 ans, il était dans une feuille de chou, avec des problèmes d’approvisionnement de papier, des problèmes de censure, etc. Et là, il réfléchit à l'éthique du journalisme.

À l’époque, on est dans un monde qui n'a rien à voir avec le monde d’aujourd’hui, parce qu'aujourd'hui, on a abondance de supports, on n'a plus de censure d’état, mais les grands principes qu'il énonce à l'époque me semblent toujours pertinents aujourd'hui.

Ces principes, c'est la lucidité en premier, le refus, l’ironie et l'obstination. C’est très intéressant parce que lui, à l'époque, en tant que journaliste, il explique que face à un message, il peut toujours tirer des informations, toujours essayer d'être lucide sur ce qui est dit. C’est plus que jamais vrai aujourd’hui : même s'il y a plein de fake news, on est dans un monde où on peut toujours s'informer. Donc j'ai trouvé que ce qu'il disait est encore plus vrai aujourd’hui.

Le refus, c'est le refus de diffuser n'importe quoi. Je pense que c'est toujours important. L'ironie, c'est dit pour déjouer les pièges de la censure. Là, c'était la censure d'État. Aujourd'hui, il y a d'autres formes de censure. Mais l'ironie, souvent, est assez efficace. Et puis l'obstination, c'est de continuer à travailler dans son secteur.

Cette éthique était celle d'un journaliste, destinée à d'autres journalistes puisqu'il nous dit : « Qu'est-ce qu'on peut faire, nous, en tant que journalistes ? ». Mais elle me semble plus que jamais utile, puisque sur le numérique, nous sommes tous des journalistes en puissance. Ça veut dire qu'on doit tous avoir la même éthique : lorsqu'on reçoit des informations, essayer de les confronter à d'autres sources. Ce devoir de lucidité, il incombe à tout le monde. Deuxièmement, le refus de rediffuser : à l'époque, on recevait le journal, on le lisait, on pouvait en discuter au bistrot du coin, mais ça n'avait pas d'autres conséquences que celle là. Aujourd'hui, n'importe qui peut, sur les réseaux sociaux, essayer de propager tout un tas d’informations, y compris fausses.

Pour y faire face, je crois qu'il faudrait enseigner très tôt aux jeunes jeunes gens l'ironie. Ce sont des stratégies pour tenter de déminer un certain nombre de choses. 

Et puis, c’est important. Ce que je voulais dire, c'est qu’aujourd'hui, dans cette société de l'information, on est tous des journalistes en puissance. Il faut qu'on apprenne cette responsabilité, qui devait être celle du journaliste, qu’on la fasse devenir celle de tous les citoyens.

Commentaires (13)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar
Article très intéressant, fouillé et détaillé.
En plus j'ai tout compris donc merci ! :smack:
votre avatar
Merci pour la transcription. J'ai écouté ce premier Podcast, mais comme Sébastien (je suis encore plus vieux que lui :phiphi:), j'ai du mal avec l'oral. J'ai du mal à capter aussi bien qu'à l'écrit ce qui est dit.
Je pense que j'attendrai l'écrit la prochaine fois, même si ça fait long à lire. :D (Je n'ai pas encore lu la transcription entièrement)
votre avatar
Pareil pour moi ! Je découvre cette interview et c'est passionnant. Je ne l'aurais par contre pas écoutée !
votre avatar
Ce qu’on oublie souvent, d’ailleurs, c'est que le web est le couplage des réseaux de télécommunications (qui ne sont pas de l'intelligence artificielle) avec un modèle de mémoire. Or, la mémoire, c’est une fonction psychique.
Ce modèle de mémoire, qui s’appelle l’hypertexte, a été programmé avec des techniques d'intelligence artificielle et d'une certaine façon, c'est de l'intelligence sociale. Le protocole du web http, hypertext transfer Protocol, ou HTML, le langage d'écriture des pages web, fait aussi référence à l'hypertexte. Donc vous voyez, on fait tous de l'intelligence artificielle aujourd'hui, un peu comme Monsieur Jourdain faisait de la prose sans le savoir.
Je suis assez surpris de cette affirmation, en particulier la partie que j'ai mise en gras. J'avais aussi tiqué en l'entendant. Quelqu'un aurait une source pour cette affirmation ?

En tout cas, en lisant l'article en anglais sur l'hypertext, ça m'a permis de remarquer qu'Hypercard d'Apple date de 1987 et le Web seulement de 1989. Apple était pas mal à l'époque sur les innovations techniques.
votre avatar
Sans source détaillée, je crois comprendre qu'il fait référence à la fonction que voulait implémenter Berners-lee au CERN ; un système de gestion documentaire. Une façon d'organiser la connaissance (et donc je suppose que le lien avec la mémoire est là).

L'aboutissement de ça, ça me parait pas être le web dans son ensemble comme on le connait aujourd'hui mais plutôt les Wikis. OneNote, et autre systèmes proposés pour organiser ce qu'on sait et pouvoir le retrouver plus facilement.

EDIT: pas d'infos sur le "programmé avec de l'intelligence artificielle" qui me parait pas à sa place ici.
votre avatar
J'ai bien compris la référence.
Par contre, j'ai du mal à dire que c'est de l'intelligence artificielle.
Je trouve qu'il fait des raccourcis en particulier parce que autant dans l'organisation des liens web qu'hypertextes, c'est l'humain et pas la machine qui crée et organise les liens.
Oui, la fonction mémoire d'un être vivant fait partie de l'intelligence, mais si elle est organisée par un humain pour être restituée par un programme informatique (logiciel traitant de l'hypertexte (comme hypercard) ou un navigateur web) pour moi, cette partie de l'intelligence n'est pas artificielle, seul le stockage l'est et on ne définit pas un système de fichiers ou une base de données comme étant de l'intelligence artificielle.
votre avatar
Peut être car l'hypertexte a été conçu comme une sorte de mémoire artificielle, on déporte des informations dans un document et les liens nous permettent de relier les éléments.

Ou alors que chaque élément hypertexte est considéré comme un neurone.
Je sais pas trop.

Ou alors ça se base sur les travaux de Ted Nelson avec son Projet Xanadu et ses bouquins genre Literary Machines
votre avatar
Merci pour ces podcasts qualitatifs. J-G Ganascia s'exprime simplement, il me fait penser à Julien Bobroff.
votre avatar
Hors-sujet :
Ce matin un rafraichissement F5 sur la page d'accueil de next next.ink Next m'a encore forcé l'odieux et combien inutile next.ink Next?begin=2024-09-25&end=2024-10-02
Quand comptez vous dégager cette "fonctionnalité" qui il me semble n'est utile à personne ?
Ça commence à me saouler, j'ai beau signaler à répétition, ça revient régulièrement.
Par avance merci.
votre avatar
J'ai jamais eu ce problème avec Firefox. Comment tu arrives à ça ? Si je vais sur la page d'accueil, je peux faire F5 tant que je veux, j'ai jamais ça.
votre avatar
Si je savais comment ça se produit, il n'y aurait pas de problème. :D
votre avatar
c'est vraiment super ces transcriptions ! Merci Next!

J'y vois l'intérêt de voire le travail du journaliste : quand son article condensé vient en fait d'une interview longue ça donne de la matière...

Et de revenir à la source : dans les commentaires (souvent critiques) du lectorat de Next, il y a pas mal d'affirmations péremptoires, des lieux communs, issus de gros médias, etc... et là avoir la parole directe du chercheur qui bosse depuis des lustres sur un sujet donne une légitimité au journaliste. (c'est pas parfait, et l'ère de la post-vérité nous amène à douter des paroles d'expert.es, mais c'est mieux que rien).
votre avatar
Merci, elle est incroyable cette interview, j'ai tout lu et ça valait le coup.

Jean-Gabriel Ganascia : avec l’IA, « l’espace public est en train de disparaître »

  • Qu’est-ce que l'intelligence artificielle?

  • L’IA n’a donc rien de neuf ?

  • Est-ce qu’il n’y a pas, tout de même, une différence entre le champ de recherche scientifique – qui chercherait à mieux comprendre l'intelligence humaine – et la partie applicative, à la fois scientifique, mais aussi économique ?

  • Il y a eu le jeu d’échec, le jeu de go… Pendant très longtemps, et peut-être même encore aujourd’hui, c’est spécifiquement le jeu qui a servi d'étalon pour dire à quel point les machines arrivaient à produire de l'intelligence artificielle.
 Pourquoi ?

  • 
Récemment, ce qui fait le plus de bruit en matière d’intelligence artificielle, c'est l'arrivée des modèles génératifs. Ces derniers représentent-ils une rupture dans les réflexions sur l'intelligence artificielle qui ont lieu depuis 70 ans, ou en sont-ils la continuité ?

  • En quoi les modèles génératifs nous aident-ils à mieux comprendre l'intelligence humaine ?

  • Ce qui a surpris, c'est la qualité des résultats ?

  • Parmi les problématiques que ces modèles ont rendues visibles, mais qui étaient déjà largement étudiées dans le milieu scientifique, il y a toute la question des biais… On a vu Chat GPT dire que les femmes ne pouvaient pas faire tel métier, alors que les hommes si, Midjourney produire des images extrêmement stéréotypées de ce qu’était une banlieue, en produisant des clichés de destruction. Tout cela a permis de discuter de cette notion de biais, qui est plus compliquée que ce qu'on pourrait croire.

  • Là, quand vous dites discrimination, c'est au sens tout à fait classique de discrimination sociale, sans prendre en compte les seuls résultats de la machine ?

  • Est-ce que la notion de biais n'est pas aussi floue parce que derrière, on peut y mettre un sens statistique, parfois un sens économique, ou social, et que les trois ne sont pas réductibles ensemble ?

  • En 2016, vous publiiez Le mythe de la singularité. Depuis, l'intelligence artificielle générative a émergé et fait revenir le même type de débats qu’à l’époque. Pour résumer, pourquoi l'idée que la machine ait une conscience, comme le disaient Blake Lemoine et d’autres, n’a pas de sens ?

  • Vu la classification des trois concepts que vous faites, quand Blake Lemoine dit que Bert ou LaMDA sont conscients, en réalité, il est en train de projeter sur les résultats de la machine ?

  • Beaucoup des discours qui parlent de cette potentielle conscience des machines sont formulés sur un ton inquiétant, mais le sont aussi souvent par la voix de gens qui travaillent dans le domaine. Soit ils y travaillent d’un point de vue scientifique, soit ils le promeuvent d'un point de vue économique... Comme s'ils expliquaient que c'est parce que les machines risquent de nous dépasser qu’il faut continuer de travailler dessus… Comment expliquez-vous ce paradoxe?

  • En 2016, vous terminiez votre livre sur une question ouverte : « Comment faire pour que les peurs métaphysiques ne masquent pas les dangers réels » ? Est-ce qu’entre temps vous avez trouvé la réponse ?

  • On ne sort pas de la démarche scientifique dans un cas comme ça ?

  • Quels sont les dangers réels dont on devrait plutôt s’occuper, plutôt que de se pencher sur ces discours-là ?

  • Plus que leurs effets sur le monde du travail ?

  • Pour se pencher sur les problématiques réelles dont vous parliez tout à l'heure, il y a eu beaucoup de réflexions, dans le milieu, ce qui a notamment mené à l’émergence du champ de l'éthique de l'intelligence artificielle. Dans Servitudes Virtuelles, que vous avez publié en 2022, vous expliquez que malheureusement, beaucoup des principes de cette éthique tirés de la médecine ne sont pas adaptés au champ de l'IA. Pourquoi ?

  • Pour rester sur l’AI Act, une autre approche que l'approche par les risques aurait-elle été plus efficace selon vous ? Aurait-il plutôt fallu travailler par industrie, par secteur…

  • À la fin de Servitudes Virtuelles, vous proposiez des principes formulés par Camus. Est-ce que vous pouvez nous les rappeler, et nous dire si, quelques années plus tard, ces derniers vous semblent toujours être de bons guides ?

Fermer