Connexion
Abonnez-vous

Raziye Buse Çetin : « Ceux qui financent les projets d’IA les plus fous sont les mêmes qui demandent d’arrêter la recherche »

Et l'humain, dans l'IA ?

Raziye Buse Çetin : « Ceux qui financent les projets d’IA les plus fous sont les mêmes qui demandent d’arrêter la recherche »

Le 25 septembre, Next a lancé Algorithmique, son podcast dédié aux enjeux de l’intelligence artificielle. Une semaine sur deux, entre chaque épisode, les abonnés pourront écouter en intégralité l’un des entretiens qui a servi à sa fabrication, ou lire sa retranscription. 


Le 16 octobre à 17h05

Chercheuse indépendante en intelligence artificielle, notamment collaboratrice d'AI Forensics, Raziye Buse Çetin a aussi participé à la création de la plateforme Dreaming Beyond AI, en 2021, ou encore au projet Better Images of AI, qui vise à proposer une iconographie moins anthropomorphisée de l’intelligence artificielle, pour en rendre les enjeux techniques, sociaux, économiques ou encore politiques plus évidents.

Dans cet entretien, elle détaille la notion de biais, la manière dont l’approche majoritairement occidentale de l’intelligence artificielle oriente le développement de l’industrie et la manière dont la société s’en saisit, et s’interroge sur la place de l’humain dans les évolutions en cours.

Il reste 97% de l'article à découvrir.

Déjà abonné ? Se connecter

Cadenas en colère - Contenu premium

Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.

Accédez en illimité aux articles

Profitez d'un média expert et unique

Intégrez la communauté et prenez part aux débats

Partagez des articles premium à vos contacts

Abonnez-vous

Commentaires (30)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar
Juste une remarque : 37min de temps de lecture estimé c'est un nouveau format.
Je ne l'ai pas lu mais pour ma part, je préfèrerais qu'un article vraiment trop long comme celui-ci soit coupé en 2. Même si c'est pour les sortir sur des jours différents.

Ce n'est que mon point de vue. Qu'en pensez-vous ?
votre avatar
C'est la transcription du podcast de la semaine dernière (le nouveau format, c'est le podcast :D). La découper n'a pas de sens. Si tu penses que c'est moins long d'écouter, écoute au lieu de lire. Édit : l'audio est encore plus long : 50 minutes. :D

Moi, j'ai lu et c'est un ensemble pas facile à découper. Il y a des longueurs, mais je pense que c'est dû au format initial : une interview orale.
votre avatar
Quel interêt ? Tu t'arretes quand tu veux, et tu reprends plus tard...
votre avatar
Hello,
Comme le dit Fred 42, le nouveau format, c'est plutôt l'audio.
On propose une transcription des entretiens parce que plusieurs d'entre vous ont dit préférer le texte... mais comme je pars de la transcription automatique de ce qui est disponible en audio, c'est long et parfois plus alambiqué qu'une interview pensée pour l'écrit (exercice pour lequel on sélectionne plus les citations, précisément pour faciliter la lecture).
votre avatar
Je comprends.
Pour ma part, le temps n'est pas extensible et je ne peux pas passer plus de temps que je ne le fais aujourd'hui sur de l'actualité sans rogner sur une autre activité.

Ce n'est pas une critique.
votre avatar
Et je confirme que c’est vraiment une bonne idée de publier la retranscription. Je peste sans arrêt contre les podcast audio uniquement sur d’autres médias, merci de proposer une version textuelle.

L’entretien est super intéressant, et en audio uniquement je ne l’aurais pas écouté. :chinois:
votre avatar
Très cool en terme d'accessibilité aussi cette transcription 👍
votre avatar
MERCI pour ce podcast ! Je trouve que ce qui est vraiment bien, c'est qu'on a affaire à une personne qui est manifestement allé très loin dans l'approfondissement du sujet, qui a étudié les biais des algorithmes et ses conséquences dans une multiplicité de dimensions, ce qui donne un aspect fortement pédagogique à l'ensemble, et très enrichissant !

J'ai été ému par le parcours de cette personne d'origine Turque qui s'est retrouvé confrontée à des stéréotypes, à tout un imaginaire terriblement banal, limitant et enfermant.

Franchement bravo à l'intervenante pour son long travail de fond qui ne date pas d'hier, et bravo à Mathilde Saliou pour la pertinence de ses questions, et pour son travail émérite sur tous les épisodes de ce podcast ! :yes:
:pciwin:
votre avatar
Merci beaucoup pour ces podcasts !
J'ai écouté les deux il y a quelques jours, et ils sont super intéressants. Je me réjouis d'entendre la suite :)
votre avatar
Merci pour la transcription, c'est intéressant.

À mon sens, l'IA est un aboutissement d'une vision du monde rationnelle et matérialiste, plutôt occidentale (même si par ex. les chinois le sont aussi aujourd'hui).

Tout n’est que matière, même le cerveau humain, et on peut en tirer les conséquences.
votre avatar
Juste une idée qui m'est venue en gratouillant les cordes de ma guitare (qui a parfois de l'urticaire, ça la soulage :-D ) :

Pourrais-t-on imaginer des IA pour corriger les biais des IA ?

Exemple : tu as une IA principale, qui est la seule interfacée avec le prompt. Connectée à elle, tu as genre trois quatre voire cinq IA supplémentaires, dont le seul but dans la vie est d'analyser et de prévenir les biais de l'IA principale.

Chacune des IA secondaires est spécialisée dans un type bien précis de biais, et ne fais que ça. Par exemple l'une ne fait qu'analyser les dérives de type "stéréotypes racistes / antisémites / coloniaux / xénophobes" . L'autre les biais liés au genre. Un autre, tout ce qui a trait aux religions et aux biais idéologiques. Un autre, les biais liés à l'age, au poids, à la taille, à l'accent...

(Note : on pourrais très bien remplacer "biais" par "discriminations", tellement les décisions d'un algorithme d'embauche par exemple, peuvent avoir un fort impact sur la vie des gens)

Donc, dans les faits, les IA secondaires agiraient comme autant de "filtres correcteurs" qui modifieraient, amélioreraient la réponse finale de l'IA principale.

Il faudrait bien sûr entraîner ces IA secondaires avec des données pertinentes, des exemples précis de discours discriminant et de stéréotypes susceptibles de teinter les résultats dans un sens ou dans un autre.

Le but du jeu ne serait pas de rendre l'IA principale tout d'un coup "super-humaniste" ou encore "extra-libérale" (LOL), mais de la rendre enfin neutre, non biaisée, non aveuglée par des stéréotypes stupides et régressifs qui n'ont plus de sens en 2024.
votre avatar
Le concept des IA qui se challengent entre elles, c'est l'une des bases d'AutoGPT justement où une série de modèles vont générer leurs propres prompts et itérer sur une problématique. Après, le revers de la médaille, c'est que plus on fait bosser de modèles ensemble, plus ça coûte cher à l'usage.
votre avatar
...Sauf que dans mon cas, les IA secondaires n'auraient pas accès au prompt, elles ne feraient que tenter d'empêcher l'IA principale (celle qui analyse et répond au prompt) de tomber dans des biais ou des hallucinations qui, avec le temps, deviennent prévisibles et pourraient être évités.

Dit autrement, les IA secondaires seraient un peu comme des "assistant.e.s de direction" ou des "conseiller.es ministériel.le.s" : iels ne prendraient aucune vraie décision, mais simplement éviteraient à l'IA principale ("Le.la Directeurice en Chef.fe") de dériver du sujet, de délirer, de dire ou de commettre les pires conneries qui soient.

Dans ma tête, tel que je vois le truc, les "IA secondaires" seraient des algos beaucoup plus simples et moins demandeurs de ressources qu'une IA complète.
votre avatar
Dans ma tête, tel que je vois le truc, les "IA secondaires" seraient des algos beaucoup plus simples et moins demandeurs de ressources qu'une IA complète.
Ah bah ça c'est déjà possible aussi avec les modèles plus petits. Ils sont moins précis mais suffisant pour traiter ça, pas besoin de 16 milliards de paramètre, un 7b ça bosse déjà bien et t'as des 3 ou 1b pour ce genre de tâche simple.

Tu peux t'amuser à faire ça avec Ollama par exemple.
votre avatar
de la rendre enfin neutre, non biaisée, non aveuglée par des stéréotypes stupides et régressifs qui n'ont plus de sens en 2024
Ne s'agit-il pas là d'un biais que de considérer que les stéréotypes auraient eu du sens à une époque et qu'avec les années on progresse nécessairement vers un raisonnement absolu ? :roule:

Inutile de survendre l'argument, l'époque ne fait rien à l'affaire :non: (quand on est c✱✱, on est c✱✱, comme disait un chanteur moustachu)
votre avatar
Donc, dans les faits, les IA secondaires agiraient comme autant de "filtres correcteurs" qui modifieraient, amélioreraient la réponse finale de l'IA principale.
Sauf que cela sous-entend que tes IA secondaires soient parfaites (ou en tout cas, ne génère pas de faux positif).

Si le texte d'origine est neutre, mais que l'IA secondaire décrète la présence d'un biais ? Tu vas corriger le texte initial qui n'aurait pas du être corrigé, introduisant potentiellement un biais qui n'existait pas.

Au final, cela ne change pas grand chose, d'autant plus que les notions de biais et de neutralité peuvent être très subjectives... et donc soumises à des biais !
votre avatar
Au final, cela ne change pas grand chose, d'autant plus que les notions de biais et de neutralité peuvent être très subjectives... et donc soumises à des biais !
Exactement.

Personnellement, comme je l'ai déjà exprimé ici, je considère qu'avoir des biais n'est pas un problème en soi (après tout, la ligne éditoriale de Next sur l'IA est elle aussi biaisée car très portée sur le négatif). La neutralité absolue est une chimère qui n'existe pas, et quand on parle d'un moteur statistique (ce qu'est le ML), il y a forcément une part de poids dans les décisions qui influencent le résultat.

Ce qu'il faut, c'est simplement être conscient de ces biais et avoir un regard critique sur le résultat de la machine. Dans la proposition de @DantonQ-Robespierre , l'implémentation pourrait être des modèles identiques mais paramétrés de manière différente. Ou fine-tuned différemment. Et derrière ils pourraient évaluer le résultat et fournir une température de celui-ci (c'est un cliché, c'est potentiellement faux, c'est une déformation, un manque de données en entrée, etc), c'est une chose que les LLM savent faire au même titre qu'ils peuvent évaluer la tonalité d'une phrase.
votre avatar
Ce qu'il faut, c'est simplement être conscient de ces biais et avoir un regard critique sur le résultat de la machine.
C'est 100% ça. Sauf que dans les faits... :craint:

Il n'y a qu'à voir les gens parler d'hallucination quand un LMM dit une bêtise. La bêtise, ce n'est pas le LLM, c'est l'utilisateur derrière qui l'utilise sans en comprendre un minimum le fonctionnement et les limites...
votre avatar
C'est le souci habituel avec la technologie : les personnes ne comprennent pas comment ça marche, s'attendent à de la magie, et c'est le drame.

Typiquement, on brandit l'hallucination comme une tare alors que c'est l'une des features principales de l'IA générative. Elle génère du contenu, elle créé, et donc, elle invente. Si on veut un moteur de recherche déterministe, on prend une BDD, un index, ou alors on fait du RAG, mais on utilise pas un modèle tout seul.
votre avatar
Merci à tous pour vos réponses. Ce que je propose, c'est dans un premier temps de créer une base de données contenant un très grand nombre de réponses (phrases, expressions, étiquettes) considérées comme "inappropriées, HS, déplacées, irrespectueuses, discriminantes, violentes, objectivantes, bourrées d’à-priori, etc...".

Ces exemples seraient non seulement pris parmi les réponses déjà données par des IA à de vraies questions d'utilisateurs lambda, mais aussi sur les réseaux sociaux, dans des forums, sur des sites d'info, de loisirs, et même parmi les avis utilisateurs de sites de vente en ligne, quelque soit leur domaine...

Bien entendu, il faudrait anonymiser et mélanger ces données autant que possible, et obtenir si possible la permission des sites concernés (et de la CNIL).

Ce qui veut dire que cette base de données ne serait pas seulement nourrie de réponses algorithmiques, mais aussi de réponses humaines, ce qui a mon sens change tout, et rendrait cette base de données d'autant plus pertinente.

Mais l'autre difficulté serait de juger ces réponses, de les sélectionner, et malheureusement seuls des humains, des vrais, seraient à même de juger ces éléments comme "pertinents" ou pas.

Et donc il faudrait que ça soit un effort collectif, public, un petit peu comme folding@home, c'est à dire qu'il y aurait une application très simple d'emploi : il suffirait d'entourer à la souris une phrase que l'on considère "pertinente" et de sélectionner (bouton droit de la souris) "envoyer à biais@home"... et voilà, la base de données est nourrie, miaaam ! 😋

EDIT : notez que je parle de "réponses", mais le message / prompt, le point de départ ayant déclenché cette réponse jugée "inappropriée" peut également être important, afin de mettre en relation ces deux types de données... du moins je crois ? (Notez bien que c'est un ignorant complet qui parle...)

EDIT 2 : Pour répondre à @fdorin :
La bêtise, ce n'est pas le LLM, c'est l'utilisateur derrière qui l'utilise sans en comprendre un minimum le fonctionnement et les limites...
Justement, j'aimerais rendre l'IA plus accessible au public le plus large possible, y compris un public "qui ne comprends rien à rien".

C'est pour cela qu'AMHA il faudrait consolider au maximum les algorithmes, les rendre en quelque sorte "à l'épreuve des balles", de façon que même un abruti complet pourrait les consulter sans "danger"...
votre avatar
Merci à tous pour vos réponses. Ce que je propose, c'est dans un premier temps de créer une base de données contenant un très grand nombre de réponses (phrases, expressions, étiquettes) considérées comme "inappropriées, HS, déplacées, irrespectueuses, discriminantes, violentes, objectivantes, bourrées d’à-priori, etc...".
Sauf que ce n'est pas ainsi qu'une IA fonctionne (ou en tout cas, qu'on l'entraine). Il faut un jeu de données important, qui contiennent à la fois des données jugées appropriées et d'autres inappropriées. Il y a donc un tri à faire, tri qui sera lui-même soumis à des biais car devra être fait par des êtres humains.

Si tu entraines une IA à reconnaitre des chats uniquement sur la base d'un corpus contenant des photos de chat, alors pour lui, il y aura des chats sur toutes les photos.
votre avatar
Ne pourrais-t-on pas programmer l'algo secondaire en lui disant : "si c'est dans ta base de donnée, c'est pas bon, tu dois ordonner à l'IA principale de modifier sa réponse ?"...

Un genre de boucle if-then-else qui n'autoriserait l'IA principale à répondre que si la réponse modifiée est jugée "appropriée" ?

...Mais tu as raison, pour aider l'IA principale à déterminer quelle serait la "meilleure" réponse possible il faudrait avoir à côté un "réservoir" d'exemples de réponses jugées "appropriées"...

Waouh... En fait, pour moi qui n'y connais rien du tout en programmation, c'est d'une complexité inouïe, il faudrait pouvoir démêler tout ça avec quelques règles simples, adaptées au fonctionnement profond des algos, pour qu'ils puissent en "déduire" des règles de "conduite" de base à adopter définitivement, un genre de "x lois de la robotique" façon Asimov (mais plus complètes, moins ambigues et moins susceptibles d'être allègrement contournées par un écrivain malin... :breton: ).
votre avatar
Ne pourrais-t-on pas programmer l'algo secondaire en lui disant : "si c'est dans ta base de donnée, c'est pas bon, tu dois ordonner à l'IA principale de modifier sa réponse ?"...
Dans ce cas, pas besoin d'IA ;) Un algo "classique" est amplement suffisant.
votre avatar
Intéressant, merci ! Les algos classiques (genres ceux écrit en JS pour les sites les plus connus) ont donc encore un futur devant eux...
J'en conclus qu'ils pourraient aider à diminuer la complexité de l'opération "débiaisage d'IA"... qui reste complexe malgré tout, du moins d'après ce que j'en déduis de toutes les réponses.

Mais j'ai l'impression que si personne ne s'attaque efficacement à ces biais, sources d'inégalités, cela voudrait dire qu'en fait les acteurs s'en contrefoutent : dans ce cas je ne donne pas cher de toute cette techno...

Arrivera un moment où les gens en auront marre des conséquences (qui peuvent être tragiques, lorsque par exemple il s'agit de l'attribution des minimas sociaux, des retraites, du chômage...) de ces biais, et chercheront à renverser les responsables ou facilitateurs de tout ce bazar.
votre avatar
Pour moi, chercher une solution technique pour "débiaiser" un outil technique fabriqué par un humain, c'est réfléchir à l'envers. C'est installer le toit avant les fondations en le soutenant par une grue le temps que les murs poussent.

L'humain de base est biaisé. On a tous des référentiels sociaux et culturels qui vont orienter nos jugements, on ne peut pas le nier. Comme je disais dans un précédent message, la neutralité absolue n'existe pas. L'IA n'est pas magique, c'est un outil qui apprend sur ce qu'on lui donne à bouffer. Si on lui donne à bouffer un jeu incomplet et bourré de stéréotype (en gros, les médias de masse), il ne retiendra que ça.
Apprend toute sa vie à un gamin que le ciel est vert, il te dira que le ciel est vert. Comment pourrait-il te contredire ? Il n'a aucun référentiel sur lequel s'appuyer, la perception et le nommage des couleurs est une catégorisation culturelle, pas naturelle.
(ou plus réel : fais-le croire au père noel, il y croira jusqu'à ce qu'il ait la maturité pour arrêter - pareil pour les religions)

Les exemples cités de discriminations dans l'interview ne sont pas un problème technique mais humain. Un algo de tri de CV qui discrimine les profils estimés comme féminins ou considère qu'avoir fait du basket est une qualité requise pour le boulot signifie qu'il est de base mal branlé. Et qu'il n'a pas été testé ou insuffisamment.
Le ML c'est pas que de l'entraînement, c'est aussi de la vérification du résultat pour s'assurer qu'il produit l'attendu. Et un jeu de test ne doit pas être figé, il doit lui aussi contenir une part d'aléatoire car c'est un risque de biaiser le test !

L'image que j'aime le plus est de considérer l'IA comme un stagiaire : ça fait un travail, ça traite des tâches, mais on le contrôle et on le corrige. Qui serait assez débile pour pousser le code du stagiaire en prod sans le relire ? (beaucoup d'entreprises, en fait)

Perso, ça fait des années que je vois en entreprise des solutions techniques pour palier à des problèmes d'orga. Ces solutions miracles ne sont que des visions court terme de management qui pense uniquement par le prisme du coût et du Saint TTM.

De mon expérience, une entreprise a trois options dans un projet IT mais elle ne peut en prendre que deux :
- Rapide
- Pas cher
- De qualité

Elle opte pour les trois.

Spoiler alert : ça marche pas.

Oui, c'est cool, à court terme t'as viré deux ETP et l'ordinateur magique il s'occupe de tout. Maintenant tu dois réembaucher cinq ETP pour réparer la merde provoquée par un système en roue libre non contrôlé. Un exemple simple de la vie réelle pour constater l'inaptitude IT de nombreuses entreprises et l'incapacité à la considérer comme un moyen et non un coût : va dans un magasin et contrôle la qualité de donnée. Les prix qui diffèrent, les promotions à 0%, les libellés articles qui sont incompréhensibles, etc, tout ça témoigne d'une vision où tout est automatisé et lancé sans contrôle. L'étiquetage des prix, quand il ce n'est pas du balisage électronique, c'est juste une imprimante qui crache une planche à afficher en rayon. Ca vient de la centrale, c'est potentiellement adapté au magasin, mais derrière y'a pas de contrôle. Le réappro auto, j'ai connu une enseigne qui a fini avec trois palettes de sapins de noel dans ses magasins en janvier parce qu'elle ne vérifiait rien.

Autre exemple, les équipes de dev qui pissent de la feature au kilomètre car c'est bien, le client voit que l'appli évolue, ça fait de la valeur. La maintenance du code ? Les failles de sécu ? Les bugs invisibles qui ralentissent l'appli ? Bof, pas de budget pour ça, c'est pas une prio, on va upscale la plateforme, le silicium n'est pas cher et déployer sur du cloud c'est magique, ça marche tout seul. Et bim, TCO infra de 30k€ mensuels.

Bref, tout ceci trahi surtout des visions à court terme où l'on se dit "cool, ça va me permettre de réduire mes effectifs et baisser mes coûts". C'est le discours qu'on entend dans l'IT depuis avant ma naissance professionnelle (regarde WIndows Server c'est cool, y'a un environnement graphique, ton employé peut travailler dessus et ça t'épargne l'achat d'un ordinateur ! - témoignage véridique d'un vieux de la vieille à mes débuts sur les arguments des commerciaux Microsoft), et comme l'humain n'apprend pas de ses erreurs, il se répète encore en boucle aujourd'hui.
votre avatar
Ton expérience et ta vision est précieuse, pour moi en tout cas :chinois: C'est comme cela que l'on apprends et que l'on progresse, en écoutant les expériences et en acceptant de modifier - parfois radicalement - nos options et notre façon de fonctionner en fonction d'elles.

Mais pour en revenir strictement aux algos on ne peut conclure qu'une chose de ton message : pour changer les IA, il faut changer l'humanité ! :eeek2:

...Wahou ! Cela m'apparaît être une tâche digne d'Hercule, mais pas la version Disney ! Je crois que notre connerie n'a pas fini de tourner en orbite, un vrai fleuve sans fin, impossible à maîtriser et encore moins à arrêter...

Mais je me dit que, peut-être, les IA peuvent avoir une vertu pédagogique : en essayant de les rendre plus exemplaires (dans la mesure du possible, j'ai bien compris que c'est un travail de Titan), on provoque un choc de la pensée, on dessine l'ébauche d'un monde alternatif où nos relations seraient bien plus équilibrées, et où nous serions bien moins aveuglés par des à-priori et des préjugés...

Je sais bien, c'est un rêve, mais il faut bien commencer quelque part, n'est-ce pas ? Comme il est impossible de changer l'humanité (pour le moment... Dans le futur, qui sait, un coup de Krisper-Kas9 bien placé.... :xzombi: :perv: ), commençons par changer, modestement, ce qui peut être changé...
votre avatar
Mais pour en revenir strictement aux algos on ne peut conclure qu'une chose de ton message : pour changer les IA, il faut changer l'humanité !
Pour le coup, dans la réalité, j'ai du mal à concevoir comment quelque chose fait par les humains peut être meilleur qu'eux. L'IA est meilleure sur le plan technique car elle sait traiter beaucoup de données en peu de temps pour répondre à une problématique. Par contre, dans son état actuel, il lui manque "l'instinct" et "l'expérience". Elle n'est pas encore capable de faire un Eureka !.

Pour le reste, c'est surtout un système très candide qui n'a pas forcément les notions de philosophie et nos comportements sociaux parce qu'elle ne sait pas ce qu'elle raconte. En gros, l'IA est au même niveau qu'un enfant qui peut dire une chose blessante sans savoir que ça l'est.

À l'inverse, dans la fiction comme celle que j'écris, j'ai tendance à concevoir l'IA (mais aussi les constructions plus simples) comme plus humaine que les humains. Notamment parce qu'elle a atteint le stade où elle devient une vraie personnalité (et reconnue comme personne physique dans l'univers que je développe, une idée inspirée de Arthur C. Clarke), ou encore le cas où les robots se fondent dans la société et que leur intégration ne fait pas débat.

(et d'ordre général, je considère que le délire du l'IA et les robots vont nous tuer, skynet, terminator comme un cliché éculé)
votre avatar
(et d'ordre général, je considère que le délire du l'IA et les robots vont nous tuer, skynet, terminator comme un cliché éculé)
Pourtant, si tu prends le temps d'écouter et de regarder la (longue, mais très pertinente et documentée) vidéo proposée par @gg40 ci-dessous... :eeek2: :stress:
votre avatar
Une petite vidéo de Ego sur l'IA et "l'accélérationnisme" via un jeux incrémental qui vaut clairement d’œil : youtube.com YouTube
Très bien foutue.
votre avatar
MERCI infiniment pour cet exposé vidéo de qualité, qui fait néanmoins un peu froid dans le dos !!! :eeek2:

Est-ce que les solutions "d'espoir" présentées à la fin vont pouvoir réguler, voire mitiger un fleuve algorithmique de plus en plus énoOorme et rapide, qui rapporte de plus en plus de monnaie, le tout dans un marché de plus en plus compétitif ?

Il semblerait en fait que le mur se rapproche à grand pas, et que ce mur se nomme "superintelligence"...

Raziye Buse Çetin : « Ceux qui financent les projets d’IA les plus fous sont les mêmes qui demandent d’arrêter la recherche »


  • Comment as-tu commencé à t'intéresser à l'intelligence artificielle ?

  • Tu es turque, tu vis en France et tu expliques quelquefois que ton identité d'expatriée est devenue une partie de ton travail, qu'elle a nourri tes réflexions sur l'intelligence artificielle. Peux-tu expliquer en quoi ?

  • De quelles idées parle-t-on exactement ?

  • Parlons de biais et des problèmes de représentation dans l'IA. Est-ce que tu peux expliquer ce qu'est un biais et la manière dont tu approches la question ?

  • Quand on parle de tout ça, on se rend bien compte que parler juste de biais dans la machine, en fait, c'est un peu réducteur. Parce que ce que tu es en train de dire derrière, c'est qu'il y a des dynamiques beaucoup plus larges dans la société.

  • Est-ce que tu peux nous rappeler quel est le lien entre toutes ces données que l'on cède et l'intelligence artificielle ?

  • Dans une précédente interview, je t'ai entendue parler du mythe de l'intelligence artificielle, au sens de cette espèce de créature qui serait capable de dépasser les humains et de la notion de risques existentiels qui en découlent. Tu disais que cette idée était très imprégnée de culture judéo-chrétienne. Peux-tu expliquer en quoi cette représentation qui découle d'une culture plutôt occidentale a un impact sur le monde dans sa globalité ?

  • Tu viens de commencer à les aborder, mais est-ce que tu pourrais détailler les pistes d'action dans le domaine de l'intelligence artificielle qui te semblent les plus intéressantes ?

  • Tu as travaillé avec des artistes, notamment sur les liens entre l'art, l'intelligence artificielle et la critique de cette même I.A. Peux-tu nous expliquer ce que l'art peut apporter à toutes ces réflexions ?

Fermer