Connexion
Abonnez-vous

Dessine-moi l’intelligence artificielle

Dessine-moi l’intelligence artificielle

Le 14 novembre 2022 à 06h11

Le CEA propose une interview maison de François Terrier (directeur de recherche et du programme Intelligence artificielle du CEA-List) et Raphaël Granier de Cassagnac (auteur et directeur de la chaire Sciences et jeux vidéo de l’Ecole polytechnique) sur le thème de l’intelligence artificielle.

L’article commence par poser la question de la « définition de l'intelligence artificielle » puis de savoir si elle pourra un jour égaler les humains. Il est aussi évidemment question des biais ainsi que des questions éthiques et juridiques. 

Le 14 novembre 2022 à 06h11

Commentaires (17)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Quand je vois ce que produit Midjourney en 5 minutes en matière de graphisme (peut-on parler d’art ? Perso, je dirais oui).
J’ai des doutes pour l’avenir du métier de graphiste.
Tellement facile de taper une ligne, et de ne pas avoir à payer un artiste en chair et en os.

votre avatar

Moi c’est ça qui m’a fait flipper: https://www.journaldunet.fr/web-tech/guide-de-l-intelligence-artificielle/1513013-lamda-l-ia-conversationnelle-de-google-qui-passe-le-test-de-turing/



j’ai lu tout l’échange entre l’IA et l’ingé, c’est juste impossible de se dire: c’est une IA. Vraiment perturbant je trouve…

votre avatar

Je suis aussi bluffé par ce que fait midjourney, mais je crois bien qu’il n’y a que le titre de la brève qui contient le mot “dessine” :D
Le reste et l’article du CEA sont plus sur les IA de façon générale, sans vraiment rentrer dans les détails d’application

votre avatar

Oui bien sur mais le cerveau est ainsi fait que voir “dessine” et “IA”, j’ai pensé “midjourney” direct. Pas parce-que j’ai lu des articles, mais parce-que je l’ai utilisé pendant un mois et ça traumatise un “artiste en herbe” ce truc :D

votre avatar

Ah oui, sur ce point je connais une personne qui veut se lancer dans l’illustration/graphisme, je n’ose pas vraiment lui dire que c’est un peu mort (elle a un niveau amateur avancé je dirais, c’est joli mais ça ne casse pas des briques)…



Après je ne pense pas que ça mènera totalement à la disparition des artistes.
On a annoncé la mort des photographes comme tout le monde avait un “kodak”, maintenant tout le monde a un caméraphone et si les photographes “bas de gamme” ont presque disparu, il y a toujours des photographes pro.
D’un point de vue économique, on pourrait dire que ça conduit à une augmentation de la productivité, et à une transition vers des métiers à plus forte valeur ajoutée, mais pas à une disparition totale.
De même que l’ordinateur avec photoshop et wacom n’a pas mené à la mort des dessinateurs, mais les fait travailler de plus en plus avec l’ordinateur (enfin… je crois ?), de même je pense que les artistes du futur utiliseront l’IA pour faire des brouillons, des tests, des tâtonnements, mais on verra toujours leur touche personnelle.

votre avatar

Tout à fait d’accord, il y aura toujours la touche personnelle du vrai artiste qui fera la différence. Mais j’ai déjà repéré 3 ou 4 pochettes d’albums (un peu underground faut dire) conçues avec Midjourney. Donc, soit “l’artiste” c’est fait payer pour un travail qu’il n’a pas fait, soit le commanditaire c’est débrouillé seul et n’a pas sorti un centime (les 40 premières images ne nécessitent pas l’abonnement)…

votre avatar

Je suis pas du tout d’accord sur leur explication du biais statistique : évidemment, ça peut être un problème d’annotation, mais en général, c’est juste dû aux données utilisées pour entraîner le modèle, qui reflètent la réalité mais qui ne peuvent pas toujours (ou ne devraient pas toujours) être utilisées pour une prise de décision future.



Par exemple, si statistiquement les étrangers commettaient plus de fraude à la sécu que les nationaux (j’en sais rien, je dis ça au pif), ça ne devrait pas forcément entraîner un traitement différencié par une IA - ça, c’est une décision politique.

votre avatar

Groupetto a dit:


[…] c’est juste dû aux données utilisées pour entraîner le modèle, qui reflètent la réalité […]


Le biais est justement que les données rentrées ne reflètent pas la réalité. Elles ne donnent qu’une vision plus ou moins tronquée, biaisée de la réalité.




Par exemple, si statistiquement les étrangers commettaient plus de fraude à la sécu que les nationaux (j’en sais rien, je dis ça au pif) […]


C’est “marrant” comme ce que tu dis “au pif” est quand même fortement connoté …

votre avatar

Les algo d’apprentissage automatique recherche des “motifs”. Ce motif, c’est des corrélations. A coté, les algos ne tiennent pas compte de la causalité dans ces corrélations. S’il voit que 2 truc apparaissent en même temps, alors il déduit que si l’un existe, alors il y a une forte probabilité que l’autre apparaisse. Or corrélation ne veut pas dire causalité. Dans cette article Wikipédia, il donne l’exemple :




“Il existe une corrélation entre la vente de crème glacée et le nombre de morts par noyade (le troisième paramètre est la météo).”


Dans cette exemple, la causalité est indirect. Il y a un élément qui n’est pas mesurer (ici la météo) qui biaise tout. Or les algo d’apprentissage automatique sont à l’affut de ce genre de motif.



Or, en test sur des données issue des humains, il est souvent important de rééquilibrer les statistique selon différent critères (souvent par classe sociale, l’age, le sexe) car on sais qu’ils jouent un rôle important dans les résultats. Du coup, même si les échantillons sont représentatif, ça ne garantie pas que tes données ne soient pas biaisées.

votre avatar

Et l’IA peut trouver des corrélations dans sa base de données, qui n’en sont pas en réalité : spurious correlations.

votre avatar

Je reprenais l’exemple de l’article sur les personnes étrangères…pour le reste, le “biais” n’est pas forcément introduit lors de la préparation des données, mais peut simplement refléter des discriminations existantes (par exemple à l’embauche), que le modèle va se contenter de reproduire.

votre avatar

tazvld a dit:



Dans cette exemple, la causalité est indirect. Il y a un élément qui n’est pas mesurer (ici la météo) qui biaise tout. Or les algo d’apprentissage automatique sont à l’affut de ce genre de motif.


Sauf que non, en réalité, le fait que ce soit la météo l’élément déclencheur (facteur de confusion) ne biaise pas vraiment… Si les seules données que tu possèdes pour décider du nombre de maîtres-nageurs à mettre sur la plage, c’est le nombre de glaces vendues, hé bien tu prendras quand-même la bonne décision en ajustant le personnel en fonction du nombre de glaces vendues…



Donc oui ton modèle est incorrect dans ses hypothèses, mais quand-même diablement efficace dans ses conclusions.

votre avatar

tazvld a dit:


Dans cette exemple, la causalité est indirect. Il y a un élément qui n’est pas mesurer (ici la météo) qui biaise tout. Or les algo d’apprentissage automatique sont à l’affut de ce genre de motif.


Le pari que prend ce type d’algo c’est d’avoir suffisamment d’évènements observables disparates (non directement corrélés les uns aux autres) pour que le modèle généré soit représentatif de l’évènement causal sous-jacent… qui lui restera inconnu / non-observable.



Bref le modèle prédictif “fonctionne” car il est très improbable d’avoir entrainé ce modèle avec seulement des évènements qui n’étaient pas la conséquence de l’évènement causal.

votre avatar

(reply:2104654:33A20158-2813-4F0D-9D4A-FD05E2C42E48)


La corrélation est une part du problème. La seconde part, c’est le déséquilibre dans la base de donnée.



voici un exemple tirer d’une expérience réelle (amazon) : faire manger des CV à un algo pour ressortir les meilleur profil dans le cadre d’une boite IT. Or, dans ce secteur, il y a déjà de base un gros biais de sexe, parmi les employés, une majorité son des homme. Si échantillonnage est parfaitement représentatif, l’algo va bêtement apprendre qu’un bon profil, ceux qu’on recrute habituellement, c’est avant tout un homme éliminant alors systématiquement les profil féminin. La base de donnée n’était pas du tout équilibré et ça a créé un biais.

votre avatar

Bah de base c’est suspect, c’est comme un cerf.
Tu as souvent vu des CVs de cerfs dans l’IT ?
A compétences égales, est-ce que les animaux sont discriminés au recrutement ?



Il faudrait faire des tests, déjà pour un recrutement classique puis avec IA:
en aveugle, sans la photo; puis en double aveugle : sans photo sans nom.



hint: Gertrude est un prénom qui est trop souvent discriminé à l’embauche, sûr que ça va ressortir dans ces tests…

votre avatar

On est bien d’accord, mais est-ce réellement un biais ? Si l’algo ne choisit que des hommes, c’est parce que les humains ne choisissent que des hommes. Rappelons quand-même que le but d’un programme informatique, jusqu’à preuve du contraire, est d’automatiser un comportement existant. Dans ce cas précis, il y a fort à parier que si l’algo se mettait à proposer des femmes à ce poste, l’humain de la RH trouverait un moyen de ne pas les sélectionner et rejeter les conclusions de l’IA.



J’espère sincèrement que ceci est du second degré, car les exemples ne sont pas pertinents. Déjà, je te rappelle que c’est bien un cerf qui a inventé TCP/IP.



En outre, Gertrude est peut-être rare comme prénom en France, mais pas dans les pays de tradition germanique.

votre avatar

(reply:2104710:33A20158-2813-4F0D-9D4A-FD05E2C42E48)


Le sens de biais peut être discuter. Mais clairement, au final, l’algo est biaisé.



Dans le milieux IT, la grande différence de répartition des sexes dans les employé est surtout dû à une grande différence de répartition des sexes dans les candidatures. Mais de là, on pourrait se demander pourquoi une telle différence, et c’est justement là mon histoire de corrélation/causalité/causalité indirect.

Dessine-moi l’intelligence artificielle

Fermer