Publié dans Sciences et espace

17

Dessine-moi l’intelligence artificielle

Dessine-moi l’intelligence artificielle

Le CEA propose une interview maison de François Terrier (directeur de recherche et du programme Intelligence artificielle du CEA-List) et Raphaël Granier de Cassagnac (auteur et directeur de la chaire Sciences et jeux vidéo de l’Ecole polytechnique) sur le thème de l’intelligence artificielle.

L’article commence par poser la question de la « définition de l'intelligence artificielle » puis de savoir si elle pourra un jour égaler les humains. Il est aussi évidemment question des biais ainsi que des questions éthiques et juridiques. 

17

Tiens, en parlant de ça :

Le fichier des empreintes digitales sera interconnecté avec huit autres fichiers

FAED y verse

17:24 DroitSécu 2
Les logos de Facebook et Meta dans des carrés en 3D sur un fond grisé dégradé

Le ciblage publicitaire ne peut pas utiliser des données personnelles récupérées ailleurs

Schrems vs Meta, encore et encore

16:53 DroitSocials 6

Windows 11 ajoute des publicités dans le menu Démarrer, comment les supprimer

Rogntudjuuu !

11:18 Soft 60
next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

17

Fermer

Commentaires (17)


Quand je vois ce que produit Midjourney en 5 minutes en matière de graphisme (peut-on parler d’art ? Perso, je dirais oui).
J’ai des doutes pour l’avenir du métier de graphiste.
Tellement facile de taper une ligne, et de ne pas avoir à payer un artiste en chair et en os.


Moi c’est ça qui m’a fait flipper: https://www.journaldunet.fr/web-tech/guide-de-l-intelligence-artificielle/1513013-lamda-l-ia-conversationnelle-de-google-qui-passe-le-test-de-turing/



j’ai lu tout l’échange entre l’IA et l’ingé, c’est juste impossible de se dire: c’est une IA. Vraiment perturbant je trouve…


Je suis aussi bluffé par ce que fait midjourney, mais je crois bien qu’il n’y a que le titre de la brève qui contient le mot “dessine” :D
Le reste et l’article du CEA sont plus sur les IA de façon générale, sans vraiment rentrer dans les détails d’application


tpeg5stan

Je suis aussi bluffé par ce que fait midjourney, mais je crois bien qu’il n’y a que le titre de la brève qui contient le mot “dessine” :D
Le reste et l’article du CEA sont plus sur les IA de façon générale, sans vraiment rentrer dans les détails d’application


Oui bien sur mais le cerveau est ainsi fait que voir “dessine” et “IA”, j’ai pensé “midjourney” direct. Pas parce-que j’ai lu des articles, mais parce-que je l’ai utilisé pendant un mois et ça traumatise un “artiste en herbe” ce truc :D


kalou75

Oui bien sur mais le cerveau est ainsi fait que voir “dessine” et “IA”, j’ai pensé “midjourney” direct. Pas parce-que j’ai lu des articles, mais parce-que je l’ai utilisé pendant un mois et ça traumatise un “artiste en herbe” ce truc :D


Ah oui, sur ce point je connais une personne qui veut se lancer dans l’illustration/graphisme, je n’ose pas vraiment lui dire que c’est un peu mort (elle a un niveau amateur avancé je dirais, c’est joli mais ça ne casse pas des briques)…



Après je ne pense pas que ça mènera totalement à la disparition des artistes.
On a annoncé la mort des photographes comme tout le monde avait un “kodak”, maintenant tout le monde a un caméraphone et si les photographes “bas de gamme” ont presque disparu, il y a toujours des photographes pro.
D’un point de vue économique, on pourrait dire que ça conduit à une augmentation de la productivité, et à une transition vers des métiers à plus forte valeur ajoutée, mais pas à une disparition totale.
De même que l’ordinateur avec photoshop et wacom n’a pas mené à la mort des dessinateurs, mais les fait travailler de plus en plus avec l’ordinateur (enfin… je crois ?), de même je pense que les artistes du futur utiliseront l’IA pour faire des brouillons, des tests, des tâtonnements, mais on verra toujours leur touche personnelle.


tpeg5stan

Ah oui, sur ce point je connais une personne qui veut se lancer dans l’illustration/graphisme, je n’ose pas vraiment lui dire que c’est un peu mort (elle a un niveau amateur avancé je dirais, c’est joli mais ça ne casse pas des briques)…



Après je ne pense pas que ça mènera totalement à la disparition des artistes.
On a annoncé la mort des photographes comme tout le monde avait un “kodak”, maintenant tout le monde a un caméraphone et si les photographes “bas de gamme” ont presque disparu, il y a toujours des photographes pro.
D’un point de vue économique, on pourrait dire que ça conduit à une augmentation de la productivité, et à une transition vers des métiers à plus forte valeur ajoutée, mais pas à une disparition totale.
De même que l’ordinateur avec photoshop et wacom n’a pas mené à la mort des dessinateurs, mais les fait travailler de plus en plus avec l’ordinateur (enfin… je crois ?), de même je pense que les artistes du futur utiliseront l’IA pour faire des brouillons, des tests, des tâtonnements, mais on verra toujours leur touche personnelle.


Tout à fait d’accord, il y aura toujours la touche personnelle du vrai artiste qui fera la différence. Mais j’ai déjà repéré 3 ou 4 pochettes d’albums (un peu underground faut dire) conçues avec Midjourney. Donc, soit “l’artiste” c’est fait payer pour un travail qu’il n’a pas fait, soit le commanditaire c’est débrouillé seul et n’a pas sorti un centime (les 40 premières images ne nécessitent pas l’abonnement)…


Je suis pas du tout d’accord sur leur explication du biais statistique : évidemment, ça peut être un problème d’annotation, mais en général, c’est juste dû aux données utilisées pour entraîner le modèle, qui reflètent la réalité mais qui ne peuvent pas toujours (ou ne devraient pas toujours) être utilisées pour une prise de décision future.



Par exemple, si statistiquement les étrangers commettaient plus de fraude à la sécu que les nationaux (j’en sais rien, je dis ça au pif), ça ne devrait pas forcément entraîner un traitement différencié par une IA - ça, c’est une décision politique.



Groupetto a dit:


[…] c’est juste dû aux données utilisées pour entraîner le modèle, qui reflètent la réalité […]




Le biais est justement que les données rentrées ne reflètent pas la réalité. Elles ne donnent qu’une vision plus ou moins tronquée, biaisée de la réalité.




Par exemple, si statistiquement les étrangers commettaient plus de fraude à la sécu que les nationaux (j’en sais rien, je dis ça au pif) […]




C’est “marrant” comme ce que tu dis “au pif” est quand même fortement connoté …


Les algo d’apprentissage automatique recherche des “motifs”. Ce motif, c’est des corrélations. A coté, les algos ne tiennent pas compte de la causalité dans ces corrélations. S’il voit que 2 truc apparaissent en même temps, alors il déduit que si l’un existe, alors il y a une forte probabilité que l’autre apparaisse. Or corrélation ne veut pas dire causalité. Dans cette article Wikipédia, il donne l’exemple :




“Il existe une corrélation entre la vente de crème glacée et le nombre de morts par noyade (le troisième paramètre est la météo).”




Dans cette exemple, la causalité est indirect. Il y a un élément qui n’est pas mesurer (ici la météo) qui biaise tout. Or les algo d’apprentissage automatique sont à l’affut de ce genre de motif.



Or, en test sur des données issue des humains, il est souvent important de rééquilibrer les statistique selon différent critères (souvent par classe sociale, l’age, le sexe) car on sais qu’ils jouent un rôle important dans les résultats. Du coup, même si les échantillons sont représentatif, ça ne garantie pas que tes données ne soient pas biaisées.


tazvld

Les algo d’apprentissage automatique recherche des “motifs”. Ce motif, c’est des corrélations. A coté, les algos ne tiennent pas compte de la causalité dans ces corrélations. S’il voit que 2 truc apparaissent en même temps, alors il déduit que si l’un existe, alors il y a une forte probabilité que l’autre apparaisse. Or corrélation ne veut pas dire causalité. Dans cette article Wikipédia, il donne l’exemple :




“Il existe une corrélation entre la vente de crème glacée et le nombre de morts par noyade (le troisième paramètre est la météo).”




Dans cette exemple, la causalité est indirect. Il y a un élément qui n’est pas mesurer (ici la météo) qui biaise tout. Or les algo d’apprentissage automatique sont à l’affut de ce genre de motif.



Or, en test sur des données issue des humains, il est souvent important de rééquilibrer les statistique selon différent critères (souvent par classe sociale, l’age, le sexe) car on sais qu’ils jouent un rôle important dans les résultats. Du coup, même si les échantillons sont représentatif, ça ne garantie pas que tes données ne soient pas biaisées.


Et l’IA peut trouver des corrélations dans sa base de données, qui n’en sont pas en réalité : spurious correlations.


Je reprenais l’exemple de l’article sur les personnes étrangères…pour le reste, le “biais” n’est pas forcément introduit lors de la préparation des données, mais peut simplement refléter des discriminations existantes (par exemple à l’embauche), que le modèle va se contenter de reproduire.



tazvld a dit:



Dans cette exemple, la causalité est indirect. Il y a un élément qui n’est pas mesurer (ici la météo) qui biaise tout. Or les algo d’apprentissage automatique sont à l’affut de ce genre de motif.




Sauf que non, en réalité, le fait que ce soit la météo l’élément déclencheur (facteur de confusion) ne biaise pas vraiment… Si les seules données que tu possèdes pour décider du nombre de maîtres-nageurs à mettre sur la plage, c’est le nombre de glaces vendues, hé bien tu prendras quand-même la bonne décision en ajustant le personnel en fonction du nombre de glaces vendues…



Donc oui ton modèle est incorrect dans ses hypothèses, mais quand-même diablement efficace dans ses conclusions.



tazvld a dit:


Dans cette exemple, la causalité est indirect. Il y a un élément qui n’est pas mesurer (ici la météo) qui biaise tout. Or les algo d’apprentissage automatique sont à l’affut de ce genre de motif.




Le pari que prend ce type d’algo c’est d’avoir suffisamment d’évènements observables disparates (non directement corrélés les uns aux autres) pour que le modèle généré soit représentatif de l’évènement causal sous-jacent… qui lui restera inconnu / non-observable.



Bref le modèle prédictif “fonctionne” car il est très improbable d’avoir entrainé ce modèle avec seulement des évènements qui n’étaient pas la conséquence de l’évènement causal.



(reply:2104654:33A20158-2813-4F0D-9D4A-FD05E2C42E48)




La corrélation est une part du problème. La seconde part, c’est le déséquilibre dans la base de donnée.



voici un exemple tirer d’une expérience réelle (amazon) : faire manger des CV à un algo pour ressortir les meilleur profil dans le cadre d’une boite IT. Or, dans ce secteur, il y a déjà de base un gros biais de sexe, parmi les employés, une majorité son des homme. Si échantillonnage est parfaitement représentatif, l’algo va bêtement apprendre qu’un bon profil, ceux qu’on recrute habituellement, c’est avant tout un homme éliminant alors systématiquement les profil féminin. La base de donnée n’était pas du tout équilibré et ça a créé un biais.


tazvld


(reply:2104654:33A20158-2813-4F0D-9D4A-FD05E2C42E48)




La corrélation est une part du problème. La seconde part, c’est le déséquilibre dans la base de donnée.



voici un exemple tirer d’une expérience réelle (amazon) : faire manger des CV à un algo pour ressortir les meilleur profil dans le cadre d’une boite IT. Or, dans ce secteur, il y a déjà de base un gros biais de sexe, parmi les employés, une majorité son des homme. Si échantillonnage est parfaitement représentatif, l’algo va bêtement apprendre qu’un bon profil, ceux qu’on recrute habituellement, c’est avant tout un homme éliminant alors systématiquement les profil féminin. La base de donnée n’était pas du tout équilibré et ça a créé un biais.


Bah de base c’est suspect, c’est comme un cerf.
Tu as souvent vu des CVs de cerfs dans l’IT ?
A compétences égales, est-ce que les animaux sont discriminés au recrutement ?



Il faudrait faire des tests, déjà pour un recrutement classique puis avec IA:
en aveugle, sans la photo; puis en double aveugle : sans photo sans nom.



hint: Gertrude est un prénom qui est trop souvent discriminé à l’embauche, sûr que ça va ressortir dans ces tests…


tazvld


(reply:2104654:33A20158-2813-4F0D-9D4A-FD05E2C42E48)




La corrélation est une part du problème. La seconde part, c’est le déséquilibre dans la base de donnée.



voici un exemple tirer d’une expérience réelle (amazon) : faire manger des CV à un algo pour ressortir les meilleur profil dans le cadre d’une boite IT. Or, dans ce secteur, il y a déjà de base un gros biais de sexe, parmi les employés, une majorité son des homme. Si échantillonnage est parfaitement représentatif, l’algo va bêtement apprendre qu’un bon profil, ceux qu’on recrute habituellement, c’est avant tout un homme éliminant alors systématiquement les profil féminin. La base de donnée n’était pas du tout équilibré et ça a créé un biais.


On est bien d’accord, mais est-ce réellement un biais ? Si l’algo ne choisit que des hommes, c’est parce que les humains ne choisissent que des hommes. Rappelons quand-même que le but d’un programme informatique, jusqu’à preuve du contraire, est d’automatiser un comportement existant. Dans ce cas précis, il y a fort à parier que si l’algo se mettait à proposer des femmes à ce poste, l’humain de la RH trouverait un moyen de ne pas les sélectionner et rejeter les conclusions de l’IA.



J’espère sincèrement que ceci est du second degré, car les exemples ne sont pas pertinents. Déjà, je te rappelle que c’est bien un cerf qui a inventé TCP/IP.



En outre, Gertrude est peut-être rare comme prénom en France, mais pas dans les pays de tradition germanique.



(reply:2104710:33A20158-2813-4F0D-9D4A-FD05E2C42E48)




Le sens de biais peut être discuter. Mais clairement, au final, l’algo est biaisé.



Dans le milieux IT, la grande différence de répartition des sexes dans les employé est surtout dû à une grande différence de répartition des sexes dans les candidatures. Mais de là, on pourrait se demander pourquoi une telle différence, et c’est justement là mon histoire de corrélation/causalité/causalité indirect.