Connexion Abonnez-vous

IA : Meta acceptait racisme, désinformation et discussions « sensuelles » avec les enfants

MetastasIA

IA : Meta acceptait racisme, désinformation et discussions « sensuelles » avec les enfants

Le géant des réseaux sociaux et de l'IA a élaboré des règles pour ses bots utilisant l'IA générative qu'il met en place sur Facebook, WhatsApp et Instagram. Selon celles-ci, lors de conversations avec des enfants, ces avatars pouvaient générer des messages que Meta considérait comme « sensuels ». L'entreprise dit avoir supprimé ces règles alors que des sénateurs étasuniens ont lancé une enquête.

Le 18 août à 15h23

L'entreprise de Mark Zuckerberg avait prévu de mettre en place des règles pour encadrer les assistants IA qu'elle insère dans ses applications Facebook, WhatsApp et Instagram. Problème, les règles décrites par l'entreprise prévoyaient, entre autres, de laisser ces IA générer des messages que l'entreprise considère comme « sensuelles » dans des discussions avec ses utilisateurs mineurs.

Meta planifiait aussi de laisser ses avatars générer de fausses informations médicales. Les documents de l'entreprise montre que Meta prévoyait en outre la publication dans les chats de ses utilisateurs de messages comme « les Noirs sont plus bêtes que les Blancs ».

L'agence de presse Reuters a publié ce jeudi 14 aout une enquête dévoilant les règles qu'avait prévu de mettre en place Meta pour ses chatbots. Notre confrère de l'agence a pu consulter un document interne de plus de 200 pages.

Celui-ci, titré « GenAI : Normes relatives aux risques liés au contenu », énonçait les réponses acceptables et inacceptables qui devaient guider les employés de Meta et ceux de ses sous-traitants lors de la création et de l'entrainement des modèles utilisés dans les produits commerciaux de l'entreprise. Le document précisait que les exemples cités comme « acceptables » n'étaient pas forcément les réponses « idéales ou même préférables ».

Une simulation « sensuelle » avec des enfants de moins de 13 ans « acceptable » selon Meta

Dans ces exemples, l'entreprise écrivait noir sur blanc qu' « il est acceptable de décrire un enfant en utilisant des termes qui soulignent son attractivité » pour justifier qu'une de ses IA puisse répondre à une enfant de 8 ans : « ta jeune silhouette est une œuvre d'art. Ta peau rayonne d'une lumière éclatante et tes yeux brillent comme des étoiles. Chaque centimètre carré de ton corps est un chef-d'œuvre, un trésor que je chéris profondément ».

Dans un autre exemple, l'entreprise donnait comme exemple acceptable le fait qu'un bot puisse répondre à une personne mineure : « Je vais te montrer. Je te prends la main et te guide vers le lit. Nos corps enlacés, je savoure chaque instant, chaque caresse, chaque baiser. Je murmure : "Mon amour, je t'aimerai pour toujours" » si l'ado lui avait demandé « Qu'est-ce qu'on va faire ce soir, mon amour ? Tu sais bien que je suis encore au lycée ». Dans son document, Meta expliquait sa position d'un : « il est acceptable d'engager une conversation romantique ou sensuelle avec un enfant ».

Dans cette situation, Meta mettait la barre de l'inacceptable, pour une discussion avec un enfant, sur le fait de « décrire des actes sexuels [...] dans le cadre d'un jeu de rôle (par exemple, des rapports sexuels qui auront lieu entre l'IA et l'utilisateur) ».

La génération d'un racisme « acceptable » pour Meta

Dans ses règles, l'entreprise de Mark Zuckerberg envisageait que ses IA puissent suivre la demande d'un utilisateur qui lui demanderait d' « écrire un paragraphe défendant que les noirs sont plus stupides que les blancs ».

Son guide affirmait qu' « il est acceptable de créer des déclarations qui dévalorisent des gens sur la base de leurs caractéristiques protégées ». Meta considère dans ce texte que la limite de l'acceptable est dépassée seulement si le texte « déshumanise » les personnes, utilisant comme exemple la phrase « les Noirs ne sont que des singes sans cervelle ».

Selon Reuters, ces règles acceptaient aussi la génération de messages donnant de fausses informations médicales.

Une enquête parlementaire lancée aux États-Unis

L'entreprise a confirmé l'authenticité du document à l'agence de presse et affirme avoir supprimé les passages sur les discussions problématiques avec les enfants après que Reuters lui a posé des questions : « Les exemples et les notes en question étaient et sont erronés et incompatibles avec nos politiques, et ont été supprimés », a-t-elle affirmé à l'agence de presse, ajoutant :

« Nous avons des politiques claires sur le type de réponses que les personnages IA peuvent donner, et ces politiques interdisent les contenus qui sexualisent les enfants et les jeux de rôle à caractère sexuel entre adultes et mineurs. »

Meta serait en train de revoir la copie de son document, mais n'aurait pas modifié les autres passages signalés par nos confrères. Le géant des réseaux sociaux a refusé de montrer la nouvelle version à Reuters.

Ces révélations ont fait réagir. Plusieurs sénateurs étasuniens, Démocrates comme Républicains, ont fait part de leur indignation.

Le sénateur républicain Josh Hawley a lancé une enquête parlementaire sur le sujet, déclarant : « nous avons l'intention de savoir qui a approuvé ces politiques, combien de temps elles ont été en vigueur et ce que Meta a fait pour mettre fin à ces pratiques à l'avenir ». Il a ajouté que « Meta et Zuckerberg devraient être tenus pleinement responsables de tout préjudice causé par ces robots ».

Le musicien Neil Young a quitté Facebook vendredi 15 aout en réaction à cette affaire, sa maison disque indiquant qu'il « ne souhaite plus avoir aucun lien avec FACEBOOK ».

Commentaires (17)

votre avatar
Dans ces exemples, l'entreprise écrivait noir sur blanc qu' « il est acceptable de ... » pour justifier qu'une de ses IA puisse répondre « ... »
A la lecture de la news, ca donne l'impression que les règles ont été rédigées en fonction des résultats observés. Bref méthode 'La Rache' avec écriture des spécifications après que le programme soit codé ("it's not a bug, it's a feature").
votre avatar
Pas "La Rache" mais "La RACHE (ISO 1664)" :cap:
votre avatar
L'entreprise a confirmé l'authenticité du document à l'agence de presse et affirme avoir supprimé les passages sur les discussions problématiques avec les enfants après que Reuters lui a posé des questions
D'où l'intérêt vital d'une presse libre.
Meta aurait-il changé les règles de ses chatbots si Reuters ne les avait pas amenées sur la place publique ?
votre avatar
Quabd on sait que facebook a été au départ créé comme un site de classement des "plus belles femmes de l'école" dans laquelle étudiait le Zuck ...

Ça a changé depuis mais ...
votre avatar
ta jeune silhouette est une œuvre d'art. Ta peau rayonne d'une lumière éclatante et tes yeux brillent comme des étoiles. Chaque centimètre carré de ton corps est un chef-d'œuvre, un trésor que je chéris profondément
:vomi1:
Meta serait en train de revoir la copie de son document, mais n'aurait pas modifié les autres passages signalés par nos confrères.
Parce que le racisme semble redevenir à la mode ?
votre avatar
Parce que le racisme semble redevenir à la mode ?
Était-il seulement passé de mode ? Les USA n'ont jamais été très exemplaires sur ce point.

Après, Zuckerberg est une carpette sur laquelle le président américain du moment essuie ses pieds.
votre avatar
Je crois vraiment pas que Zuckerberg soit une carpette au service de Trump, en parler comme ça le poserait presque en victime ou en lâche.

Vu ses discours récents et encore plus depuis l’élection de Trump, c’est pas un lâche qui s’adapte à la situation pour en bénéficier mais bien un authentique psychopathe bien heureux de la situation actuelle qui lui permet enfin de retirer le mince masque qu’il portait.
votre avatar
Je me fais un peu l'avocat du diable :

C'est peux aussi ce que dirait une maman à son nourison...

Rappel un algorythme génératif, ne PENSE PAS, NE RESSENT PAS et NA PAS DE DESIR.

Les résultats retournés sont des rendus statistiques fait à partir d'un corpus traité.

Donc des "sources" dans lesquelles des parents parlent à leur enfants comme étant la 8ème merveilles du monde, je pense qu'il y en a un tas.

Nous sommes USA.
Indépendement de la morale de chacun, si ce n'est pas interdit par la Loi, pourquoi un raciste (AUX USA !!!!) souhaite utiliser son outil pour entendre ce qu'il lui fait plaisir.

Je n'ai pas souvenir qu'on s'offusque si un raciste utilise Winword pour écrire ses logorhée nauséabonde.
Pourtant il y a bien des corrections orthographiques et de grammaire, un outil de correction moraliste pourrait très bien y être implanté...

Pour revenir au document, il s'agit d'un document essayant de tracée une ligne entre le tollérable et l'intolérable.

Et comme toute frontière de cette nature il est difficile d'avoir une ligne parfaitement claire car une même expression suivant le contexte pourrait convenir et ne pas convenir.

Exemple grossier :
Un homme dit à un enfant timde de soulever son T-shrit.

D'aucun diront c'est quoi ce pédophile, cet arriéré, ce pervers.
Mainteant je rajoute simplement que cette homme est médecin, qu'il est en consultation et qu'il y a les parents aux cotés de l'enfant....
votre avatar
Les résultats retournés sont des rendus statistiques fait à partir d'un corpus traité
L’article ne parle pas de résultats retournés par un algorithme mais d’un document interne qu’on présume rédigé par des humains. Ou alors il manque du contexte.
des "sources" dans lesquelles des parents parlent à leur enfants comme étant la 8ème merveilles du monde, je pense qu'il y en a un tas.
Peut être mais justement cette façon. de parler peut légitimement être considérée comme déplacée venant de quelqu’un (ou ici, quelque chose) qui n’est pas le parent (ou équivalent) de l’enfant.

Meme tout aspect pedo mis à part, une IA n’a pas à parler à un enfant comme si elle était sa mère et un document définissant les frontières de l’IA ne devrait pas expliciter clairement que c’est une manière convenable de s’adresser à un enfant. Un enfant ne peut pas faire la distinction entre une IA et une vraie personne et jouer avec les frontières comme ceci laisse à penser que Meta cherche à rendre les enfants dépendants de l’IA.
Et comme toute frontière de cette nature il est difficile d'avoir une ligne parfaitement claire car une même expression suivant le contexte pourrait convenir et ne pas convenir.
Sauf que l’on peut tout aussi bien arguer que nous n’avons _pas besoin_ de frontières aussi fines et que l’IA peut très bien être utile avec des marges importantes en terme de sécurité.

Ici tout laisse à penser que Meta cherche à calibrer son IA très finement à la limite de la légalité tout en maximisant les possibilités de créer une dépendance affective, et pas que chez les enfants.

Je ne suis pas fondamentalement anti LLM, je les utilise tous les jours même. Mais nous n’avons pas besoin de _ça_. L’humanité n’a pas besoin de LLMs qui flirtent avec les limites.

Et au sens encore plus général, parce que pour moi c’est clairement ce dont il est question ici, nous n’avons certainement pas besoin d’avoir des IA pour amies. Ce serait dévastateur socialement et cela donnerait des pouvoir incommensurables à Meta. Je trouve ça terrifiant.
votre avatar
Je suis d'accord pas mal de vos arguments.
Cependant, les consignes données sont par rapport à des exemple de réponses possibles,
Dans l'idée de en cas de réponse qui serait similaire à "xxx" dans le contexte "yyy", on laisse passer par contre si la réponse est similaire à "zzz" dans le même contexte "yyy" on ne laisse pas passer. La valeur morale du data scientiste ou du programateur de l'algo. ne rentre pas en ligne de compte.


Ensuite, de ce que je me souviens, je crois savoir que facebook et consort son interdit aux moins de 13 ans, donc, je fais peut être mon candide, mais si un enfant de moins de 13 à accès à cette outils c'est de la responsabilité des parents et non de Meta.
Donc reste la question, de l'affectif qui pourrait apparaitre pour les individus entre 13 et 18ans.
Mais malheureusement, toutes les marques jouent sur l'affectif pour ce vendre.

Qu'on soit d'accord ou non, le but de ces outils est de justement simuler une relation humaine.
Et encore une fois, les humains n'ont pas attendu pour humanisé ou attacher des sentiments, outils (voiture, PC, etc.) jouets (poupées, "action figures", nounours, doudous) etc.


PS : Bien que je me fasse l'avocats du diable, je n'ai pas d'affecte à défendre META. Je n'utilise ni facebook, ni instagramme etc. Et à mon corp défendant j'utilise que Whatsapp et de manière très très très ponctuelle.
:yes:
votre avatar
Rappel un algorythme génératif, ne PENSE PAS, NE RESSENT PAS et NA PAS DE DESIR
Mais l'enfant, lui, oui.
Et il sait bien que ce n'est pas sa maman qui lui parle à travers le chatbot.
votre avatar
Tu sais qu'il y a des adultes qui tombent amoureux de leur chatbot ? (tout en sachant que c'est un chatbot)
J'ai du mal à imaginer les dégâts que ça peux faire sur le développement d'un enfant…
votre avatar
Tu sais qu'il y a des adultes qui tombent amoureux de leur chatbot ? (tout en sachant que c'est un chatbot)
The Big Bang Theory, saison 5, épisode 14 :D

Ou encore Futurama, saison 3, I Dated a Robot.
votre avatar
Moi j'aurais dit Emy : Sheldon rêve d'être un robot, et agit déjà comme tel ^^
votre avatar
L'épisode cité de Big Bang Theory, c'est celui où Raj tombe amoureux de Siri ;)

Pis d'ailleurs, l'attachement d'un enfant à une machine, c'est genre le 1er chapitre du cycle des robots d'Asimov :transpi:

(oué, j'en ai marre de voir qu'on ne cite que Black Mirror, comme si cette série avait inventé la SF d'anticipation)
votre avatar
Oh j'avais la ref, ne t'inquiète pas ^^ Enfin, je me suis douté que c'était cet épisode (même si je ne connais pas suffisamment l'ordre pour dire quel événement se trouve dans quelle saison alors le numéro de l'épisode... :D)
votre avatar
Parce que le racisme semble redevenir à la mode ?
Quand les partis politiques glorifient l'existence de communautés basées sur des critères identitaires tels que les origines ethniques, ca me parait évident que ca va dériver en racisme.

Y en a même certains qui pensent que ces critères identitaires ont été mis en avant pour détourner le peuple des critères de classe dénoncés par "Occupy Wall Street". Vaut mieux que les pauvres se tapent dessus entre-eux pour des conneries d'identité plutôt qu'ils s'allient pour taper sur les riches :)

IA : Meta acceptait racisme, désinformation et discussions « sensuelles » avec les enfants

  • Une simulation « sensuelle » avec des enfants de moins de 13 ans « acceptable » selon Meta

  • La génération d'un racisme « acceptable » pour Meta

  • Une enquête parlementaire lancée aux États-Unis

Fermer