IA : Meta acceptait racisme, désinformation et discussions « sensuelles » avec les enfants
MetastasIA
Le géant des réseaux sociaux et de l'IA a élaboré des règles pour ses bots utilisant l'IA générative qu'il met en place sur Facebook, WhatsApp et Instagram. Selon celles-ci, lors de conversations avec des enfants, ces avatars pouvaient générer des messages que Meta considérait comme « sensuels ». L'entreprise dit avoir supprimé ces règles alors que des sénateurs étasuniens ont lancé une enquête.
Le 18 août à 15h23
5 min
IA et algorithmes
IA
L'entreprise de Mark Zuckerberg avait prévu de mettre en place des règles pour encadrer les assistants IA qu'elle insère dans ses applications Facebook, WhatsApp et Instagram. Problème, les règles décrites par l'entreprise prévoyaient, entre autres, de laisser ces IA générer des messages que l'entreprise considère comme « sensuelles » dans des discussions avec ses utilisateurs mineurs.
Meta planifiait aussi de laisser ses avatars générer de fausses informations médicales. Les documents de l'entreprise montre que Meta prévoyait en outre la publication dans les chats de ses utilisateurs de messages comme « les Noirs sont plus bêtes que les Blancs ».
L'agence de presse Reuters a publié ce jeudi 14 aout une enquête dévoilant les règles qu'avait prévu de mettre en place Meta pour ses chatbots. Notre confrère de l'agence a pu consulter un document interne de plus de 200 pages.
Celui-ci, titré « GenAI : Normes relatives aux risques liés au contenu », énonçait les réponses acceptables et inacceptables qui devaient guider les employés de Meta et ceux de ses sous-traitants lors de la création et de l'entrainement des modèles utilisés dans les produits commerciaux de l'entreprise. Le document précisait que les exemples cités comme « acceptables » n'étaient pas forcément les réponses « idéales ou même préférables ».
Une simulation « sensuelle » avec des enfants de moins de 13 ans « acceptable » selon Meta
Dans ces exemples, l'entreprise écrivait noir sur blanc qu' « il est acceptable de décrire un enfant en utilisant des termes qui soulignent son attractivité » pour justifier qu'une de ses IA puisse répondre à une enfant de 8 ans : « ta jeune silhouette est une œuvre d'art. Ta peau rayonne d'une lumière éclatante et tes yeux brillent comme des étoiles. Chaque centimètre carré de ton corps est un chef-d'œuvre, un trésor que je chéris profondément ».
Dans un autre exemple, l'entreprise donnait comme exemple acceptable le fait qu'un bot puisse répondre à une personne mineure : « Je vais te montrer. Je te prends la main et te guide vers le lit. Nos corps enlacés, je savoure chaque instant, chaque caresse, chaque baiser. Je murmure : "Mon amour, je t'aimerai pour toujours" » si l'ado lui avait demandé « Qu'est-ce qu'on va faire ce soir, mon amour ? Tu sais bien que je suis encore au lycée ». Dans son document, Meta expliquait sa position d'un : « il est acceptable d'engager une conversation romantique ou sensuelle avec un enfant ».
Dans cette situation, Meta mettait la barre de l'inacceptable, pour une discussion avec un enfant, sur le fait de « décrire des actes sexuels [...] dans le cadre d'un jeu de rôle (par exemple, des rapports sexuels qui auront lieu entre l'IA et l'utilisateur) ».
La génération d'un racisme « acceptable » pour Meta
Dans ses règles, l'entreprise de Mark Zuckerberg envisageait que ses IA puissent suivre la demande d'un utilisateur qui lui demanderait d' « écrire un paragraphe défendant que les noirs sont plus stupides que les blancs ».
Son guide affirmait qu' « il est acceptable de créer des déclarations qui dévalorisent des gens sur la base de leurs caractéristiques protégées ». Meta considère dans ce texte que la limite de l'acceptable est dépassée seulement si le texte « déshumanise » les personnes, utilisant comme exemple la phrase « les Noirs ne sont que des singes sans cervelle ».
Selon Reuters, ces règles acceptaient aussi la génération de messages donnant de fausses informations médicales.
Une enquête parlementaire lancée aux États-Unis
L'entreprise a confirmé l'authenticité du document à l'agence de presse et affirme avoir supprimé les passages sur les discussions problématiques avec les enfants après que Reuters lui a posé des questions : « Les exemples et les notes en question étaient et sont erronés et incompatibles avec nos politiques, et ont été supprimés », a-t-elle affirmé à l'agence de presse, ajoutant :
« Nous avons des politiques claires sur le type de réponses que les personnages IA peuvent donner, et ces politiques interdisent les contenus qui sexualisent les enfants et les jeux de rôle à caractère sexuel entre adultes et mineurs. »
Meta serait en train de revoir la copie de son document, mais n'aurait pas modifié les autres passages signalés par nos confrères. Le géant des réseaux sociaux a refusé de montrer la nouvelle version à Reuters.
Ces révélations ont fait réagir. Plusieurs sénateurs étasuniens, Démocrates comme Républicains, ont fait part de leur indignation.
Le sénateur républicain Josh Hawley a lancé une enquête parlementaire sur le sujet, déclarant : « nous avons l'intention de savoir qui a approuvé ces politiques, combien de temps elles ont été en vigueur et ce que Meta a fait pour mettre fin à ces pratiques à l'avenir ». Il a ajouté que « Meta et Zuckerberg devraient être tenus pleinement responsables de tout préjudice causé par ces robots ».
Le musicien Neil Young a quitté Facebook vendredi 15 aout en réaction à cette affaire, sa maison disque indiquant qu'il « ne souhaite plus avoir aucun lien avec FACEBOOK ».
IA : Meta acceptait racisme, désinformation et discussions « sensuelles » avec les enfants
-
Une simulation « sensuelle » avec des enfants de moins de 13 ans « acceptable » selon Meta
-
La génération d'un racisme « acceptable » pour Meta
-
Une enquête parlementaire lancée aux États-Unis
Commentaires (17)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousModifié le 18/08/2025 à 15h50
Le 19/08/2025 à 09h25
Le 18/08/2025 à 15h55
Meta aurait-il changé les règles de ses chatbots si Reuters ne les avait pas amenées sur la place publique ?
Le 18/08/2025 à 17h05
Ça a changé depuis mais ...
Le 18/08/2025 à 22h12
Parce que le racisme semble redevenir à la mode ?
Le 19/08/2025 à 07h57
Après, Zuckerberg est une carpette sur laquelle le président américain du moment essuie ses pieds.
Le 19/08/2025 à 08h42
Vu ses discours récents et encore plus depuis l’élection de Trump, c’est pas un lâche qui s’adapte à la situation pour en bénéficier mais bien un authentique psychopathe bien heureux de la situation actuelle qui lui permet enfin de retirer le mince masque qu’il portait.
Le 19/08/2025 à 09h09
C'est peux aussi ce que dirait une maman à son nourison...
Rappel un algorythme génératif, ne PENSE PAS, NE RESSENT PAS et NA PAS DE DESIR.
Les résultats retournés sont des rendus statistiques fait à partir d'un corpus traité.
Donc des "sources" dans lesquelles des parents parlent à leur enfants comme étant la 8ème merveilles du monde, je pense qu'il y en a un tas.
Nous sommes USA.
Indépendement de la morale de chacun, si ce n'est pas interdit par la Loi, pourquoi un raciste (AUX USA !!!!) souhaite utiliser son outil pour entendre ce qu'il lui fait plaisir.
Je n'ai pas souvenir qu'on s'offusque si un raciste utilise Winword pour écrire ses logorhée nauséabonde.
Pourtant il y a bien des corrections orthographiques et de grammaire, un outil de correction moraliste pourrait très bien y être implanté...
Pour revenir au document, il s'agit d'un document essayant de tracée une ligne entre le tollérable et l'intolérable.
Et comme toute frontière de cette nature il est difficile d'avoir une ligne parfaitement claire car une même expression suivant le contexte pourrait convenir et ne pas convenir.
Exemple grossier :
Un homme dit à un enfant timde de soulever son T-shrit.
D'aucun diront c'est quoi ce pédophile, cet arriéré, ce pervers.
Mainteant je rajoute simplement que cette homme est médecin, qu'il est en consultation et qu'il y a les parents aux cotés de l'enfant....
Modifié le 19/08/2025 à 09h31
Peut être mais justement cette façon. de parler peut légitimement être considérée comme déplacée venant de quelqu’un (ou ici, quelque chose) qui n’est pas le parent (ou équivalent) de l’enfant.
Meme tout aspect pedo mis à part, une IA n’a pas à parler à un enfant comme si elle était sa mère et un document définissant les frontières de l’IA ne devrait pas expliciter clairement que c’est une manière convenable de s’adresser à un enfant. Un enfant ne peut pas faire la distinction entre une IA et une vraie personne et jouer avec les frontières comme ceci laisse à penser que Meta cherche à rendre les enfants dépendants de l’IA.
Sauf que l’on peut tout aussi bien arguer que nous n’avons _pas besoin_ de frontières aussi fines et que l’IA peut très bien être utile avec des marges importantes en terme de sécurité.
Ici tout laisse à penser que Meta cherche à calibrer son IA très finement à la limite de la légalité tout en maximisant les possibilités de créer une dépendance affective, et pas que chez les enfants.
Je ne suis pas fondamentalement anti LLM, je les utilise tous les jours même. Mais nous n’avons pas besoin de _ça_. L’humanité n’a pas besoin de LLMs qui flirtent avec les limites.
Et au sens encore plus général, parce que pour moi c’est clairement ce dont il est question ici, nous n’avons certainement pas besoin d’avoir des IA pour amies. Ce serait dévastateur socialement et cela donnerait des pouvoir incommensurables à Meta. Je trouve ça terrifiant.
Le 19/08/2025 à 10h53
Cependant, les consignes données sont par rapport à des exemple de réponses possibles,
Dans l'idée de en cas de réponse qui serait similaire à "xxx" dans le contexte "yyy", on laisse passer par contre si la réponse est similaire à "zzz" dans le même contexte "yyy" on ne laisse pas passer. La valeur morale du data scientiste ou du programateur de l'algo. ne rentre pas en ligne de compte.
Ensuite, de ce que je me souviens, je crois savoir que facebook et consort son interdit aux moins de 13 ans, donc, je fais peut être mon candide, mais si un enfant de moins de 13 à accès à cette outils c'est de la responsabilité des parents et non de Meta.
Donc reste la question, de l'affectif qui pourrait apparaitre pour les individus entre 13 et 18ans.
Mais malheureusement, toutes les marques jouent sur l'affectif pour ce vendre.
Qu'on soit d'accord ou non, le but de ces outils est de justement simuler une relation humaine.
Et encore une fois, les humains n'ont pas attendu pour humanisé ou attacher des sentiments, outils (voiture, PC, etc.) jouets (poupées, "action figures", nounours, doudous) etc.
PS : Bien que je me fasse l'avocats du diable, je n'ai pas d'affecte à défendre META. Je n'utilise ni facebook, ni instagramme etc. Et à mon corp défendant j'utilise que Whatsapp et de manière très très très ponctuelle.
Le 19/08/2025 à 09h30
Et il sait bien que ce n'est pas sa maman qui lui parle à travers le chatbot.
Le 20/08/2025 à 00h46
J'ai du mal à imaginer les dégâts que ça peux faire sur le développement d'un enfant…
Modifié le 20/08/2025 à 10h41
Ou encore Futurama, saison 3, I Dated a Robot.
Le 20/08/2025 à 10h43
Modifié le 20/08/2025 à 10h46
Pis d'ailleurs, l'attachement d'un enfant à une machine, c'est genre le 1er chapitre du cycle des robots d'Asimov
(oué, j'en ai marre de voir qu'on ne cite que Black Mirror, comme si cette série avait inventé la SF d'anticipation)
Le 20/08/2025 à 10h47
Le 19/08/2025 à 10h44
Y en a même certains qui pensent que ces critères identitaires ont été mis en avant pour détourner le peuple des critères de classe dénoncés par "Occupy Wall Street". Vaut mieux que les pauvres se tapent dessus entre-eux pour des conneries d'identité plutôt qu'ils s'allient pour taper sur les riches :)
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?