Vie privée, effets sur les jeunes, violences : Meta va remplacer l’évaluation humaine par l’IA
IA moins de gène
Alina Constantin / Better Images of AI / Handmade A.I / CC-BY 4.0
Meta prévoit de confier jusqu'à 90 % des évaluations des risques de ses nouveaux produits à des IA. L'entreprise avait, progressivement, été poussée à mettre en place des équipes d'évaluation de ses nouveaux produits pour atténuer leurs conséquences négatives avant leur mise en place sur le marché.
Le 02 juin 2025 à 17h10
4 min
Réseaux sociaux
Sociaux
Les produits de Meta ne sont pas exempts de risques pour leurs utilisateurs, loin s'en faut, que ce soit de problèmes liés à la désinformation, à l'utilisation de données privées ou l'exposition des jeunes à des contenus problématiques. Mais l'entreprise a été poussée par certaines instances de régulation comme la Federal Trade Commission à mettre en place quelques garde-fous.
Le scandale Cambridge Analytica a aussi eu un petit effet. À l'époque, l'entreprise avait étendu son programme de recherche de bugs (bug bounty) aux utilisations frauduleuses de données par des applications tierces, par exemple.
De même, dès 2019, l'entreprise a mis en place une « red team » spécialisée sur l'IA, racontait Forbes. En 2023, pour la sortie de Llama 2, les chercheurs de Meta expliquaient avoir travaillé avec 350 personnes pour atténuer les risques, « y compris des experts en cybersécurité, fraude électorale, désinformation dans les médias sociaux, droit, politique, droits civils, éthique, génie logiciel, apprentissage automatique, IA responsable et création littéraire », précisaient-ils.
Automatisation de 90 % des évaluations de risques
L'entreprise prévoirait désormais d'automatiser jusqu'à 90 % des évaluations de risques, selon des documents internes obtenus par le média public américain NPR.
Selon nos confrères, les modifications des algorithmes des différents réseaux sociaux de Meta, les nouveaux dispositifs de sécurité ou les éventuels changements de règles de partages des contenus sur les plateformes de l'entreprise seront approuvés par des systèmes automatisés utilisant de l'intelligence artificielle et ne seront plus débattus en interne par une équipe dédiée.
Dans l'entreprise, ce changement serait vu comme une victoire des responsables produits qui pourront lancer des nouveautés plus rapidement. « Dans la mesure où ce processus signifie fonctionnellement que davantage de produits sont lancés plus rapidement, avec un examen et une opposition moins rigoureux, cela signifie que vous créez des risques plus élevés », explique cependant un ancien responsable de Meta de manière anonyme.
De son côté, l'entreprise assure à la NPR que « l'expertise humaine » sera toujours utilisée pour les « questions nouvelles et complexes » et que seules les « décisions à faible risque » seraient automatisées. Le média étasunien assure que les documents internes qu'il a consultés évoquent l'automatisation de domaines sensibles comme la sécurité des IA, les risques pour les jeunes, et ce que l'entreprise appelle « intégrité » qui englobe les contenus violents et les fausses informations.
Obligée par le DSA, Meta maintient une équipe en Europe
Selon les documents consultés par la NPR, le processus de validation que Meta met en place passerait dans la plupart des cas par un simple questionnaire sur le projet. Les équipes produits recevront une « décision instantanée » automatisée identifiant les risques et les moyens d'y remédier.
Interrogé par NPR, l'ancien directeur du service « Innovation responsable » de Facebook, Zvika Krieger explique que « la plupart des chefs de produit et des ingénieurs ne sont pas des experts en matière de protection de la vie privée et ce n'est pas l'objet de leur travail. Ce n'est pas ce sur quoi ils sont principalement évalués et ce n'est pas ce qui les incite à donner la priorité à la protection de la vie privée ».
En avril, le prestataire de modération Telus a licencié plus de 2000 personnes à Barcelone après avoir perdu le contrat qui le liait à Meta. Cela dit, selon ses documents internes, l'entreprise de Mark Zuckerberg devrait garder une équipe en Europe (en Irlande, où se situe son siège social pour l'UE) pour prendre des décisions sur le lancement de produits et l'utilisation des données utilisateurs au sein de la zone européenne. Le DSA oblige, en effet, les plateformes à porter une plus grande attention à ces sujets.
Vie privée, effets sur les jeunes, violences : Meta va remplacer l’évaluation humaine par l’IA
-
Automatisation de 90 % des évaluations de risques
-
Obligée par le DSA, Meta maintient une équipe en Europe
Commentaires (9)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 02/06/2025 à 19h16
Le 02/06/2025 à 19h38
Quiconque travaille dans une industrie régulée connait la lourdeur des "frameworks" permettant de générer les documents demandés par les autorités. Les IA étant très douées pour générer ce type de document, je me demande à quel point un humain sera impliqué dans leur écriture. Des relecteurs humains sans-doute... mais des rédacteurs, hmm...
Le 03/06/2025 à 09h38
On doit systématiquement repasser avec eux sur leur demandes pour qu'ils écrivent les bonnes informations (qui peuvent être mauvaises par ailleurs).
Mais, je vais sortir la boite à popcorn et attendre bien sagement.
Le 02/06/2025 à 19h48
Le 02/06/2025 à 20h23
L'IA sait exprimer des émotions.
Le 02/06/2025 à 22h20
Le 02/06/2025 à 22h25
Le 02/06/2025 à 20h11
Le 02/06/2025 à 21h14
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?