Meta dissout son équipe sur l’« IA responsable »
Le 20 novembre 2023 à 06h18
1 min
Économie
Économie
Alors que Microsoft avait choisi mars dernier de licencier toute son équipe dédiée à l'éthique de l'IA, Meta vient de décider de dissoudre son équipe consacrée à l'IA responsable, selon The Information qui a pu obtenir une note interne à l'entreprise à ce propos. Business Insider avait déjà évoqué des licenciements au sein de cette équipe il y a un mois. Les membres restant de cette équipe intégreront d'autres équipes travaillant sur l'IA.
Jon Carvill, un responsable de la communication de Meta, a déclaré que l'entreprise « continuera à donner la priorité et à investir dans le développement d'une IA sûre et responsable » ajoutant que ces salariés « continueront à soutenir les efforts transversaux de Meta sur le développement et l'utilisation responsables de l'IA ».
Chez Google, c'est dès 2020 que l'entreprise avait décidé de se séparer de Timnit Gebru, chercheuse spécialisée sur les questions d’éthique sur l’intelligence artificielle. L'entreprise avait licencié quelques mois après une autre spécialiste de ces sujets, Margaret Mitchell.
Le 20 novembre 2023 à 06h18
Commentaires (12)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 20/11/2023 à 07h43
Ils font comment pour donner la priorité à quelque chose dont le service qui en est responsable se retrouve dissout ?
Le 20/11/2023 à 08h01
“L’éthique das l’IA, combien de divisions ?”
Le 20/11/2023 à 12h39
DivideByZeroException
Le 20/11/2023 à 08h20
De un, quand il y a un service/comité dédié à faire qqc, c’est l’arbre qui cache la foret.
=> On ne veut surtout pas impacter les équipes opérationnelles/décisionnelles donc on externalise la responsabilité (aka fusible/bouc-émissaire).
De deux, il y a de la réglementation en cours aux US sur le sujet. A terme, ca sera donc géré par le service juridique/légal de l’entreprise.
Le 20/11/2023 à 10h26
Ça me semble être un peu simpliste.
Quand on a une problématique à adresser, il est généralement plus efficace d’avoir un service dédié à cela, avec les expertises qui y sont présentes.
Ça PEUT être comme tu dis un service fantoche, mais ça veut alors dire qu’ils n’ont plus rien du tout pour s’occuper de ces questions.
Et je vois mal comment des juristes pourraient aider à résoudre les problèmes techniques liés à l’éthique d’une IA…
Le 20/11/2023 à 09h01
La communication sur l’IA ne concerne plus la confiance dans les bénéfices de ces technos et se focalise dorénavant dans la démonstration que Meta (ou Google) est leader dans l’efficacité de ce produit. Du côté, d’OpenAI et Microsoft, c’est pareil avec l’intégration de Sam Altman et de son équipe au sein même de Microsoft (si j’ai bien suivi).
Le 20/11/2023 à 10h12
hmm… pour MSFT/Altman c’est plutôt du damage-control. Etant actuellement les leaders (grace à OpenAI), je suppose que MSFT ne voulait pas prendre le risque que Altman et ses copains démissionnaires partent à la concurrence.
Après, ca peut être l’occasion pour MSFT de créer sa propre division AI et de couper le cordon avec OpenAI.
Le 20/11/2023 à 11h06
Elle ne résout pas les problèmes techniques.
Elle résout toutes les objections en disant “bla bla se conforme à la loi en vigueur”.
Que ce soit sur les taxes, la sécurité, les appels d’offres, …
Le 20/11/2023 à 11h40
OK, mais j’imagine bien que le service dissout avait comme rôle de se pencher sur les problèmes techniques que j’évoque, non ?
Le 20/11/2023 à 11h23
Ils n’ont jamais donné la priorité à cette chose et n’ont jamais eu l’intention de le faire.
On parle de Meta (Facebook et le reste).
Le 20/11/2023 à 11h53
Au vu de leurs efforts fait sur le respect et la protection des données personnelles, j’ai une absolue confiance en leurs travaux.
Le 20/11/2023 à 12h29
Bien sur, les comités d’éthiques s’intéressent à fond aux problèmes techniques.
Tout autant que les comités RGPD, DEI, Happiness…
/s