Microsoft licencie son équipe dédiée à l’éthique de l’IA
Le 15 mars 2023 à 06h21
2 min
Économie
Économie
Dans la longue série des licenciements de la tech, cette annonce-ci prend une couleur particulière : l’équipe dédiée à l’éthique de l’intelligence artificielle fait partie des 10 000 personnes licenciées par Microsoft, selon les informations de Platformer. Une décision qui a lieu au moment même où la société accélère dans sa volonté de rendre des outils d’IA accessibles au grand public.
Microsoft gardera un Bureau de l’IA responsable actif, en charge de créer les règles et les principes à suivre dans les projets impliquant des technologies d’intelligence artificielle. L’entreprise déclare par ailleurs que ses investissements généraux dans la responsabilité de l’IA continuent de croître malgré tout. Auprès de Platformer, des employés de la société soulignent néanmoins que les équipes licenciées avaient un rôle crucial dans le suivi de l’application réelle des principes éthiques dans le design des produits fabriqués.
L’équipe en charge de l’éthique de l’IA a compté jusqu’à 30 personnes en 2020. En octobre, elle avait déjà été réduite à sept. Parmi ses travaux les plus récents, elle était en charge d’ausculter les potentiels risques posés par les technologies d’OpenAI potentiellement intégrées à la suite d’outils Microsoft.
Plusieurs employés témoignent de la très forte pression effectuée par la direction de la société pour sortir le plus rapidement possible les outils en question.
- Microsoft lance Azure OpenAI, de vastes ambitions pour l'intelligence artificielle
- Microsoft investit plusieurs milliards de dollars dans OpenAI et devient son partenaire exclusif
Ailleurs en ligne, cette « urgence » est critiquée, notamment par la linguiste Emily Bender. Sur Twitter, celle-ci appelle à se demander ce qui provoque une telle urgence (à part le strict business), vers quel progrès l’IA est réellement censée emmener les utilisateurs… et quelles régulations imaginer.
L’affaire rappelle aussi le licenciement de Timnit Gebru puis Margaret Mitchell, alors à la tête de la cellule en charge de l’éthique de l’intelligence artificielle chez Google, en 2020, puisque celui-ci avait eu lieu juste après qu’elles proposent un papier de recherche critiquant les effets sociaux et environnementaux de certaines de ces technologies.
Le 15 mars 2023 à 06h21
Commentaires (23)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 15/03/2023 à 07h52
Il ne fait pas bon de travailler dans les équipes d’éthique de ces chères multinationales. Après Twitter, c”est Microsoft qui s’en débarrasse. Ça promet rien de bon pour le respect des utilisateurs de ChatGPT…
Le 15/03/2023 à 08h11
Tout va bien ! Aucune raison de s’inquiéter.
Le 15/03/2023 à 08h14
Skynet à l’oeuvre
Le 15/03/2023 à 08h16
… éthique !
Et toc !
Le 15/03/2023 à 09h27
Et Tiktok ?
Attention, il y en a qui aiment les bâtons gros et durs
Le 15/03/2023 à 08h54
Simple gestion des risques. Il y a plus de risques financiers à faire des produits éthiques donc en retard par rapport au peloton, que de mettre en production le plus vite possible un truc à peine fonctionnel pour être dans le mouvement.
Les financeurs aiment les têtes de pont. Il ne fait pas bon d’être un suiveur dans le monde de la tech. Si t’es pas devant, ton action plonge.
Le 15/03/2023 à 09h23
Éthique et entreprise ce sont deux mots qui ne vont pas ensemble.
Le seul moyen de faire entrer un peu d’éthique en entreprise ce sont des lois contraignantes assorties de sanctions plus élevées que le gain espéré, c’est à peu près la seule chose que ces gens puissent comprendre.
La punition, pas de carotte, juste des bâtons de préférence gros et très dur.
Le 15/03/2023 à 09h32
“Micro$oft” et “éthique”, dans la même phrase, c’était pas cohérent non plus :-)
Le 15/03/2023 à 09h34
Cela pourrait avoir un gros succès dans le cadre des divertissements pour adultes
Plus sérieusement, la fuite en avant dans le contexte actuel de la tech (cyber attaques, migration vers le cloud, …) est un comportement de « lapin dans les phares ». M’est avis qu’il serait plus judicieux de sortir la tête du guidon et d’investir sur les « voies de sortie » plutôt de suivre aveuglément le peloton. Maintenant, il faut savoir si les entreprises (GAFAM, ESN, …) disposent (encore) des compétences adéquates pour regarder au delà du nuage de poussière soulevé par la horde bêlantes des p’tits soldats boursiers.
Le 15/03/2023 à 11h24
Dommage, perso j’aime bien leur version spécifique de chatgpt (que j’ai testé par l’intermédiaire de you point comme), elle semble mieux maitriser et manier la langue française que l’original…
Mais, comme l’IA elle-même l’avoue, elle n’est pas à l’abri de manips de toutes sortes visant à détourner son fonctionnement et/ou ses résultats vers des usages ou discours nettement moins nobles.
En fait ce travail de correction et d’amélioration “éthique” demande un effort soutenu et continu, parce que chaque jour qui passe, de nouveaux “trucs et astuces” sortent pour la détourner des buts pour lesquels ce gros tas de code a été conçu…
Le 15/03/2023 à 11h28
Je suis curieux de savoir si MS pourrait se voir considérée comme responsable en cas de crime aidé par la complicité d’une IA de son crû, et qui aurait pu être évitée par ces équipes de l’éthique.
Le 15/03/2023 à 16h33
Je pense que ça doit être la même réponse que de se demander si OSM ou Google Maps peuvent être considérés comme complices pour avoir aidé des terroristes à se repérer.
Le 18/03/2023 à 10h13
Je ne suis pas tout à fait d’accord : il est impossible d’éviter une utilisation détournée d’un outil, j’en convient, mais quand on fait preuve de négligence dans la conception même de l’outil, c’est une autre histoire !
Imagine qu’une arme à feu soit tellement mal faite que dans certains cas, la balle partirait à droite plutôt que tout droit : un innocent touché par cette balle pourrait légitimement se retourner contre le constructeur de l’arme. Je ne suis pas juriste, mais ça ne me semble pas complètement déconnant.
Pour le coup, c’est la négligence qui est importante pour moi. Et là, franchement, si ce n’en n’est pas, ça y ressemble fortement !
Le 18/03/2023 à 11h06
Pour moi il y a plusieurs choses :
Sur le sujet de la responsabilité, je préfère prendre l’exemple du véhicule autonome. Celui des armes me paraît peu pertinent dans une application réelle, tu as peu de chances que son fabricant soit accusé pour une victime collatérale dans la mesure où son usage même est déjà peu toléré dans la société (accessoirement la plupart des armes à feu ont des défauts de canon ou de recul que le tireur doit apprendre à compenser).
Dans la loi française il est indiqué qu’en cas d’accident provoqué par le système de conduite autonome c’est le constructeur qui sera responsable si l’usage était conforme à ses conditions d’utilisation au moment des faits. Mais pour ça il faut donc bien démontrer que ce n’est pas le conducteur qui a fait n’importe quoi.
Ensuite, tu évoques la négligence de conception qui pourrait potentiellement entraîner un usage malveillant. Sur ce point, pour moi il est nécessaire de démontrer que la suppression de l’équipe dont il est question dans l’article est à l’origine de ce défaut. Or, l’article cite que l’entreprise maintient un bureau “IA responsable” “en charge de créer les règles et les principes à suivre dans les projets impliquant des technologies d’intelligence artificielle”. Donc à priori, on peut difficilement conclure que le sujet est ignoré.
Le 18/03/2023 à 12h16
Très bien, merci beaucoup pour tes éclairages. 😉
Le 15/03/2023 à 13h28
T’as pas besoin d’éthique !
Le 15/03/2023 à 14h39
Ouais, en plus “l’éthique” ça pique !!
Le 15/03/2023 à 15h31
Voila ce qui arrive quand on laisse l’IA se charger des recrutement/licenciement.
Le 15/03/2023 à 16h16
C’est parce que l’équipe dédiée à l’éthique de l’IA a mal fait son travail.
Et donc qu’elle mérite bien de se faire licencier.
Le 15/03/2023 à 16h03
Le 15/03/2023 à 17h25
Ailleurs en ligne, cette « urgence » est critiquée, notamment par la linguiste Emily Bender. Sur Twitter, celle-ci appelle à se demander ce qui provoque une telle urgence (à part le strict business), vers quel progrès l’IA est réellement censée emmener les utilisateurs… et quelles régulations imaginer.
Comme d’hab, c’est les utilisateurs/clients qui vont répondre à ça, MS doit rapidement mettre gratuitement les outils en place pour que les gens trouvent eux-mêmes des utilisations que MS pourra commercialisées en abonnement dans un deuxième temps #classicMS
Le 15/03/2023 à 18h54
rien ne m’étonne, enfin, chez certains
Le 16/03/2023 à 06h07
Le contre-pied serait de voir émerger, dans les années à venir, une communauté forte sur l’IA à partir de tous ces licenciés. Communauté qui aurait un poids assez conséquent pour alerter les décideurs politiques de légiférer sur le sujet et empêcher ces entreprises de faire n’importe quoi.
Déjà le manque de législation, tout du moins appliquée, au sujet des réseaux sociaux cette dernières décennie a eu de graves impacts sur la société en général. Si on reproduit les mêmes erreurs avec les IA, dont les conséquences peuvent être toutes autres…