Microsoft licencie son équipe dédiée à l’éthique de l’IA

Microsoft licencie son équipe dédiée à l’éthique de l’IA

Microsoft licencie son équipe dédiée à l’éthique de l’IA

Dans la longue série des licenciements de la tech, cette annonce-ci prend une couleur particulière : l’équipe dédiée à l’éthique de l’intelligence artificielle fait partie des 10 000 personnes licenciées par Microsoft, selon les informations de Platformer. Une décision qui a lieu au moment même où la société accélère dans sa volonté de rendre des outils d’IA accessibles au grand public.

Microsoft gardera un Bureau de l’IA responsable actif, en charge de créer les règles et les principes à suivre dans les projets impliquant des technologies d’intelligence artificielle. L’entreprise déclare par ailleurs que ses investissements généraux dans la responsabilité de l’IA continuent de croître malgré tout. Auprès de Platformer, des employés de la société soulignent néanmoins que les équipes licenciées avaient un rôle crucial dans le suivi de l’application réelle des principes éthiques dans le design des produits fabriqués.

L’équipe en charge de l’éthique de l’IA a compté jusqu’à 30 personnes en 2020. En octobre, elle avait déjà été réduite à sept. Parmi ses travaux les plus récents, elle était en charge d’ausculter les potentiels risques posés par les technologies d’OpenAI potentiellement intégrées à la suite d’outils Microsoft.

Plusieurs employés témoignent de la très forte pression effectuée par la direction de la société pour sortir le plus rapidement possible les outils en question.

Ailleurs en ligne, cette « urgence » est critiquée, notamment par la linguiste Emily Bender. Sur Twitter, celle-ci appelle à se demander ce qui provoque une telle urgence (à part le strict business), vers quel progrès l’IA est réellement censée emmener les utilisateurs… et quelles régulations imaginer.

L’affaire rappelle aussi le licenciement de Timnit Gebru puis Margaret Mitchell, alors à la tête de la cellule en charge de l’éthique de l’intelligence artificielle chez Google, en 2020, puisque celui-ci avait eu lieu juste après qu’elles proposent un papier de recherche critiquant les effets sociaux et environnementaux de certaines de ces technologies.

Commentaires (23)


Il ne fait pas bon de travailler dans les équipes d’éthique de ces chères multinationales. Après Twitter, c”est Microsoft qui s’en débarrasse. Ça promet rien de bon pour le respect des utilisateurs de ChatGPT…


Tout va bien ! Aucune raison de s’inquiéter.


Skynet à l’oeuvre :mad2:


… éthique !
Et toc !


Et Tiktok ?



Attention, il y en a qui aiment les bâtons gros et durs :D


Simple gestion des risques. Il y a plus de risques financiers à faire des produits éthiques donc en retard par rapport au peloton, que de mettre en production le plus vite possible un truc à peine fonctionnel pour être dans le mouvement.



Les financeurs aiment les têtes de pont. Il ne fait pas bon d’être un suiveur dans le monde de la tech. Si t’es pas devant, ton action plonge.


Éthique et entreprise ce sont deux mots qui ne vont pas ensemble.
Le seul moyen de faire entrer un peu d’éthique en entreprise ce sont des lois contraignantes assorties de sanctions plus élevées que le gain espéré, c’est à peu près la seule chose que ces gens puissent comprendre.
La punition, pas de carotte, juste des bâtons de préférence gros et très dur.


“Micro$oft” et “éthique”, dans la même phrase, c’était pas cohérent non plus :-)



max6 a dit:


La punition, pas de carotte, juste des bâtons de préférence gros et très dur.




Cela pourrait avoir un gros succès dans le cadre des divertissements pour adultes :D



Plus sérieusement, la fuite en avant dans le contexte actuel de la tech (cyber attaques, migration vers le cloud, …) est un comportement de « lapin dans les phares ». M’est avis qu’il serait plus judicieux de sortir la tête du guidon et d’investir sur les « voies de sortie » plutôt de suivre aveuglément le peloton. Maintenant, il faut savoir si les entreprises (GAFAM, ESN, …) disposent (encore) des compétences adéquates pour regarder au delà du nuage de poussière soulevé par la horde bêlantes des p’tits soldats boursiers.


Dommage, perso j’aime bien leur version spécifique de chatgpt (que j’ai testé par l’intermédiaire de you point comme), elle semble mieux maitriser et manier la langue française que l’original…



Mais, comme l’IA elle-même l’avoue, elle n’est pas à l’abri de manips de toutes sortes visant à détourner son fonctionnement et/ou ses résultats vers des usages ou discours nettement moins nobles.



En fait ce travail de correction et d’amélioration “éthique” demande un effort soutenu et continu, parce que chaque jour qui passe, de nouveaux “trucs et astuces” sortent pour la détourner des buts pour lesquels ce gros tas de code a été conçu…


Je suis curieux de savoir si MS pourrait se voir considérée comme responsable en cas de crime aidé par la complicité d’une IA de son crû, et qui aurait pu être évitée par ces équipes de l’éthique.


Je pense que ça doit être la même réponse que de se demander si OSM ou Google Maps peuvent être considérés comme complices pour avoir aidé des terroristes à se repérer.


SebGF

Je pense que ça doit être la même réponse que de se demander si OSM ou Google Maps peuvent être considérés comme complices pour avoir aidé des terroristes à se repérer.


Je ne suis pas tout à fait d’accord : il est impossible d’éviter une utilisation détournée d’un outil, j’en convient, mais quand on fait preuve de négligence dans la conception même de l’outil, c’est une autre histoire !



Imagine qu’une arme à feu soit tellement mal faite que dans certains cas, la balle partirait à droite plutôt que tout droit : un innocent touché par cette balle pourrait légitimement se retourner contre le constructeur de l’arme. Je ne suis pas juriste, mais ça ne me semble pas complètement déconnant.



Pour le coup, c’est la négligence qui est importante pour moi. Et là, franchement, si ce n’en n’est pas, ça y ressemble fortement !


potn

Je ne suis pas tout à fait d’accord : il est impossible d’éviter une utilisation détournée d’un outil, j’en convient, mais quand on fait preuve de négligence dans la conception même de l’outil, c’est une autre histoire !



Imagine qu’une arme à feu soit tellement mal faite que dans certains cas, la balle partirait à droite plutôt que tout droit : un innocent touché par cette balle pourrait légitimement se retourner contre le constructeur de l’arme. Je ne suis pas juriste, mais ça ne me semble pas complètement déconnant.



Pour le coup, c’est la négligence qui est importante pour moi. Et là, franchement, si ce n’en n’est pas, ça y ressemble fortement !


Pour moi il y a plusieurs choses :



Sur le sujet de la responsabilité, je préfère prendre l’exemple du véhicule autonome. Celui des armes me paraît peu pertinent dans une application réelle, tu as peu de chances que son fabricant soit accusé pour une victime collatérale dans la mesure où son usage même est déjà peu toléré dans la société (accessoirement la plupart des armes à feu ont des défauts de canon ou de recul que le tireur doit apprendre à compenser).



Dans la loi française il est indiqué qu’en cas d’accident provoqué par le système de conduite autonome c’est le constructeur qui sera responsable si l’usage était conforme à ses conditions d’utilisation au moment des faits. Mais pour ça il faut donc bien démontrer que ce n’est pas le conducteur qui a fait n’importe quoi.



Ensuite, tu évoques la négligence de conception qui pourrait potentiellement entraîner un usage malveillant. Sur ce point, pour moi il est nécessaire de démontrer que la suppression de l’équipe dont il est question dans l’article est à l’origine de ce défaut. Or, l’article cite que l’entreprise maintient un bureau “IA responsable” “en charge de créer les règles et les principes à suivre dans les projets impliquant des technologies d’intelligence artificielle”. Donc à priori, on peut difficilement conclure que le sujet est ignoré.


SebGF

Pour moi il y a plusieurs choses :



Sur le sujet de la responsabilité, je préfère prendre l’exemple du véhicule autonome. Celui des armes me paraît peu pertinent dans une application réelle, tu as peu de chances que son fabricant soit accusé pour une victime collatérale dans la mesure où son usage même est déjà peu toléré dans la société (accessoirement la plupart des armes à feu ont des défauts de canon ou de recul que le tireur doit apprendre à compenser).



Dans la loi française il est indiqué qu’en cas d’accident provoqué par le système de conduite autonome c’est le constructeur qui sera responsable si l’usage était conforme à ses conditions d’utilisation au moment des faits. Mais pour ça il faut donc bien démontrer que ce n’est pas le conducteur qui a fait n’importe quoi.



Ensuite, tu évoques la négligence de conception qui pourrait potentiellement entraîner un usage malveillant. Sur ce point, pour moi il est nécessaire de démontrer que la suppression de l’équipe dont il est question dans l’article est à l’origine de ce défaut. Or, l’article cite que l’entreprise maintient un bureau “IA responsable” “en charge de créer les règles et les principes à suivre dans les projets impliquant des technologies d’intelligence artificielle”. Donc à priori, on peut difficilement conclure que le sujet est ignoré.


Très bien, merci beaucoup pour tes éclairages. 😉


T’as pas besoin d’éthique !



SixK a dit:


T’as pas besoin d’éthique !




Ouais, en plus “l’éthique” ça pique !! :D
:fumer:


Voila ce qui arrive quand on laisse l’IA se charger des recrutement/licenciement. :transpi:


C’est parce que l’équipe dédiée à l’éthique de l’IA a mal fait son travail.
Et donc qu’elle mérite bien de se faire licencier. :transpi:



bistouille a dit:


“Micro$oft” et “éthique”, dans la même phrase, c’était pas cohérent non plus :-)





C’est comme “Windows” et “Serveur”, ça m’a toujours fait rire.



:humour: :mdr2:


Ailleurs en ligne, cette « urgence » est critiquée, notamment par la linguiste Emily Bender. Sur Twitter, celle-ci appelle à se demander ce qui provoque une telle urgence (à part le strict business), vers quel progrès l’IA est réellement censée emmener les utilisateurs… et quelles régulations imaginer.



Comme d’hab, c’est les utilisateurs/clients qui vont répondre à ça, MS doit rapidement mettre gratuitement les outils en place pour que les gens trouvent eux-mêmes des utilisations que MS pourra commercialisées en abonnement dans un deuxième temps #classicMS :ouioui:


rien ne m’étonne, enfin, chez certains


Le contre-pied serait de voir émerger, dans les années à venir, une communauté forte sur l’IA à partir de tous ces licenciés. Communauté qui aurait un poids assez conséquent pour alerter les décideurs politiques de légiférer sur le sujet et empêcher ces entreprises de faire n’importe quoi.



Déjà le manque de législation, tout du moins appliquée, au sujet des réseaux sociaux cette dernières décennie a eu de graves impacts sur la société en général. Si on reproduit les mêmes erreurs avec les IA, dont les conséquences peuvent être toutes autres…


Fermer