Publié dans Économie

23

Microsoft licencie son équipe dédiée à l’éthique de l’IA

Microsoft licencie son équipe dédiée à l’éthique de l’IA

Dans la longue série des licenciements de la tech, cette annonce-ci prend une couleur particulière : l’équipe dédiée à l’éthique de l’intelligence artificielle fait partie des 10 000 personnes licenciées par Microsoft, selon les informations de Platformer. Une décision qui a lieu au moment même où la société accélère dans sa volonté de rendre des outils d’IA accessibles au grand public.

Microsoft gardera un Bureau de l’IA responsable actif, en charge de créer les règles et les principes à suivre dans les projets impliquant des technologies d’intelligence artificielle. L’entreprise déclare par ailleurs que ses investissements généraux dans la responsabilité de l’IA continuent de croître malgré tout. Auprès de Platformer, des employés de la société soulignent néanmoins que les équipes licenciées avaient un rôle crucial dans le suivi de l’application réelle des principes éthiques dans le design des produits fabriqués.

L’équipe en charge de l’éthique de l’IA a compté jusqu’à 30 personnes en 2020. En octobre, elle avait déjà été réduite à sept. Parmi ses travaux les plus récents, elle était en charge d’ausculter les potentiels risques posés par les technologies d’OpenAI potentiellement intégrées à la suite d’outils Microsoft.

Plusieurs employés témoignent de la très forte pression effectuée par la direction de la société pour sortir le plus rapidement possible les outils en question.

Ailleurs en ligne, cette « urgence » est critiquée, notamment par la linguiste Emily Bender. Sur Twitter, celle-ci appelle à se demander ce qui provoque une telle urgence (à part le strict business), vers quel progrès l’IA est réellement censée emmener les utilisateurs… et quelles régulations imaginer.

L’affaire rappelle aussi le licenciement de Timnit Gebru puis Margaret Mitchell, alors à la tête de la cellule en charge de l’éthique de l’intelligence artificielle chez Google, en 2020, puisque celui-ci avait eu lieu juste après qu’elles proposent un papier de recherche critiquant les effets sociaux et environnementaux de certaines de ces technologies.

23

Tiens, en parlant de ça :

dessin de Flock

#Flock distribue des mandales tous azimuts

13:40 Flock 4
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #11 et résumé de la semaine

11:47 Next 7
Carte graphique AMD GeForce

Cartes graphiques : 30 ans d’évolution des GPU

Ha… la bonne époque d’un CF de 4870 X2 !

18:10 Hard 18
dessin de Flock

#Flock distribue des mandales tous azimuts

Flock 4
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #11 et résumé de la semaine

Next 7
Carte graphique AMD GeForce

Cartes graphiques : 30 ans d’évolution des GPU

Hard 18

Google lance son opération de communications Gemini pour rivaliser avec OpenAI

IA 6
Ecran bleu de Windows

Linux : le composant systemd se dote d’un écran bleu de la mort

Soft 32
Une petite fille en train d'apprendre à programmer et hacker logiciels et appareils électroniques

Un roman graphique explique les logiciels libres aux enfants

SoftSociété 18
Nouveautés pour Messenger

Meta lance (enfin) le chiffrement de bout en bout de Messenger, entre autres

Socials 5

#LeBrief : cloud européen, OSIRIS-REx a frôlée la catastrophe, CPU AMD Ryzen 8040

Windows en 2024 : beaucoup d’IA, mais pas forcément un « 12 »

Soft 21
Einstein avec des qubits en arrière plan

Informatique quantique, qubits : avez-vous les bases ?

HardScience 9
Notifications iPhone

Surveillance des notifications : un sénateur américain demande la fin du secret

DroitSécu 17

En ligne, les promos foireuses restent d’actualité

DroitWeb 19

#LeBrief : modalité des amendes RGPD, cyberattaque agricole, hallucinations d’Amazon Q, 25 ans d’ISS

Logo Twitch

Citant des « coûts prohibitifs », Twitch quitte la Corée du Sud

ÉcoWeb 29
Formation aux cryptomonnaies par Binance à Pôle Emploi

Binance fait son marketing pendant des formations sur la blockchain destinées aux chômeurs

Éco 10
Consommation électrique du CERN

L’empreinte écologique CERN en 2022 : 1 215 GWh, 184 173 teqCO₂, 3 234 Ml…

Science 6
station électrique pour voitures

Voitures électriques : dans la jungle, terrible jungle, des bornes de recharge publiques

Société 75

#LeBrief : intelligence artificielle à tous les étages, fichier biométrique EURODAC

KDE Plasma 6

KDE Plasma 6 a sa première bêta, le tour des nouveautés

Soft 13
Un homme noir regarde la caméra. Sur son visage, des traits blancs suggèrent un traitement algorithmique.

AI Act et reconnaissance faciale : la France interpelée par 45 eurodéputés

DroitSociété 4
Api

La CNIL préconise l’utilisation des API pour le partage de données personnelles entre organismes

SécuSociété 3
Fouet de l’Arcep avec de la fibre

Orange sanctionnée sur la fibre : l’argumentaire de l’opérateur démonté par l’Arcep

DroitWeb 23
Bombes

Israël – Hamas : comment l’IA intensifie les attaques contre Gaza

IA 22

#LeBrief : bande-annonce GTA VI, guerre électronique, Spotify licencie massivement

Poing Dev

Le poing Dev – Round 7

Next 102
Logo de Gaia-X sour la forme d’un arbre, avec la légende : infrastructure de données en forme de réseau

Gaia-X « vit toujours » et « arrive à des étapes très concrètes »

WebSécu 6

Trois consoles portables en quelques semaines

Hard 37
Une tasse estampillée "Keep calm and carry on teaching"

Cyberrésilience : les compromis (provisoires) du trilogue européen

DroitSécu 3

#LeBrief : fuite de tests ADN 23andMe, le milliard pour Android Messages, il y a 30 ans Hubble voyait clair

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

23

Commentaires (23)


sylvaing Abonné
Le 15/03/2023 à 07h52

Il ne fait pas bon de travailler dans les équipes d’éthique de ces chères multinationales. Après Twitter, c”est Microsoft qui s’en débarrasse. Ça promet rien de bon pour le respect des utilisateurs de ChatGPT…


numerid Abonné
Le 15/03/2023 à 08h11

Tout va bien ! Aucune raison de s’inquiéter.


alkashee Abonné
Le 15/03/2023 à 08h14

Skynet à l’oeuvre :mad2:


ymv Abonné
Le 15/03/2023 à 08h16

… éthique !
Et toc !


Gamble
Le 15/03/2023 à 09h27

Et Tiktok ?



Attention, il y en a qui aiment les bâtons gros et durs :D


wanou Abonné
Le 15/03/2023 à 08h54

Simple gestion des risques. Il y a plus de risques financiers à faire des produits éthiques donc en retard par rapport au peloton, que de mettre en production le plus vite possible un truc à peine fonctionnel pour être dans le mouvement.



Les financeurs aiment les têtes de pont. Il ne fait pas bon d’être un suiveur dans le monde de la tech. Si t’es pas devant, ton action plonge.


max6
Le 15/03/2023 à 09h23

Éthique et entreprise ce sont deux mots qui ne vont pas ensemble.
Le seul moyen de faire entrer un peu d’éthique en entreprise ce sont des lois contraignantes assorties de sanctions plus élevées que le gain espéré, c’est à peu près la seule chose que ces gens puissent comprendre.
La punition, pas de carotte, juste des bâtons de préférence gros et très dur.


bistouille
Le 15/03/2023 à 09h32

“Micro$oft” et “éthique”, dans la même phrase, c’était pas cohérent non plus :-)


TNZfr
Le 15/03/2023 à 09h34

max6 a dit:


La punition, pas de carotte, juste des bâtons de préférence gros et très dur.




Cela pourrait avoir un gros succès dans le cadre des divertissements pour adultes :D



Plus sérieusement, la fuite en avant dans le contexte actuel de la tech (cyber attaques, migration vers le cloud, …) est un comportement de « lapin dans les phares ». M’est avis qu’il serait plus judicieux de sortir la tête du guidon et d’investir sur les « voies de sortie » plutôt de suivre aveuglément le peloton. Maintenant, il faut savoir si les entreprises (GAFAM, ESN, …) disposent (encore) des compétences adéquates pour regarder au delà du nuage de poussière soulevé par la horde bêlantes des p’tits soldats boursiers.


DantonQ-Robespierre Abonné
Le 15/03/2023 à 11h24

Dommage, perso j’aime bien leur version spécifique de chatgpt (que j’ai testé par l’intermédiaire de you point comme), elle semble mieux maitriser et manier la langue française que l’original…



Mais, comme l’IA elle-même l’avoue, elle n’est pas à l’abri de manips de toutes sortes visant à détourner son fonctionnement et/ou ses résultats vers des usages ou discours nettement moins nobles.



En fait ce travail de correction et d’amélioration “éthique” demande un effort soutenu et continu, parce que chaque jour qui passe, de nouveaux “trucs et astuces” sortent pour la détourner des buts pour lesquels ce gros tas de code a été conçu…


potn Abonné
Le 15/03/2023 à 11h28

Je suis curieux de savoir si MS pourrait se voir considérée comme responsable en cas de crime aidé par la complicité d’une IA de son crû, et qui aurait pu être évitée par ces équipes de l’éthique.


SebGF Abonné
Le 15/03/2023 à 16h33

Je pense que ça doit être la même réponse que de se demander si OSM ou Google Maps peuvent être considérés comme complices pour avoir aidé des terroristes à se repérer.


potn Abonné
Le 18/03/2023 à 10h13

SebGF

Je pense que ça doit être la même réponse que de se demander si OSM ou Google Maps peuvent être considérés comme complices pour avoir aidé des terroristes à se repérer.

Je ne suis pas tout à fait d’accord : il est impossible d’éviter une utilisation détournée d’un outil, j’en convient, mais quand on fait preuve de négligence dans la conception même de l’outil, c’est une autre histoire !



Imagine qu’une arme à feu soit tellement mal faite que dans certains cas, la balle partirait à droite plutôt que tout droit : un innocent touché par cette balle pourrait légitimement se retourner contre le constructeur de l’arme. Je ne suis pas juriste, mais ça ne me semble pas complètement déconnant.



Pour le coup, c’est la négligence qui est importante pour moi. Et là, franchement, si ce n’en n’est pas, ça y ressemble fortement !


SebGF Abonné
Le 18/03/2023 à 11h06

potn

Je ne suis pas tout à fait d’accord : il est impossible d’éviter une utilisation détournée d’un outil, j’en convient, mais quand on fait preuve de négligence dans la conception même de l’outil, c’est une autre histoire !

Imagine qu’une arme à feu soit tellement mal faite que dans certains cas, la balle partirait à droite plutôt que tout droit : un innocent touché par cette balle pourrait légitimement se retourner contre le constructeur de l’arme. Je ne suis pas juriste, mais ça ne me semble pas complètement déconnant.

Pour le coup, c’est la négligence qui est importante pour moi. Et là, franchement, si ce n’en n’est pas, ça y ressemble fortement !

Pour moi il y a plusieurs choses :



Sur le sujet de la responsabilité, je préfère prendre l’exemple du véhicule autonome. Celui des armes me paraît peu pertinent dans une application réelle, tu as peu de chances que son fabricant soit accusé pour une victime collatérale dans la mesure où son usage même est déjà peu toléré dans la société (accessoirement la plupart des armes à feu ont des défauts de canon ou de recul que le tireur doit apprendre à compenser).



Dans la loi française il est indiqué qu’en cas d’accident provoqué par le système de conduite autonome c’est le constructeur qui sera responsable si l’usage était conforme à ses conditions d’utilisation au moment des faits. Mais pour ça il faut donc bien démontrer que ce n’est pas le conducteur qui a fait n’importe quoi.



Ensuite, tu évoques la négligence de conception qui pourrait potentiellement entraîner un usage malveillant. Sur ce point, pour moi il est nécessaire de démontrer que la suppression de l’équipe dont il est question dans l’article est à l’origine de ce défaut. Or, l’article cite que l’entreprise maintient un bureau “IA responsable” “en charge de créer les règles et les principes à suivre dans les projets impliquant des technologies d’intelligence artificielle”. Donc à priori, on peut difficilement conclure que le sujet est ignoré.


potn Abonné
Le 18/03/2023 à 12h16

SebGF

Pour moi il y a plusieurs choses :

Sur le sujet de la responsabilité, je préfère prendre l’exemple du véhicule autonome. Celui des armes me paraît peu pertinent dans une application réelle, tu as peu de chances que son fabricant soit accusé pour une victime collatérale dans la mesure où son usage même est déjà peu toléré dans la société (accessoirement la plupart des armes à feu ont des défauts de canon ou de recul que le tireur doit apprendre à compenser).

Dans la loi française il est indiqué qu’en cas d’accident provoqué par le système de conduite autonome c’est le constructeur qui sera responsable si l’usage était conforme à ses conditions d’utilisation au moment des faits. Mais pour ça il faut donc bien démontrer que ce n’est pas le conducteur qui a fait n’importe quoi.

Ensuite, tu évoques la négligence de conception qui pourrait potentiellement entraîner un usage malveillant. Sur ce point, pour moi il est nécessaire de démontrer que la suppression de l’équipe dont il est question dans l’article est à l’origine de ce défaut. Or, l’article cite que l’entreprise maintient un bureau “IA responsable” “en charge de créer les règles et les principes à suivre dans les projets impliquant des technologies d’intelligence artificielle”. Donc à priori, on peut difficilement conclure que le sujet est ignoré.

Très bien, merci beaucoup pour tes éclairages. 😉


SixK
Le 15/03/2023 à 13h28

T’as pas besoin d’éthique !


gavroche69 Abonné
Le 15/03/2023 à 14h39

SixK a dit:


T’as pas besoin d’éthique !




Ouais, en plus “l’éthique” ça pique !! :D
:fumer:


XXC Abonné
Le 15/03/2023 à 15h31

Voila ce qui arrive quand on laisse l’IA se charger des recrutement/licenciement. :transpi:


Mihashi Abonné
Le 15/03/2023 à 16h16

C’est parce que l’équipe dédiée à l’éthique de l’IA a mal fait son travail.
Et donc qu’elle mérite bien de se faire licencier. :transpi:


GruntZ Abonné
Le 15/03/2023 à 16h03

bistouille a dit:


“Micro$oft” et “éthique”, dans la même phrase, c’était pas cohérent non plus :-)





C’est comme “Windows” et “Serveur”, ça m’a toujours fait rire.



:humour: :mdr2:


SuperMot
Le 15/03/2023 à 17h25

Ailleurs en ligne, cette « urgence » est critiquée, notamment par la linguiste Emily Bender. Sur Twitter, celle-ci appelle à se demander ce qui provoque une telle urgence (à part le strict business), vers quel progrès l’IA est réellement censée emmener les utilisateurs… et quelles régulations imaginer.



Comme d’hab, c’est les utilisateurs/clients qui vont répondre à ça, MS doit rapidement mettre gratuitement les outils en place pour que les gens trouvent eux-mêmes des utilisations que MS pourra commercialisées en abonnement dans un deuxième temps #classicMS :ouioui:


tontonCD
Le 15/03/2023 à 18h54

rien ne m’étonne, enfin, chez certains


Furanku Abonné
Le 16/03/2023 à 06h07

Le contre-pied serait de voir émerger, dans les années à venir, une communauté forte sur l’IA à partir de tous ces licenciés. Communauté qui aurait un poids assez conséquent pour alerter les décideurs politiques de légiférer sur le sujet et empêcher ces entreprises de faire n’importe quoi.



Déjà le manque de législation, tout du moins appliquée, au sujet des réseaux sociaux cette dernières décennie a eu de graves impacts sur la société en général. Si on reproduit les mêmes erreurs avec les IA, dont les conséquences peuvent être toutes autres…