Des algorithmes dans les processus de licenciement
Le 23 février 2023 à 07h46
3 min
Sciences et espace
Sciences
Après avoir aidé au recrutement – avec une efficacité relative –, les algorithmes sont-ils utilisés pour choisir qui licencier ? Telle est l’une des questions que se posent les employés des grandes entreprises numériques, à raison, selon le Washington Post.
98 % des responsables de ressources humaines interrogés pour une étude menée en janvier 2023 par Capterra ont effectivement affirmé que des algorithmes ou logiciels reposant sur des algorithmes les aideraient dans leurs prises de décision relatives à d’éventuels licenciements.
- Après Meta et Twitter, Amazon devrait licencier 10 000 employés
- Encore une vague de licenciement chez PayPal
- Tesla nie le lien entre syndicalisation et licenciements sur un de ses sites
Alors que les entreprises en question mettent à la porte des employés par dizaines de milliers, dans les pires des cas, il devient humainement très complexe de prendre la totalité des décisions.
Des outils informatiques qui étaient jusque-là utilisés pour trouver la « bonne personne » pour un poste récemment ouvert serviraient donc à estimer de quelles compétences l’entreprise n’a plus, ou moins, besoin.
Les technologies de suivi des performances sont les premiers outils vers lesquels se tournent les services de ressources humaines pour décider qui garder ou non. Mais les récentes évolutions de l’intelligence artificielle ont largement profité au secteur, et de nombreux algorithmes dédiés à la gestion des personnels, en particulier des outils pensés pour estimer le « risque de fuite », peuvent aussi être utilisés.
Selon un analyste de Capterra, ceci peut poser problème dans le cas d’entreprises présentant des cas de discrimination. Si, par exemple, les personnes non blanches la quittent plus fréquemment à cause de problématiques au travail, mais que l’algorithme n’est pas entraîné à prendre ce facteur en compte, la machine risque de surévaluer le « risque de fuite » de ces mêmes personnes, donc de les licencier plus fréquemment.
- Les algorithmes, entre intelligence et injustice artificielle
- L’agence européenne des droits fondamentaux met en garde contre les biais algorithmiques
Comme le précise Guillaume Champeau sur Twitter, ce type d’usage algorithmique est a priori interdit dans l’Union Européenne puisque l’article 22 du Règlement Général sur la Protection des données dispose le droit de chacun à « ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé (...) l'affectant de manière significative ».
Le 23 février 2023 à 07h46
Commentaires (22)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 23/02/2023 à 08h03
Normalement en France, les critères de choix de l’employé licencié sont explicités dans le Plan de Sauvegarde de l’Emploi (PSE) dévoilé aux Comité Social d’Entreprise (Age, ancienneté, fermeture d’une activité ou d’un service) et rappelle que les personnes licenciées sont prioritaires pendant un an en cas de réembauche par le même employeur pour le même type de poste.
Le 23/02/2023 à 09h54
“Le PSE est obligatoire dans les entreprises de 50 salariés minimum, lorsque le projet de licenciement concerne 10 salariés minimum sur une période de 30 jours consécutifs.”
Donc si tu restes à 9 licenciements par 30 jours glissants, c’est bon (sachant qu’une rupture conventionnelle n’est pas un licenciement)
Le 23/02/2023 à 08h32
Ca va être la promotion de la gestion “pastèque”, tous les indicateurs analysés par l’IA au vert mais tout rouge à l’intérieur.
Le 23/02/2023 à 08h54
Et quand le chargé RH (voire DRH) sera notifié par l’IA que c’est lui qu’il faut dégager, est-ce qu’il validera ce choix ?
Le 23/02/2023 à 09h32
Mais comment la machine pourrait stigmatiser les non blancs si elle ne connait pas la couleur de peau des employés ?
Est-ce que les données ethniques sont utilisées dans les entreprises américaines ? C’est affreux si c’est le cas.
Et puis dans quelques années, les algo seront si complexes qu’on ne pourra même pas tirer de raison à la décision de l’IA. Pourquoi ai-je été viré ? La machine l’a décidé…
Le 23/02/2023 à 12h05
C’est la remarque que j’allais faire. En France, il est interdit d’avoir une notion comme « non-blanc » dans un fichier informatique. Il aurait été utile de le préciser aussi dans la brève.
Un bon moyen de ne pas avoir de biais racistes ou sexistes dans les algos à apprentissage, ce serait avant tout de ne pas leur donner à manger des données contenant de telles étiquettes. Et si on se rend compte qu’ils ont toujours des biais, là ça deviendrait hyper intéressant à étudier (càd, on pourrait mettre le doigt sur d’autres corrélations et en conséquence travailler dessus).
Le 23/02/2023 à 09h41
Parmi les critères pour choisir les salariés concernés par un licenciement économique, le Code du travail prévoit surtout “les qualités professionnelles appréciées par catégorie”, c’est-à-dire l’évaluation individuelle, la note, bref : la tête du client.
Le 23/02/2023 à 09h43
ChatGPT, donne moi la liste de mes employés à virer stp.
Le 23/02/2023 à 09h46
Oups, wrong chan
Le 23/02/2023 à 13h17
Le plus critique dans cette pratique de potentiellement utiliser l’IA pour les licenciements, c’est de savoir quels critères sont utilisés :
Bref, encore un signe qu’il est grand temps de remettre l’église au milieu du village.
Le 23/02/2023 à 16h32
“le droit de chacun à « ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé (…) l’affectant de manière significative ».”
Donc à partir du moment où un humain participe à la décision (“j’aime pas sa tête”, “j’ai tiré à pile ou face en affectant un poids de 0.01”) c’est pas exclusivement automatisé donc c’est bon ?
Le 23/02/2023 à 20h35
Tout à fait, seul l’humain a le droit de prétendre son non-automatisme.
Le 23/02/2023 à 19h15
Mal barré avec le communautarisme qui préfère exacerber les différences plutôt que les gommer.
Le 23/02/2023 à 21h09
Il suffira donc de saupoudrer le dossier pré-mâché avec une incompatibilité d’humeur, un comportement inapproprié ou utiliser des petits détails pour déguiser une insubordination.
“Donnez-moi le plus honnête des hommes, et je trouverai bien de quoi l’emprisonner”.
La technologie au service de l’inhumanité aura monté la majorité du dossier… et cela rentrera dans les clous du règlement.
Au passage, en France, n’oubliez pas que les indemnités de licenciement sont dorénavant plafonnées, donc on peut vous renvoyer pour une faute grave de mauvaise haleine, en vous l’annonçant hilare, et c’est une (potentielle ! Si vous vous battez - ce que peu de courageux font) ligne de provision facilement épongée quoi qu’il advienne.
Le 24/02/2023 à 10h05
Donc l’IA décide qui virer et génère une liste. L’apprenti gestionnaire RH du moment fait “Sélectionner Tout” et appuie sur “Valider” pour imprimer les recommandés avec A/R. Et on est conforme RGPD…
Le 24/02/2023 à 10h30
Est-ce pire qu’un DRH qui va faire la liste à la tête du client ou en fonction de ses affinités personnelles ?
Le traitement automatisé a au moins le mérite de respecter scrupuleusement les critères qui lui sont fournis, à la différence d’un humain…
Le 24/02/2023 à 11h21
Je suis d’accord avec toi, ce n’était pas mon propos
Le fait est que RGPD ne change pas grand-chose sur l’utilisation d’une IA (ou un algo) sur ce genre de décision : il suffit que ce soit un humain qui valide pour que l’article 22 saute.
Le 24/02/2023 à 15h15
D’ailleurs je pense que ce fameux article pose le même problème que le principe de précaution dans la constitution, une mauvaise réaction politique à une peur mal gérée, et au final une loi contre-productive.
A titre personnel, je considèrerai préférable la garantie d’un traitement purement algorithmique sans aucune intervention humaine, pour réduire les effets de biais et passe-droits. Etant bien sûr entendu que l’algorithme et sa mise en oeuvre doivent pouvoir être audités par un tiers indépendant.
Le 27/02/2023 à 14h38
Arte
Bon visionnage.
Le 27/02/2023 à 15h16
Désole, pas intéressé par les délires d’Arte, si la qualité de traitement du sujet est du même niveau que sur le nucléaire ou la médecine…
Le 24/02/2023 à 10h20
Oui ils sont à fond dans la discrimination “positive” : ce n’est pas obligatoire, mais la plupart des grosses boites ont des quotas partout: 50% de femmes, x % d’affros, y% de mexicains, z% d’asiatiques…
Tu rajoutes qu’il n’y a pas de RGPD chez eux et la donnée utilisée pour respecter les quotas-raciaux-de-discrimination-positive se retrouve utilisé pour autre chose…
En France, on a quelques quotas / indicateurs suivis en CSE : parité homme/femme, tranches d’ages, handicapés… En cas de vagues de licenciement en France les RH vont probablement viser les hommes plutôt jeune non-handicapés en priorité, afin d’améliorer les indicateurs sociaux de l’entreprise…
Par contre ça ne peut pas être ni écrit, ni coder dans un excel / algo pour respecter le RGPD.
Le 24/02/2023 à 12h50
Les employés eux-mêmes revendiquent leur identité ethnique, sexuelle, whatever.
Je travaille avec des boites US et je vois de plus en plus sur leurs profils Microsoft (delve/teams) des logos, drapeaux et autres indicateurs pour revendiquer leur identité. Le plus courant c’est le cercle arc-en-ciel autour de la photo pour LGBT+. T’as aussi la photo de profil avec le point levé pour BLM. etc.
Ca me rappelle un épisode de “Person Of Interest” où ils disent qu’ils ont créé les rezosociaux uniquement dans l’objectif de collecter des données sur les gens afin d’alimenter leur IA.
Je n’irai pas jusqu’a dire que les nouveaux smileys inclusifs ont été créés juste pour cela, mais c’est assurément un moyen de leaker des informations personnelles sans s’en rendre compte.