Des algorithmes dans les processus de licenciement

Des algorithmes dans les processus de licenciement

Des algorithmes dans les processus de licenciement

Après avoir aidé au recrutement – avec une efficacité relative –, les algorithmes sont-ils utilisés pour choisir qui licencier ? Telle est l’une des questions que se posent les employés des grandes entreprises numériques, à raison, selon le Washington Post.

98 % des responsables de ressources humaines interrogés pour une étude menée en janvier 2023 par Capterra ont effectivement affirmé que des algorithmes ou logiciels reposant sur des algorithmes les aideraient dans leurs prises de décision relatives à d’éventuels licenciements.

Alors que les entreprises en question mettent à la porte des employés par dizaines de milliers, dans les pires des cas, il devient humainement très complexe de prendre la totalité des décisions.

Des outils informatiques qui étaient jusque-là utilisés pour trouver la « bonne personne » pour un poste récemment ouvert serviraient donc à estimer de quelles compétences l’entreprise n’a plus, ou moins, besoin.

Les technologies de suivi des performances sont les premiers outils vers lesquels se tournent les services de ressources humaines pour décider qui garder ou non. Mais les récentes évolutions de l’intelligence artificielle ont largement profité au secteur, et de nombreux algorithmes dédiés à la gestion des personnels, en particulier des outils pensés pour estimer le « risque de fuite », peuvent aussi être utilisés.

Selon un analyste de Capterra, ceci peut poser problème dans le cas d’entreprises présentant des cas de discrimination. Si, par exemple, les personnes non blanches la quittent plus fréquemment à cause de problématiques au travail, mais que l’algorithme n’est pas entraîné à prendre ce facteur en compte, la machine risque de surévaluer le « risque de fuite » de ces mêmes personnes, donc de les licencier plus fréquemment.

Comme le précise Guillaume Champeau sur Twitter, ce type d’usage algorithmique est a priori interdit dans l’Union Européenne puisque l’article 22 du Règlement Général sur la Protection des données dispose le droit de chacun à « ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé (...) l'affectant de manière significative ».

Commentaires (22)


Normalement en France, les critères de choix de l’employé licencié sont explicités dans le Plan de Sauvegarde de l’Emploi (PSE) dévoilé aux Comité Social d’Entreprise (Age, ancienneté, fermeture d’une activité ou d’un service) et rappelle que les personnes licenciées sont prioritaires pendant un an en cas de réembauche par le même employeur pour le même type de poste.


“Le PSE est obligatoire dans les entreprises de 50 salariés minimum, lorsque le projet de licenciement concerne 10 salariés minimum sur une période de 30 jours consécutifs.”



Donc si tu restes à 9 licenciements par 30 jours glissants, c’est bon (sachant qu’une rupture conventionnelle n’est pas un licenciement)


Ca va être la promotion de la gestion “pastèque”, tous les indicateurs analysés par l’IA au vert mais tout rouge à l’intérieur.


Et quand le chargé RH (voire DRH) sera notifié par l’IA que c’est lui qu’il faut dégager, est-ce qu’il validera ce choix ?


Mais comment la machine pourrait stigmatiser les non blancs si elle ne connait pas la couleur de peau des employés ?
Est-ce que les données ethniques sont utilisées dans les entreprises américaines ? C’est affreux si c’est le cas.
Et puis dans quelques années, les algo seront si complexes qu’on ne pourra même pas tirer de raison à la décision de l’IA. Pourquoi ai-je été viré ? La machine l’a décidé…


C’est la remarque que j’allais faire. En France, il est interdit d’avoir une notion comme « non-blanc » dans un fichier informatique. Il aurait été utile de le préciser aussi dans la brève.



Un bon moyen de ne pas avoir de biais racistes ou sexistes dans les algos à apprentissage, ce serait avant tout de ne pas leur donner à manger des données contenant de telles étiquettes. Et si on se rend compte qu’ils ont toujours des biais, là ça deviendrait hyper intéressant à étudier (càd, on pourrait mettre le doigt sur d’autres corrélations et en conséquence travailler dessus).



FrancoisA a dit:


Normalement en France, les critères de choix de l’employé licencié sont explicités dans le Plan de Sauvegarde de l’Emploi (PSE) dévoilé aux Comité Social d’Entreprise (Age, ancienneté, fermeture d’une activité ou d’un service) et rappelle que les personnes licenciées sont prioritaires pendant un an en cas de réembauche par le même employeur pour le même type de poste.




Parmi les critères pour choisir les salariés concernés par un licenciement économique, le Code du travail prévoit surtout “les qualités professionnelles appréciées par catégorie”, c’est-à-dire l’évaluation individuelle, la note, bref : la tête du client.


ChatGPT, donne moi la liste de mes employés à virer stp.


Oups, wrong chan :non:


Le plus critique dans cette pratique de potentiellement utiliser l’IA pour les licenciements, c’est de savoir quels critères sont utilisés :




  • Financiers : les gros salaires vont avoir chaud au Q

  • Productivité : (pour peu qu’on arrive à sortie un indicateur fiable) les feignasses et autres arrivistes de base dans le middle-management vont se sentir mal.



Bref, encore un signe qu’il est grand temps de remettre l’église au milieu du village.


“le droit de chacun à « ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé (…) l’affectant de manière significative ».”



Donc à partir du moment où un humain participe à la décision (“j’aime pas sa tête”, “j’ai tiré à pile ou face en affectant un poids de 0.01”) c’est pas exclusivement automatisé donc c’est bon ?


Tout à fait, seul l’humain a le droit de prétendre son non-automatisme. :D :dd:



white_tentacle a dit:


Un bon moyen de ne pas avoir de biais racistes ou sexistes dans les algos à apprentissage, ce serait avant tout de ne pas leur donner à manger des données contenant de telles étiquettes. Et si on se rend compte qu’ils ont toujours des biais, là ça deviendrait hyper intéressant à étudier (càd, on pourrait mettre le doigt sur d’autres corrélations et en conséquence travailler dessus).




Mal barré avec le communautarisme qui préfère exacerber les différences plutôt que les gommer.



Comme le précise Guillaume Champeau sur Twitter, ce type d’usage algorithmique est a priori interdit dans l’Union Européenne puisque l’article 22 du Règlement Général sur la Protection des données dispose le droit de chacun à « ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé (…) l’affectant de manière significative ».




Il suffira donc de saupoudrer le dossier pré-mâché avec une incompatibilité d’humeur, un comportement inapproprié ou utiliser des petits détails pour déguiser une insubordination.
“Donnez-moi le plus honnête des hommes, et je trouverai bien de quoi l’emprisonner”.
La technologie au service de l’inhumanité aura monté la majorité du dossier… et cela rentrera dans les clous du règlement.



Au passage, en France, n’oubliez pas que les indemnités de licenciement sont dorénavant plafonnées, donc on peut vous renvoyer pour une faute grave de mauvaise haleine, en vous l’annonçant hilare, et c’est une (potentielle ! Si vous vous battez - ce que peu de courageux font) ligne de provision facilement épongée quoi qu’il advienne.



droit de chacun à « ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé (…) l’affectant de manière significative »




Donc l’IA décide qui virer et génère une liste. L’apprenti gestionnaire RH du moment fait “Sélectionner Tout” et appuie sur “Valider” pour imprimer les recommandés avec A/R. Et on est conforme RGPD…


Est-ce pire qu’un DRH qui va faire la liste à la tête du client ou en fonction de ses affinités personnelles ?



Le traitement automatisé a au moins le mérite de respecter scrupuleusement les critères qui lui sont fournis, à la différence d’un humain…


mtaapc

Est-ce pire qu’un DRH qui va faire la liste à la tête du client ou en fonction de ses affinités personnelles ?



Le traitement automatisé a au moins le mérite de respecter scrupuleusement les critères qui lui sont fournis, à la différence d’un humain…


Je suis d’accord avec toi, ce n’était pas mon propos :chinois:



Le fait est que RGPD ne change pas grand-chose sur l’utilisation d’une IA (ou un algo) sur ce genre de décision : il suffit que ce soit un humain qui valide pour que l’article 22 saute.


fofo9012

Je suis d’accord avec toi, ce n’était pas mon propos :chinois:



Le fait est que RGPD ne change pas grand-chose sur l’utilisation d’une IA (ou un algo) sur ce genre de décision : il suffit que ce soit un humain qui valide pour que l’article 22 saute.


D’ailleurs je pense que ce fameux article pose le même problème que le principe de précaution dans la constitution, une mauvaise réaction politique à une peur mal gérée, et au final une loi contre-productive.



A titre personnel, je considèrerai préférable la garantie d’un traitement purement algorithmique sans aucune intervention humaine, pour réduire les effets de biais et passe-droits. Etant bien sûr entendu que l’algorithme et sa mise en oeuvre doivent pouvoir être audités par un tiers indépendant.


mtaapc

D’ailleurs je pense que ce fameux article pose le même problème que le principe de précaution dans la constitution, une mauvaise réaction politique à une peur mal gérée, et au final une loi contre-productive.



A titre personnel, je considèrerai préférable la garantie d’un traitement purement algorithmique sans aucune intervention humaine, pour réduire les effets de biais et passe-droits. Etant bien sûr entendu que l’algorithme et sa mise en oeuvre doivent pouvoir être audités par un tiers indépendant.


Désole, pas intéressé par les délires d’Arte, si la qualité de traitement du sujet est du même niveau que sur le nucléaire ou la médecine…



swiper a dit:


Mais comment la machine pourrait stigmatiser les non blancs si elle ne connait pas la couleur de peau des employés ? Est-ce que les données ethniques sont utilisées dans les entreprises américaines ? C’est affreux si c’est le cas. Et puis dans quelques années, les algo seront si complexes qu’on ne pourra même pas tirer de raison à la décision de l’IA. Pourquoi ai-je été viré ? La machine l’a décidé…




Oui ils sont à fond dans la discrimination “positive” : ce n’est pas obligatoire, mais la plupart des grosses boites ont des quotas partout: 50% de femmes, x % d’affros, y% de mexicains, z% d’asiatiques…
Tu rajoutes qu’il n’y a pas de RGPD chez eux et la donnée utilisée pour respecter les quotas-raciaux-de-discrimination-positive se retrouve utilisé pour autre chose…



En France, on a quelques quotas / indicateurs suivis en CSE : parité homme/femme, tranches d’ages, handicapés… En cas de vagues de licenciement en France les RH vont probablement viser les hommes plutôt jeune non-handicapés en priorité, afin d’améliorer les indicateurs sociaux de l’entreprise…
Par contre ça ne peut pas être ni écrit, ni coder dans un excel / algo pour respecter le RGPD.



swiper a dit:


Mais comment la machine pourrait stigmatiser les non blancs si elle ne connait pas la couleur de peau des employés ? Est-ce que les données ethniques sont utilisées dans les entreprises américaines ? C’est affreux si c’est le cas.




Les employés eux-mêmes revendiquent leur identité ethnique, sexuelle, whatever.



Je travaille avec des boites US et je vois de plus en plus sur leurs profils Microsoft (delve/teams) des logos, drapeaux et autres indicateurs pour revendiquer leur identité. Le plus courant c’est le cercle arc-en-ciel autour de la photo pour LGBT+. T’as aussi la photo de profil avec le point levé pour BLM. etc.



Ca me rappelle un épisode de “Person Of Interest” où ils disent qu’ils ont créé les rezosociaux uniquement dans l’objectif de collecter des données sur les gens afin d’alimenter leur IA.



Je n’irai pas jusqu’a dire que les nouveaux smileys inclusifs ont été créés juste pour cela, mais c’est assurément un moyen de leaker des informations personnelles sans s’en rendre compte.


Fermer