Illustration chimérique d'internautesUser/Chimera – Clarote & AI4Media – Better Images of AI

Éthique et tech

À quoi ça ressemble, l’éthique de l’IA en entreprise ?

Illustration chimérique d'internautesUser/Chimera – Clarote & AI4Media – Better Images of AI

Abonnez-vous pour tout dévorer et ne rien manquer.

Déjà abonné ? Se connecter

Abonnez-vous

Dans le petit monde de l’intelligence artificielle, l’éthique de l’IA est parfois promue, parfois critiquée. Dans la pratique, plusieurs études montrent qu’elle n’est pas si simple à mettre en place dans les entreprises.

Début décembre, quatre chercheurs et chercheuses affiliés à l’Université états-unienne de Stanford, dont la française Angèle Christin, publiaient une note issue de leur travail sur la manière dont l’éthique de l’intelligence artificielle se déploie sur le terrain, dans des entreprises technologiques.

Parmi leurs résultats, les scientifiques constatent que dans beaucoup de sociétés, s’il existe des discours bien formulés sur l’éthique de l’IA, ceux-ci ne se traduisent pas nécessairement en modifications réelles des pratiques de travail. L’équipe rapporte aussi que les sujets éthiques sont souvent poussés par des individus solitaires, qui reçoivent relativement peu de soutien des institutions dans lesquelles ils travaillent.

Cela signifie que les considérations éthiques sont rarement transformées en priorités dans le développement des produits, quand les indicateurs adoptés et les modifications fréquentes de l’organisation du travail ne découragent pas carrément les tentatives.

En cela, leur travail rejoint certaines des conclusions tirées par l’équipe française du projet international et multidisciplinaire Shaping AI. Ce dernier vise à comprendre l’évolution des discours autour de l’intelligence artificielle en France, en Allemagne, au Royaume-Uni et au Canada sur une décennie. En France, l’équipe du médialab de Sciences Po a mené son analyse en interrogeant une trentaine de « praticiens de l’IA ».

Parmi ses auteurs, la chercheuse Pauline Gourlet et la doctorante Maud Barret expliquent que « l’éthique de l’IA » n’est, pour commencer, pas abordée en ces termes par tous les membres de la chaîne de fabrication – déploiement – maintien des systèmes. Mais aussi que des thématiques chères à ce domaine, comme celui des biais, peuvent servir à empêcher toute autre forme de dialogue sur les évolutions en cours au sein d'un cadre de travail.

Dans leur restitution (voir aussi cette présentation), les expertes argumentent en faveur d’une « désexceptionalisation » de l’IA, au profit de logiques critiques plus traditionnelles, comme l’analyse (et notamment de la sociologie) des organisations.

Des grilles éthiques sans réflexion sur leurs applications ?

Le champ de l’éthique de l’IA s’est largement étendu dans les années récentes, notamment poussé par des scandales comme celui de Cambridge Analytica et la prise de conscience politique des pratiques des entreprises du numérique, note l’équipe de Stanford. En février, une interview avec le juriste Yannick Meneceur, qui a longuement étudié la production scientifique et politique relative à ce champ d’étude, montrait déjà les limites que ce domaine de recherche pouvait rencontrer.

À l’époque, l’ancien magistrat s’inquiétait, auprès de Next, de « l’énorme confusion » qui existait chez certains acteurs entre questions d’éthiques et problématiques de droits humains et de vie privée qui, elles, « relèvent directement du droit ».

Et d’indiquer que « des partenariats entre intérêts économiques, recherche et société civile permettent aux constructeurs d’arriver avec une grille éthique maison et de dire, en gros, "n’ayez pas peur de nos algorithmes" », quand bien même les bases scientifiques de certains projets d’applications d’IA, notamment celles liées à la détection du mensonge ou des émotions, ne tiennent pas.

Des individus isolés au sein des entreprises

Sans même en arriver là, les scientifiques de l’université américaine ont interrogé 25 praticiens de l’éthique de l’IA, aussi bien des employés que des consultants ou des universitaires. À ces entretiens, elle a ajouté l’observation de groupes de travaux menés par l’industrie et de cursus de formation.

Et de constater qu’au sein des organisations, la question d’une éthique de l’AI est souvent promue par des personnes seules. Face au manque d'adhésion « de la part de la direction », celles-ci « prennent la responsabilité du changement des opérations en utilisant des stratégies de persuasion et des compétences diplomatiques pour convaincre les ingénieurs et les chefs de produit d'intégrer des considérations éthiques dans le développement » de leurs technologies.

Dans les plus grandes entreprises, il arrive aussi que « les équipes d’IA responsables soient isolées, ce qui empêche de transformer leur travail en tâches essentielles dans les organisations ». Quant à la hiérarchie des objectifs, elle ne joue pas en leur faveur : ceux relatifs à la production dépassent clairement les considérations de construction d’outils éthiques.

« Les chefs de produit perçoivent souvent les activités des équipes d’IA responsable comme un frein au développement du produit, voire un facteur de retard au lancement ou de mise en péril de certains revenus », relève par ailleurs l’équipe de Stanford. Au sein des entreprises, les équipes produits sont aussi « fréquemment réticentes aux évaluations éthiques », parce que ces dernières « ne sont souvent réalisées qu’au moment où le produit est prêt à être mis sur le marché, ce qui signifie que les équipes risques d’avoir à corriger le tir juste avant la date de lancement ».

Les autrices de Shaping AI, elles, ont aussi relevé dans leurs expérimentations le détournement de concepts tirés du champ de l’éthique de l’IA pour bloquer toute autre critique des évolutions au sein des organisations. Ainsi, certains employés rapportent que le seul sujet sur lequel ils aient réellement pu travailler avec leur direction concernait les « biais des algorithmes ». Les autres sujets de débats et de critiques, y compris liés à l'organisation du travail, étaient écartés.

Réguler… les humains, plutôt que les technologies ?

Alors que l’Union européenne met la dernière main à son règlement sur l’intelligence artificielle, et que le gouvernement américain travaille à ses propres logiques d’encadrement du domaine, Sann J. Ali, Angèle Christin, Andrew Smart et Riitta Katila notent que les régulations gouvernementales « pourraient jouer un rôle crucial dans l’évolution et la formalisation du champ de l’éthique de l’IA en motivant les dirigeants à prioriser les problématiques éthiques et à protéger les employés » spécialisés dans le domaine (par exemple, en évitant de les licencier à la première occasion)

Dans la Law Society Gazette, l’avocat britannique Jacob Turner et le spécialiste des politiques de l’IA (actuellement employé par Meta) Tristan Goodman estiment de leur côté que le principal angle mort des discussions sur l’éthique de l’IA concerne les humains. « Lorsqu'un travail implique une expertise opaque et peut-être dangereux s'il est mal fait », la société « exige souvent que les praticiens soient réglementés », écrivent-ils.

Eux argumentent donc en faveur de la régulation des professions liées à l’IA, la création d’un code, ou de certifications. L’idée est proche de celle promue par les signataires du Serment d’Hippocrate du Data Scientist, proposé en 2018 par des experts français du domaine.

Plus largement, de la nécessité de « désexceptionaliser » l’IA mise en valeur dans le travail de Pauline Gourlet et Maud Barret ressort le besoin de s’intéresser à tous les profils qui participent de près ou de loin à la chaîne de fabrication, au déploiement puis au maintien des systèmes d’IA. Après tout, c’est aussi cette chaîne qui justifie le déploiement de ces technologies.

Commentaires (9)


Personnellement j'y fais un rapprochement avec la problématique de la gestion des données personnelles et la méconnaissance du sujet par les responsables de projet.

C'est un domaine qui est réglementé (à l'échelle Européenne), a des définitions, des obligations, incombe à des responsabilités, mais pourtant, je ne vois que très peu de projets qui ont le réflexe d'aller consulter le DPO. Je suis obligé de les renvoyer là bas de manière quasi systématique.

L'éthique de l'usage de l'IA me semble partie dans la même voie malgré les garde fous mis au niveau de la commercialisation de ces offres. Par exemple, on ne peut pas souscrire à Azure OpenAI Service comme ça (à l'inverse, on peut utiliser les API OpenAI librement). Il n'est possible d'avoir ce service que lorsqu'on est un client professionnel de Microsoft et il faut remplir un formulaire indiquant que le client s'engage à respecter les différentes chartes d'usage de l'éditeur. C'est de l'engagement "oral", certes, mais ça peut entraîner des actions car derrière c'est aussi lié au contrat.

Mais au delà de ça, l'usage fait par le client ne peut décemment pas se faire sans accompagnement au même titre qu'on ne peut intégrer une solution au SI sans avoir fait la revue de celle-ci au niveau des différentes exigences fonctionnelles et non fonctionnelles (ex : les données sont-elles stockées de manière sécurisée, CMEK, gestion des données personnelles, etc).

Hélas, comme je le partageais sur l'article relatif à Log4Shell, les enjeux métier ne sont généralement pas pilotés par les mêmes exigences et se contrefoutent de celles qui ne les "regarde pas" (alors que si !!). Donc l'usage éthique de l'IA risque de tomber dans le même sac que la gestion des données personnelles et la sécurité IT : celui des emmerdeurs empêcheurs d'avancer.

Dans la partie réglementation, un homologue du DPO sur ces sujets aurait un intérêt je pense.
Modifié le 21/12/2023 à 07h23
Concernant le droit d'auteur, on est mal barré :
https://www.businessinsider.com/marc-andreessen-horowitz-ai-copyright-2023-11

Et pour l'éthique des données d'entrainement :
https://arstechnica.com/tech-policy/2023/12/child-sex-abuse-images-found-in-dataset-training-image-generators-report-says/

bilbonsacquet

Concernant le droit d'auteur, on est mal barré :
https://www.businessinsider.com/marc-andreessen-horowitz-ai-copyright-2023-11

Et pour l'éthique des données d'entrainement :
https://arstechnica.com/tech-policy/2023/12/child-sex-abuse-images-found-in-dataset-training-image-generators-report-says/
Sur le premier point, il fait du lobbying, rien de plus normal.

Sur le second point, tu as lu l'article ?
Il y a de l'ordre de 1000 images concernées sur des milliards d'images. C'est donc très très faible. Comme ces données viennent du Web ouvert, elles ne font que représenter ce que l'on peut y retrouver et c'était probablement difficile à éviter. À la limite, ce sont les sites où étaient ces images qui sont fautifs (suivant la loi du pays où ils sont). L'ONG à but non lucratif qui a généré cet ensemble de données a réagit rapidement et a supprimé les données.
Je comprends ton rapprochement.

Mais, cela n'a rien à voir. C'est d'ailleurs dit dans l'article : l'éthique ce n'est pas du droit.

En fait, je suis mal à l'aise avec cet article parce qu'il parle de l'éthique de l'IA alors que l'éthique, c'est de la morale. Et comme je l'ai déjà dit plusieurs fois dans des articles parlant du droit où certains parlaient de morale : la morale, chacun a la sienne.

De plus, le champ de l'éthique de l'IA n'est pas défini alors qu'il peut concerner plusieurs domaines. Ça va d'être éthique avec les utilisateurs en leur fournissant un système bien entraîné (fiable) ou aussi qui fasse des réponses éthiques (bien pensantes), avec les personnes qui classifient les données d'entrée (les payer suffisamment, ne pas exploiter des travailleurs du clic dans des pays pauvre, ne pas les exposer à des données choquantes,...), avec ceux qui produisent les données servant à l'entraînement (rémunération de l'utilisation de leurs œuvres par exemple) et probablement d'autres aspects qui ne me viennent pas à l'esprit.

De toute façon, rien n'oblige une société (ou autre organisation) à être éthique. Le but d'une société est avant tout de gagner de l'argent. C'est souvent incompatible avec une forte éthique. À la limite, seule la peur d'une mauvaise réputation (et donc de la perte de clients) peut forcer une société à avoir de l'éthique
Si l'on veut imposer des obligations à une société, il faut passer par la loi et on tombe alors dans le domaine du droit.

Il n'y a donc pas plus de raison de parler d'éthique pour le domaine de l'IA que de n'importe quel domaine.

fred42

Je comprends ton rapprochement.

Mais, cela n'a rien à voir. C'est d'ailleurs dit dans l'article : l'éthique ce n'est pas du droit.

En fait, je suis mal à l'aise avec cet article parce qu'il parle de l'éthique de l'IA alors que l'éthique, c'est de la morale. Et comme je l'ai déjà dit plusieurs fois dans des articles parlant du droit où certains parlaient de morale : la morale, chacun a la sienne.

De plus, le champ de l'éthique de l'IA n'est pas défini alors qu'il peut concerner plusieurs domaines. Ça va d'être éthique avec les utilisateurs en leur fournissant un système bien entraîné (fiable) ou aussi qui fasse des réponses éthiques (bien pensantes), avec les personnes qui classifient les données d'entrée (les payer suffisamment, ne pas exploiter des travailleurs du clic dans des pays pauvre, ne pas les exposer à des données choquantes,...), avec ceux qui produisent les données servant à l'entraînement (rémunération de l'utilisation de leurs œuvres par exemple) et probablement d'autres aspects qui ne me viennent pas à l'esprit.

De toute façon, rien n'oblige une société (ou autre organisation) à être éthique. Le but d'une société est avant tout de gagner de l'argent. C'est souvent incompatible avec une forte éthique. À la limite, seule la peur d'une mauvaise réputation (et donc de la perte de clients) peut forcer une société à avoir de l'éthique
Si l'on veut imposer des obligations à une société, il faut passer par la loi et on tombe alors dans le domaine du droit.

Il n'y a donc pas plus de raison de parler d'éthique pour le domaine de l'IA que de n'importe quel domaine.
S'il est vrai que l'argent appelle l'argent, une entreprise n'a pas uniquement l'argent comme objet, à part si l'actionnariat est composé d'acteurs financiers qui recherchent le dividende ou l’accroissement de valeur à tout prix. Par exemples, la presse, les professions libérales (médicales, juridiques), les métiers de l'artisanat ont un sens éthique, et je dirais même les gafam (transhumanisme, long-termisme).

Je comprends la préoccupation d'éviter de tout moraliser afin de laisser le champ libre à l'indépendance, l'innovation, l'initiative, l'ambition, etc : ça peut engendrer un ordre moral qui fige les individus et empêche toute émancipation.

fred42

Je comprends ton rapprochement.

Mais, cela n'a rien à voir. C'est d'ailleurs dit dans l'article : l'éthique ce n'est pas du droit.

En fait, je suis mal à l'aise avec cet article parce qu'il parle de l'éthique de l'IA alors que l'éthique, c'est de la morale. Et comme je l'ai déjà dit plusieurs fois dans des articles parlant du droit où certains parlaient de morale : la morale, chacun a la sienne.

De plus, le champ de l'éthique de l'IA n'est pas défini alors qu'il peut concerner plusieurs domaines. Ça va d'être éthique avec les utilisateurs en leur fournissant un système bien entraîné (fiable) ou aussi qui fasse des réponses éthiques (bien pensantes), avec les personnes qui classifient les données d'entrée (les payer suffisamment, ne pas exploiter des travailleurs du clic dans des pays pauvre, ne pas les exposer à des données choquantes,...), avec ceux qui produisent les données servant à l'entraînement (rémunération de l'utilisation de leurs œuvres par exemple) et probablement d'autres aspects qui ne me viennent pas à l'esprit.

De toute façon, rien n'oblige une société (ou autre organisation) à être éthique. Le but d'une société est avant tout de gagner de l'argent. C'est souvent incompatible avec une forte éthique. À la limite, seule la peur d'une mauvaise réputation (et donc de la perte de clients) peut forcer une société à avoir de l'éthique
Si l'on veut imposer des obligations à une société, il faut passer par la loi et on tombe alors dans le domaine du droit.

Il n'y a donc pas plus de raison de parler d'éthique pour le domaine de l'IA que de n'importe quel domaine.
Bien que l'éthique soit de la morale, il y a un moment où, en tous cas dans le domaine balbutiant de l'IA "grand public" et des offres GenAI qui se développent, une part juridique s'installe quand même.

C'est celle que je citais avec les contrats. Dans mon exemple, un client qui veut utiliser Microsoft Azure OpenAI Service doit expressément en faire la demande car ce n'est pas un produit en libre service contrairement à la majorité de l'offre du CSP. Et dans cette demande, il est indiqué qu'il s'engage à respecter le code de conduite du produit : https://learn.microsoft.com/en-us/legal/cognitive-services/openai/code-of-conduct

Ainsi que les parties relatives au traitement des données : https://learn.microsoft.com/en-us/legal/cognitive-services/openai/data-privacy

Comprenant notamment une possibilité où le client peut demander, moyennant justification, à désactiver les filtres.

C'est sur cet aspect que je faisais un rapprochement avec le RGPD et mon expérience professionnelle relative à ce sujet. Car on est bien sur des engagements écrits pour le coup avec des responsabilités propres et des obligations demandées aux parties prenantes. L'un réglementaire, l'autre contractuel (pour le moment).

L'autre aspect pour lequel je faisais le rapprochement : la gestion des données personnelles est ignorée les 3/4 du temps dans mon expérience.

Exemple simple vécu : lors d'un passage devant un DPO pour référencer le traitement de données personnelles d'une application, celui-ci a notamment indiqué parmi les questions que le responsable produit s'engage à ne pas utiliser les données en dehors du cadre établi par le traitement. L'exemple qu'il avait donné : faire des stats de productivité des employés (l'outil en question était pour faire des inventaires). Quelques mois plus tard, un responsable demandait à extraire les données de l'application pour faire des stats par personne ayant réalisé les inventaires...

Raison pour laquelle je considère que les volontés autour de l'usage dit éthique de l'IA risquent de finir pareil sans garde fous.

Après, le domaine est très jeune et juridiquement encore peu réglementé. Pour l'instant, c'est le marché qui s'auto régule par la voie de la contractualisation (quand il ne s'agit pas de décisions de justice, cf très récemment la cour suprême UK qui a statué que l'IA générative n'est "pas un inventeur", faisant echo aux décisions US) en attendant que la législation n'arrive à terme. On parle beaucoup de son "usage éthique" car le sujet est jeune, bruyant, avec un gros effet de loupe sur ses mauvais usages souvent cités ici, mais effectivement, il n'a pas de raison d'être plus ou moins considéré sur ce sujet que toute autre technologie.

Personnellement, je considère que chercher à réguler la techno pour faire de l'usage dit éthique, c'est comme chercher à réguler un langage de programmation pour dire qu'il ne peut pas générer de malware. C'est illusoire. C'est pourquoi je considère aussi que le travail doit se faire sur l'humain avant tout comme indiqué dans l'article. Mais pour ça, il faut aussi le cadre réglementaire.

C'est aussi l'une des raisons pour lesquelles ce sujet m'enthousiasme beaucoup d'ailleurs. Il s'agit d'une petite révolution en matière d'usage de l'IT et avoir l'occasion d'assister à ses débuts et l'impact sociétal qu'il peut avoir est intéressant.
Modifié le 21/12/2023 à 22h21

SebGF

Bien que l'éthique soit de la morale, il y a un moment où, en tous cas dans le domaine balbutiant de l'IA "grand public" et des offres GenAI qui se développent, une part juridique s'installe quand même.

C'est celle que je citais avec les contrats. Dans mon exemple, un client qui veut utiliser Microsoft Azure OpenAI Service doit expressément en faire la demande car ce n'est pas un produit en libre service contrairement à la majorité de l'offre du CSP. Et dans cette demande, il est indiqué qu'il s'engage à respecter le code de conduite du produit : https://learn.microsoft.com/en-us/legal/cognitive-services/openai/code-of-conduct

Ainsi que les parties relatives au traitement des données : https://learn.microsoft.com/en-us/legal/cognitive-services/openai/data-privacy

Comprenant notamment une possibilité où le client peut demander, moyennant justification, à désactiver les filtres.

C'est sur cet aspect que je faisais un rapprochement avec le RGPD et mon expérience professionnelle relative à ce sujet. Car on est bien sur des engagements écrits pour le coup avec des responsabilités propres et des obligations demandées aux parties prenantes. L'un réglementaire, l'autre contractuel (pour le moment).

L'autre aspect pour lequel je faisais le rapprochement : la gestion des données personnelles est ignorée les 3/4 du temps dans mon expérience.

Exemple simple vécu : lors d'un passage devant un DPO pour référencer le traitement de données personnelles d'une application, celui-ci a notamment indiqué parmi les questions que le responsable produit s'engage à ne pas utiliser les données en dehors du cadre établi par le traitement. L'exemple qu'il avait donné : faire des stats de productivité des employés (l'outil en question était pour faire des inventaires). Quelques mois plus tard, un responsable demandait à extraire les données de l'application pour faire des stats par personne ayant réalisé les inventaires...

Raison pour laquelle je considère que les volontés autour de l'usage dit éthique de l'IA risquent de finir pareil sans garde fous.

Après, le domaine est très jeune et juridiquement encore peu réglementé. Pour l'instant, c'est le marché qui s'auto régule par la voie de la contractualisation (quand il ne s'agit pas de décisions de justice, cf très récemment la cour suprême UK qui a statué que l'IA générative n'est "pas un inventeur", faisant echo aux décisions US) en attendant que la législation n'arrive à terme. On parle beaucoup de son "usage éthique" car le sujet est jeune, bruyant, avec un gros effet de loupe sur ses mauvais usages souvent cités ici, mais effectivement, il n'a pas de raison d'être plus ou moins considéré sur ce sujet que toute autre technologie.

Personnellement, je considère que chercher à réguler la techno pour faire de l'usage dit éthique, c'est comme chercher à réguler un langage de programmation pour dire qu'il ne peut pas générer de malware. C'est illusoire. C'est pourquoi je considère aussi que le travail doit se faire sur l'humain avant tout comme indiqué dans l'article. Mais pour ça, il faut aussi le cadre réglementaire.

C'est aussi l'une des raisons pour lesquelles ce sujet m'enthousiasme beaucoup d'ailleurs. Il s'agit d'une petite révolution en matière d'usage de l'IT et avoir l'occasion d'assister à ses débuts et l'impact sociétal qu'il peut avoir est intéressant.
« Personnellement, je considère que chercher à réguler la techno pour faire de l'usage dit éthique, c'est comme chercher à réguler un langage de programmation pour dire qu'il ne peut pas générer de malware. »


Tu veux dire que tu ne crois pas à la "security by design" ?
https://www.oracle.com/fr/security/secure-by-design/

Pareil pour le "privacy by design" ?
https://www.cnil.fr/fr/preparer-son-developpement

Tu fais peut-être référence à beaucoup de discours sur l'IA qui s'apparentent à de l' "ethics washing".
https://fr.wikipedia.org/wiki/%C3%89thique_de_l%27intelligence_artificielle#Ethics_Washing
Modifié le 21/12/2023 à 22h42

consommateurnumérique

« Personnellement, je considère que chercher à réguler la techno pour faire de l'usage dit éthique, c'est comme chercher à réguler un langage de programmation pour dire qu'il ne peut pas générer de malware. »


Tu veux dire que tu ne crois pas à la "security by design" ?
https://www.oracle.com/fr/security/secure-by-design/

Pareil pour le "privacy by design" ?
https://www.cnil.fr/fr/preparer-son-developpement

Tu fais peut-être référence à beaucoup de discours sur l'IA qui s'apparentent à de l' "ethics washing".
https://fr.wikipedia.org/wiki/%C3%89thique_de_l%27intelligence_artificielle#Ethics_Washing
"By design" signifie penser son implémentation avec ces critères. C'est de l'architecture, ni plus, ni moins, et qui justement vont dans le sens de mon propos : on régule l'usage, pas la techno.

Le langage de programmation qui se situe derrière n'empêchera aucunement de construire un malware si telle est la finalité du projet.

C'est pourquoi on ne peut considérer réguler la technologie derrière l'IA Générative. Brut de fonderie, un modèle pourra produire absolument tout ce qu'il a appris. C'est la raison pour laquelle leurs implémentations commerciales sont généralement fournies avec des filtres de contenus pour les censurer. Quand ils ne vont pas jusqu'à censurer le modèle, mais là c'est un risque de perte d'efficacité de ce dernier.

Pour reprendre l'exemple du malware : GitHub Copilot a des filtres pour empêcher la production de code dangereux. Cependant, étant donné qu'il fait partie de la suite sécurité de l'éditeur, il doit être capable de comprendre ce code pour indiquer en quoi il l'est lors d'une analyse sécurité.
Je m'interroge sur le fait que toute entreprise a une culture d'entreprise mais qu'il semble pourtant si difficile de faire prendre en compte des aménagements qui pourraient profiter à l'entreprise.

Chacun sort le parapluie dès qu'il s'agit de sortir de l'ordinaire. Il faut rassurer la hiérarchie pour le moindre sujet qui implique l'organisation du travail (comme si ça allait coûter trop cher en investissement ou menacer la rentabilité). Chacun protège son pré carré et sa carrière dans l'entreprise.

Sans compter que les fonctions support de l'entreprise (services comptabilité, informatique, etc) sont systématiquement jugées improductives, voire inutiles quand elles ont des exigences (mais toujours sollicitées en cas de besoin).
Modifié le 21/12/2023 à 09h32
Fermer