Connexion
Abonnez-vous

Aux impôts, les agents contestent l’utilité de l’intelligence artificielle

Ouvrez le dialogue social technologique

Aux impôts, les agents contestent l’utilité de l’intelligence artificielle

Tangi Bertin pour Unsplash

À l’occasion de la publication de son livre « L’IA aux Impôts », Solidaires Finances Publiques a donné une conférence de presse pour détailler ses constats et inquiétudes relatifs au déploiement de l’intelligence artificielle au fisc. Next y était.

Le 10 décembre à 15h04

Des chercheuses indépendantes s’allient pour obliger les administrations françaises à être plus transparentes sur leur usage de l’intelligence artificielle, la Cour des Comptes alerte sur le manque de pilotage des déploiements d’IA au sein du ministère de l’Économie et des finances… mais qu’en pensent celles et ceux qui se retrouvent à manipuler ces outils au quotidien ? Comment les agentes et agents de l’administration envisagent les technologies d’IA déployées dans leurs services ?

Solidaires Finances Publiques s’est posé la question et l’a transmise aux plus de 90 000 agents de la direction générale des Finances publiques (DGFiP), fin 2023. Le 6 décembre, elle publiait les premiers résultats de cette campagne. Sur les 4 199 répondants à travers le pays, 20 % déclarent utiliser des outils d’IA dans leurs missions.

« L’IA nous est vendue comme permettant d’être plus efficace et de mettre fin aux tâches chronophages », souligne Linda Sehili, du bureau national de Solidaires Finances Publiques. Sur le terrain, cela dit, l’efficacité de ces outils reste « relative » : plus de 85 % de leurs usagers déclarent que ces outils ne leur permettent pas de se « consacrer à d’autres tâches plus intéressantes », et plus de 90 % déclarent que l’utilisation de l’IA ne donne pas « plus de sens à [leur] travail ».

Évolution des missions, des conditions de travail et du service rendu

Depuis le lancement de son questionnaire, Solidaires Finances Publiques a pris la question du déploiement de l’intelligence artificielle au sein de sa direction générale à bras-le-corps. « La DGFiP est le fer de lance de l’expérimentation et du déploiement de l’IA dans l’administration », a déclaré la secrétaire générale du syndicat Sandra Demarcq ce 9 décembre. « Nous avons considéré que ce développement avait des conséquences sur nos missions, sur notre travail, mais aussi que cela transformait le champ du service public de proximité que nous fournissons. »

Il reste 82% de l'article à découvrir.

Déjà abonné ? Se connecter

Cadenas en colère - Contenu premium

Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.

Accédez en illimité aux articles

Profitez d'un média expert et unique

Intégrez la communauté et prenez part aux débats

Partagez des articles premium à vos contacts

Abonnez-vous

Commentaires (19)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar
On est grosso modo à 5% de retour sur le questionnaire (ce qui peut je pense suffire statistiquement à être représentatif), mais quels biais dans l'étude ? Quand un syndicat lance une consultation on peut penser que ses sympathisants seront sur-représentés dans les réponses.

Beaucoup de chiffres cités dans l'article sont objectifs (52 % des entreprises contrôlées l’ont été suite à [préselection IA, mais ne représentent] que 13,6 % des droits et pénalités de recouvrement), mais d'autres sont carrément subjectifs (plus de 90 % déclarent que l’utilisation de l’IA ne donne pas « plus de sens à [leur] travail ».)

Et un peu de connotation politique : Google qui devrait être persona non grata car il est "habile en optimisation fiscale".
votre avatar
Je suis tout à fait d'accord avec tes remarques ZeMeilleur (modeste tu es ;) )
Personnellement, solidaires informatique me donne des boutons : ils sont extrémistes, ce qui les disqualifie à mes yeux. Bon, ce n'est que mon avis perso qui n'intéresse que moi, mais du coup, j'ai tendance à me dire qu'il y a forcément un biais dans leur étude, qui prouve (évidemment) ce qu'ils avaient prévu de prouver en faisant le sondage et l'étude. Bref, une démarche pas scientifique mais militante.

Pour faire bon poids dans ma critique : "système d'IA", ça ne veut rien dire. On se reportera avec grand intérêt à https://framamia.org/fr/#understand_families qui liste 6 familles d'IA profondément différentes.
votre avatar
Ce pseudo a 21 ans, et ne détonnait pas des Bogoss96 :p

Ceci dit, revenons au sujet.
Je ne veux pas cracher pas dans la soupe, je ne connais pas vraiment Solidaires car ce syndicat n'est pas représentatif chez mon employeur, mais c'est vrai que nos délégués syndicaux ont un rôle que j'apprécie quand je vois ma convention collective (on l'a "hérité" de notre maison mère qui n'est pas une SSII).

Mais ils produisent tous des documents à dessein, et donc à manipuler avec précaution.
votre avatar
Tu peux détailler ce qu'ils ont d'extrêmiste ?
votre avatar
c'est exactement ce que j'allais demander, parce que militant, ok, mais extrémiste...
votre avatar
Peut-être que c'est comme ceux qui qualifient Mélenchon d'extrême-gauche : "tout ce qui ne pense pas comme moi est d'extrême-gauche". Je me demande où ils classent Poutou et Arthaud.

Mais je pense que j'ai marché dedans.
votre avatar
Ils les classent à l'extrême extrême gauche, voyons!
votre avatar
Juste un exemple : sur la page d'accueil de leur site : https://solidairesinformatique.org/2024/12/10/pour-des-projets-emancipateurs-et-contre-un-capitalisme-culturel-mortifere/
avec une image "sous les claviers, la rage, débranchons le patronat". heu... désolé, mais chez moi, ça ne passe pas.
(quand on lit le détail de l'article, il y a beaucoup de choses avec lesquelles je suis plutôt d'accord sur le fond. Sur la forme pas du tout et je pense que ça sort du cadre syndical)
votre avatar
Il me semble que Next a déjà dans le passé donné la parole a des syndicats avec très peu de recul alors qu'ils ont des intérêts à défendre - c'était pour la détection des piscines (Foncier innovant) annoncée par les syndicats comme une catastrophe qui ne marche pas, relayés par NXI en reprenant tel quel et sans aucun recul le discours du syndicat, alors qu'en réalité le projet s'est avéré être un succès.
Ils ne sont pas là pour arriver à la meilleure solution pour le pays mais à celle qui permet de préserver le plus d'emplois publics épanouissants et bien payés (normal, c'est leur rôle de syndicats). Sauf que le pays est en faillite et qu'on ne peut plus continuer comme avant en espérant que ça se passe bien. On change pour se moderniser et être plus efficaces, ou on continue de couler.
votre avatar
Ah mais ça n’avait rien à voir, c’était Next INpact à l’époque 😈
votre avatar
Aujourd'hui, le propos émane d'un syndicat, hier il provenait d'un collectif de chercheuses spécialisées], avant-hier de la cour des comptes, avant ça de la DINUM, etc.

Imho, sur un sujet aussi complexe, notre rôle est de ne surtout pas sauter aux conclusions. Notre boulot c'est d'essayer, à la mesure de nos petits bras musclés, de vous fournir la matière pour que vous, lecteurs, puissiez vous forger un avis éclairé. Pour ça, on s'intéresse à ce que disent tous les observateurs un minimum avisés du sujet. On passerait imho à côté d'un pan du sujet si on ne s'intéressait pas à ce qu'en disent les agents concernés, dont le syndicat est, quoi qu'on en pense, l'une des représentations...

Il y a eu beaucoup d'articles consacrés à Foncier Innovant sur Next ;-)
votre avatar
Pour faire l'exploitation du foncier innovant à la DGFIP, je peux te dire que vos articles sont très appréciés chez nous :)

Et je peux le dire avec la connaissance de la réalité du terrain : non le projet n'est pas une catastrophe, loin de là, oui ça fonctionne et plutôt bien. Le seul truc c'est que c'est évidemment imparfait, que des choses sont détectées alors qu'il ne faudrait pas, et inversement.

Les choses détectées a tord, y'a un contrôle humain qui est en partie appliqué et donc limite. Mais les contrôles ont de plus tendances à ne se baser que sur l'IA, et que du coup, si on est un peu malin, on saura passer entre les failles et c'est toujours les mêmes qu'on va viser ( comme avec les algos de la CAF qui visent les plus pauvres )

L'IA devrait être un outil au service des agents et non un outil qui dicte le travail des agents
votre avatar
Bon, je retourne mettre un sac plastique sur la plaque de ma moto/voiture garée sur le trottoir.
votre avatar
L'opacité de traitements informatisés non-explicables est contraire aux obligations d'égalité & de transparence d'un service public rendu au nom de & pour les citoyens.

Aucun outil ne devrait permettre de déresponsabiliser l'État de sa mission.

Rappelons aujourd'hui que les processus dits "intelligents" utilisés aujourd'hui et massivement imposés aux salariés du privé le sont pour des raisons de recherche de profit en éliminant des emplois ("fonctions") support et les salaires associés, quand il n'ont pas déjà massivement été déplacés hors du territoire.
Le coût en salaire est remplacé par du coût en matériel avec l'espoir d'amortir et/ou abaisser ces coûts sur la durée, tandis que les salaires vont devoir être payés à vie (et augmenter) pour respecter la dignité humaine.

Ces outils ne peuvent être utilisés que par des personnes capables d'en comprendre le fonctionnement et la sortie, et être ainsi capable de continuer à en endosser la responsabilité. Des experts du domaine faisant l'objet du traitement, en somme.
On parle d'usages éventuellement sur de l'aide à (et non remplacement de) décision, mais ni détection ni remplacement d'humains.
Ce n'est pas ce que l'on peut constater aujourd'hui.

Le public n'a vocation ni à copier ni à envier la brutalité déshumanisée & déshumanisante du secteur privé.

Il y a pourtant bien d'autres usages de la technologie que l'on pourrait faire pour améliorer nos vies & nos services publics, et non les abîmer.
Pourquoi ne nous intéressons pas plutôt à des outils simples permettant d'améliorer la qualité du service rendu ? Et ce après avoir déjà suffisamment équipé nos services publics en moyens humains & financiers ?
votre avatar
:chinois:
Je n'ai pas d'avis sur la question honnêtement, mais pour faire court, tu bosses autour de la fonction publique, non ?
votre avatar
Pour revenir à l'article, on sent une certaine détresse des employés à trouver leur place dans cette nouvelle configuration.
C'est un sujet récurrent dans le privé.
Il est irritant de chercher la rentabilité sur ces sujets, alors qu'on loupe une bonne partie de cette taxation par défaut.
Plus de moyens exigent plus de résultats.
Mais Cahuzac n'est pas content du résultat par exemple.
Reste à lui expliquer la notion de taxation.
...
votre avatar
Voyons voir...
La CAF se cache derrière des algorithme pour mettre à mal des population déjà mal en point pour ne pas distribuer la thune due aux gens.
Un CEO de compagnie d'assurance santé vient de se faire assassiner parce que sa boite a mis tout un système en place fondé sur des algos divers et variés pour ne pas faire leur taf et juste prendre la thune.
Les chatbots des services supports du monde entier (wink wink aux compagnies aériennes, mes préférées) sont magnifiquement taillée pour ne pas permettre d'accéder à quoi que ce soit où il faudrait payer quelque-chose au client. (pour être transparent, elles sont suffisamment foireuses pour pas donner non plus accès à des trucs où le client voudrait payer qqch).

Faire enrager un client/assuré/contribuable devant un bout de code anonyme protège le responsable (politique/corporate/whatever) de l'immense majorité des conséquences de ses actes.

On n'en est plus, depuis longtemps, à pouvoir prétendre que la technologie est neutre et que c'est juste que les gens s'en servent mal.
votre avatar
ll faut pas tout mettre dans le même panier.

Les IA chatbot, je suis 100% d'accord avec toi, ça ne sert à rien, et ça ne sais répondre à aucune question qui n'est pas déjà répondue dans le site.
Ce qui serait bien, c'est que ce que dit un bot ai la même valeur juridique qu'un humain. Donc un bot qui ne me donne pas une facture lorsque j'en demande une doit être considéré comme un refus de me fournir une facture. Ça permettrait de responsabiliser les sociétés.

Par contre pour les impôts. La conclusion que je fais de l'article, c'est que l'IA n'est tout simplement pas suffisamment entraînée.
Si l'IA permet de choper tous les petits fraudeurs faciles, ça permet aux agents de se focus sur les gros. Ajouter au dataset ces nouvelles grosses fraudes pour les détecter automatiquement, puis passer aux encore plus grosses fraudes.

Ca me rappelle un "reportage" de Cash Investigation à la CAF. Ils montraient "l'employé de l'année" qui avait réussi a chopper une infirmière qui fraudait une somme énorme (ouh là là!), genre 200.000€.
Je vais être caricatural et méchant, mais pour chopper les infirmiers/infirmières qui fraudent des grosses sommes, il suffit de trier en descendant la colonne "dépense" de la feuille Excel... On prend le top10 et c'est quasi sure que ce sont des fraudeurs.
En étant plus factuel, une IA est parfaitement adaptée à faire ce boulot, c'est à dire de trouver ceux et celles qui sortent du cadres.

J'ai l'impression que les agents coûtent plus cher que ce qu'ils arrivent à récupérer des fraudes.
Bref, pour les fraudes faciles, il faut évidement que ce soit des algos ou des IA qui les choppent. On va pas mettre un agent qui coûte au contribuable 50000€ à l'année (au doigt mouillé) pour récupérer 2€ d'une boite de Doliprane.
votre avatar
Ce qui serait bien, c'est que ce que dit un bot ai la même valeur juridique qu'un humain.
Si qqun de la rédaction passe dans le coin, que pensez-vous d'un article sur ce thème ?
est ce que l'usage d'un chatbot engage l'entreprise ? (devoir de conseil, etc)

Il y a bien la jurisprudence d'air Canada, mais (1) ce n'est pas du droit français et (2) elle date de 3 ans, soit une éternité à l'échelle de l'IA
https://www.lemondeinformatique.fr/actualites/lire-l-hallucination-du-chatbot-d-air-canada-revele-la-responsabilite-juridique-des-entreprises-face-a-l-ia-93025.html

Aux impôts, les agents contestent l’utilité de l’intelligence artificielle

  • Évolution des missions, des conditions de travail et du service rendu

  • Opacité technique et par externalisation

  • Morcellement des tâches et surcharge de travail

  • Dégradation du service rendu

  • Outillage pour un dialogue social technologique

Fermer