Connexion
Abonnez-vous

Sommet sur l’IA : les citoyens veulent de la transparence et participer au débat

IA citoyenne

Sommet sur l’IA : les citoyens veulent de la transparence et participer au débat

Dans le cadre du Sommet sur l'IA, le CESE et le CNum accueillaient un événement visant à porter la voix citoyenne sur le sujet de l'intelligence artificielle. Next a assisté aux échanges.

Le 08 février à 10h00

Des citoyennes, des citoyens, des syndicalistes, des conseillers numériques, des data scientists, des membres de l’administration, des start-uppeuses… L'assistance était mêlée, ce 7 février au matin, dans l’hémicycle du Conseil économique social et environnemental (CESE). Dans le cadre du Sommet pour l’Action sur l’IA, l’institution accueillait avec le Conseil national du numérique l’événement « IA : la voie citoyenne ».

Après consultation de plus de 11 000 personnes sur les manières de mettre l’IA au service de l’intérêt général, le président de l’organisation make.org, Axel Dauchez, constate que les « niveaux de compréhension et d’expérience sont assez hétérogènes, mais que des points de convergences assez forts » se dégagent des réponses obtenues. Les Françaises et Français qui ont participé à la consultation ont une « approche assez ouverte de l’IA, mais citent tous la nécessité d’un devoir de vigilance active ».

Une IA au service des transitions et responsable de ses impacts

« Experts et citoyens se retrouvent sur la majorité des problèmes et des pistes de solutions », constate Constance Bommelaer de Leusse, chercheuse à Sciences Po et membre de l’Institut IA et Société à l’École normale supérieure, deux institutions partenaires de la consultation publique.

Globalement, les Français se déclarent plutôt favorables au déploiement d’IA au sein du service public, y compris dans les diagnostics de santé, mais « il y a un gros point de rupture au niveau de la décision humaine, explique encore Axel Dauchez. Chaque fois qu’il y a de l’IA, il faut qu’une décision humaine vienne la challenger », qu’une personne garde le contrôle. Le gros des peurs, continue-t-il, concerne « l’impact de l’IA sur la démocratie ». Le domaine peut à la fois constituer « un danger gigantesque, mais aussi une opportunité, s’il permet de renforcer le lien des citoyens au processus démocratique ».

Certaines collectivités travaillent déjà sur ce dernier sujet. Conseiller municipal délégué au numérique et à l’innovation de la ville de Rennes, Pierre Jannin explique que la municipalité a créé un conseil citoyen du numérique responsable (CCNR), « dans lequel des citoyens tirés au sort travaillent sur de grandes questions liées au domaine ». En avril 2024, ces derniers ont rendu un rapport (.pdf) sur les enjeux éthiques de l’intelligence artificielle. Ce genre de travaux est le meilleur moyen d’arriver « à une IA responsable, c’est-à-dire au service des transitions sociales, environnementales et politiques, mais aussi responsable de ses propres impacts », déclare Pierre Jannin.

Collision entre exigence de transparence et fracture numérique

Cofondateur du Collectif Changer de Cap, Didier Minot expose les risques que le déploiement d’IA dans des institutions comme la Caisse Nationale des Affaires Familiales peut faire peser sur les usagers, et évoque la plainte déposée avec quatorze autres associations devant le Conseil d’État contre l’algorithme de gestion des fraudes de l’organisme.

Chargée de mission numérique, droits et libertés auprès de la Défenseure des droits, Gabrielle du Boucher estime que « les usagers devraient être associés à tous les niveaux des échanges », qu’il s’agit là de « renouer avec le principe démocratique de transparence ».

À sa suite, un développeur nantais rappelle qu’aucune IA n’est douée de volonté propre et que ce sont toujours des humains qui décident de qui est construit quand et comment : « l’IA ne peut pas devenir démocratique, ce serait comme demander à un marteau de devenir démocratique ». Attentif à la tentation d’anthropomorphiser l’IA, il redouble : « Il ne s’agit pas d’humaniser l’IA, mais d’humaniser les questions qu’on se pose pour la créer. »

Au récit de Didier Minot viendront néanmoins s’ajouter d’autres témoignages qui soulignent la complexité du chemin politique vers une meilleure transparence. « Attention à ceux qui subissent déjà la fracture numérique », souligne une participante. Pour ceux qui n’ont ni ordinateur ni smartphone, qui se trouvent en zone blanche ou ne savent pas lire le français, l’IA ne saurait ajouter la moindre simplicité.

Un témoignage renforcé par le gérant d’un centre social de la Nièvre : « dans les campagnes, le service public disparaît de partout. À l’heure actuelle, on a mis des maisons France Services où une seule personne est en charge d’aider les gens à interagir avec tous les services publics en ligne. On peut décider de mettre des IA à leur place, ça coûtera moins cher… mais attention à ce qu’on fait : on a besoin de relations humaines dans les territoires. »

L’IA révélatrice des souffrances dans l’administration

La préoccupation autour du remplacement de services réalisés ou fournis par des humains par des technologies d’intelligence artificielle surgit aussi dans la seconde séance d’échanges, plus centrée sur les enjeux posés par l’IA au travail. Transparaissent au passage les difficultés d’agents du service public.

Solidaires Finances Publiques évoque le déploiement de systèmes automatisés au sein de la direction générale des Finances publiques, et la perte de sens que ceux-ci provoquent dans certains métiers, dont ceux de la programmation des contrôles.

Les membres du syndicat regrettent la nécessité qu’a l’administration d’avancer un gain de productivité en nombre d’emplois pour obtenir les financements du fonds de transformation de l’action publique (FTAP). Ainsi, les crédits pour le projet de traitement automatisé « Ciblage de la fraude et valorisation des requêtes » (CFVR) ont été obtenus contre la promesse d’une réduction de 500 emplois.

Représentant de FSU-Emploi, Christophe Moreau rapporte un sentiment similaire d’ « imposition d’IA dans le travail » chez France Travail. Dans des professions sous tensions, « par manque de moyens, on est dans un faux libre choix de l’usage de l’IA pour la simple raison que devant des objectifs de plus en plus inatteignables, les agents n’ont pas le temps de réfléchir lorsqu’on leur propose de l’IA ». De fait, l’usage de technologies comme ChatFT, un service développé par Mistral AI, leur est « quasiment imposé ».

Le syndicaliste témoigne par ailleurs de l'intensification du travail lorsque ce type de système est déployé pour gérer automatiquement « des cas simples. Dans le travail courant, les cas simples permettent de respirer entre deux cas complexes. Mais avec ces outils, les collègues ne se retrouvent qu’à gérer des cas complexes. »

L’IA qui remplace (mal), l’IA qui surveille

Dans le secteur privé, une représentante du collectif En chair et en os décrit les effets que l’intelligence artificielle a sur les professions de traducteurs et traductrice de presse, de littérature, le sous-titrage ou encore l’interprétariat depuis une dizaine d’années. Les outils de « traduction automatique neuronale » (TAN) produisent « toujours un texte fautif, lissé, standardisé, sans aucune épaisseur intellectuelle car sans intention humaine ni volonté artistique ».

Pour les travailleurs du secteur, le gros des tâches est désormais devenu de la « post-édition, un anglicisme qui est en plus une mauvaise traduction » et qui consiste à « lisser, toiletter » le texte produit par IA. « Cela ne nous sert à rien, ça nous dépossède de nos outils de travail, et ça nous précarise encore plus. »

Autre industrie testant l’IA depuis plus d’une décennie : celle de la logistique. Sociologue au CERLIS, David Gaborieau décrit comment les technologies de commandes vocales se sont « généralisées dans le secteur », avec des ouvriers de logistique équipé d’un casque sur les oreilles, d’où « une voix de synthèse leur dit quoi faire », et d’un micro devant la bouche, où répondre « "ok" chaque fois qu’on accomplit une instruction ».

La pratique est suffisamment répandue pour fournir du recul : ces outils induisent « une perte d’autonomie très forte, une intensification du rythme de travail » similaire à celle évoquée chez France Travail. À ceci près que les tâches d’emballage et d’envoi de cartons sont physiques, et un « contrôle accru, car la technologie permet de toujours savoir où vous êtes. En fait, c’est du taylorisme : un travail contraint, répétitif, très physique, qui provoque une explosion des accidents du travail. »

La surveillance, souligne Franca Salis-Madinier de CFDT Cadres, est aussi ressentie par les managers, à mesure que les technologies de management algorithmique se répandent dans le monde économique. Et d’appeler, elle aussi, au renforcement du dialogue social, « quand bien même ces questions sont présentées sous l’angle technique ».

Ce à quoi l’entrepreneure Daphné Marnat renchérit : « Prenez ces sujets à bras le corps, et même, n’ayez pas peur de prendre la question technique à bras le corps. On vous opposera toujours cette question technique, mais en réalité, ces technologies ne sont pas si dures à comprendre. »

L’autre manière de présenter le sujet, bien identifiée par la plupart de celles et ceux qui prennent la parole, est d’avancer l’argument de la « neutralité » de l’IA. Si bien qu’un doctorant en philosophie souligne : « En réalité, il y a un relatif consensus sur le fait que la technologie n’est pas neutre. Si cet argument continue d’être utilisé, c’est soit parce que des ingénieurs ou des politiques veulent éviter le débat, soit parce que le but poursuivi est celui d’une optimisation, ou d’une automatisation. »

Convention citoyenne sur l’intelligence artificielle

Les questions sont nombreuses, les axes de travail, multiples. Citant l’explosion de la consommation énergétique induite par le développement de l’IA générative, une représentante du Shift Project interroge : « Quels sont les secteurs qui polluent moins pour permettre au numérique de polluer plus ? »

Comment, alors, « construire un avenir où la technologie serve réellement l’humain », comme l’appelait en introduction Martine D., l’une des membres de la commission « intelligence artificielle » dont les travaux ont alimenté le rapport Pour une intelligence artificielle au service de l’intérêt général du CESE ?

« L’IA est un sujet catalyseur de tous les nœuds contemporains : géopolitique, urgence écologique, équité, travail, santé, etc », déclare une autre citoyenne. Pour réussir à tous les embrasser, elle propose de lancer une Convention citoyenne sur l’intelligence artificielle. « L’initiative serait d’autant plus opportune, que les citoyens n’ont jamais vraiment été consultés sur l’ensemble des sujets anciens et récents liés à l’intelligence artificielle : choix d’infrastructure, gestion des données, fracture numérique, souveraineté, et autre, explique-t-elle. Une convention citoyenne serait aussi une manière d’embarquer le citoyen, de partager la responsabilité des décisions à venir. »

Présenter le sujet comme un enjeu purement technique, conclue-t-elle, c’est « de facto en extraire les citoyens ». Or, à l’heure « où le pouvoir technique se confond avec le pouvoir économique, et même avec le pouvoir politique dans certaines régions, lancer une convention citoyenne sur l’IA depuis la France serait un signal fort. »

Commentaires (0)

Sommet sur l’IA : les citoyens veulent de la transparence et participer au débat

  • Une IA au service des transitions et responsable de ses impacts

  • Collision entre exigence de transparence et fracture numérique

  • L’IA révélatrice des souffrances dans l’administration

  • L’IA qui remplace (mal), l’IA qui surveille

  • Convention citoyenne sur l’intelligence artificielle

Fermer