Connexion
Abonnez-vous

Des militants de la « sécurité de l’intelligence artificielle » lancent Pause IA en France

⏯️

Des militants de la « sécurité de l’intelligence artificielle » lancent Pause IA en France

Next s’est rendu au lancement de la version française de Pause IA, mouvement international qui appelle à cesser l'entraînement des systèmes d'IA « les plus dangereux » en attendant de mieux en maîtriser les risques.

Le 12 septembre à 10h00

« Dangers de l’intelligence artificielle : la France dans le déni ? » Pour son lancement officiel, ce 10 septembre, Pause IA veut marquer les esprits et cela se sent autant dans le titre de sa conférence que dans les prises de paroles de ses membres et invités.

Cofondée avant l’été par le data scientist Maxime Fournes et le musicien Gilles Breda, Pause IA est la version française de l’organisation internationale Pause AI, fondée début 2023 aux Pays-Bas et déjà riche de plusieurs dizaines de communautés affiliées, principalement ouvertes en Europe de l’Ouest et aux États-Unis.

Celles-ci se sont déjà fendues de manifestations dans plusieurs endroits du monde, dont celle organisée en mai avait réuni à Paris une poignée de personnes. Leur but, à toutes : obtenir un « moratoire sur l'entraînement de systèmes plus dangereux, afin d'éviter une catastrophe mondiale ».

Critique du rapport du conseil de l’intelligence artificielle

Pour son événement de rentrée, c’est une cinquantaine de personnes, curieux et journalistes, qui assistent aux prises de paroles de l’ancien président du Hub France IA Patrick Albert, de la philosophe Anne Alombert ; puis à la présentation, par le président de Pause IA, d’une contre-expertise du rapport rendu en mars 2023 au gouvernement par son comité sur l’intelligence artificielle.

Ce faisant, la petite entité rejoint les critiques déjà formulées par d’autres associations, en tête desquelles celles relatives à la composition de la commission – cette dernière compte de nombreux représentants des plus gros industriels du secteur (Joëlle Barral pour Google, Arthur Mensch et Cédric O pour Mistral AI, Yann LeCun pour Meta).

Surtout, Maxime Fournes s’indigne de la « minimisation systématique des risques » posés par l’IA dans les recommandations formulées auprès du gouvernement. Parmi les plus importants, les risques relatifs à l’espace public numérique, les risques en matière de cybersécurité – par la génération, dans les deux cas, de texte crédible ou de code malveillant efficace – ou encore la question des risques existentiels.

Et le data scientist d’opposer les arguments d’un Yoshua Bengio et d’un Geoffrey Hinton, tous deux très présents l’an dernier sur la scène médiatique pour alerter contre les risques d’un potentiel dépassement de l’humain par l’intelligence artificielle, à ceux d’un Yann LeCun, plus mesuré sur la question.

Le risque existentiel, un repoussoir ?

Oui mais voilà, si ce type de discours a pu convaincre en 2023, en ce mois de septembre 2024, l’auditoire y est plus rétif. Axer le combat de Pause IA sur la question des risques existentiels (qu'étudie le domaine de l'« AI safety», traduisible en sécurité ou sûreté de l'IA), est-ce vraiment le plus efficace ?

La question est posée à plusieurs reprises, dans l’amphithéâtre du Learning Planet Institute. Maxime Fournes y répond patiemment : le sujet « n'est pas le seul » traité par l’association, mais il reste un enjeu important, « moi j’y crois ».

Dans ces trois petits mots répétés à deux ou trois reprises surgit une des interrogations qui, peut-être, brouille certains débats autour des enjeux de l’intelligence artificielle : quand Pause IA évoque les risques existentiels, sommes-nous encore dans le domaine de la science, ou dans celui de la croyance ?

Citant l’exemple des armes nucléaires, Maxime Fournes esquisse auprès de Next un début de réponse : « Dans ce domaine, on peut faire des modélisations qui permettent d’estimer ce qu'il risque de se passer en cas d’usage de ces armes, sans tomber dans la croyance. »

Le président de l’association salue aussi l’opportunité du débat. « Nous avions fait exprès d'inviter une variété large d’interlocuteurs, notre but est justement d’engager des discussions avec des personnes aux opinions différentes des nôtres » (parmi elles, certains soulignent que le champ de la sécurité de l'IA a pu être critiqué pour sa propension servir, à terme, les intérêts des industriels du secteur).

Au lendemain de la rencontre, cela dit, Maxime Fournes regrette un peu l’importance prise par les risques existentiels dans les échanges : « certes ils nous occupent, mais ils sont loin d’être le centre de nos occupations. Ce qui nous intéresse, ce sont tous les risques posés par l’IA, les hypothétiques comme les très actuels. »

Le sommet pour l’action sur l’IA en ligne de mire

Ce qui intéresse aussi Pause IA, c’est la tenue, les 10 et 11 février prochains, du Sommet pour l’action sur l’IA, dont l’envoyée spéciale Anne Bouverot a co-rapporté le fameux rapport de mars 2023 critiqué par l’association. L’événement fait suite au Sommet sur la sécurité de l’IA organisé en novembre 2023 à Londres, et à celui de Séoul, en mai 2024.

Et l’un des éléments qui fait tiquer Maxime Fournes est la disparition du terme « sécurité » du programme des échanges - en l’occurrence, le groupe de travail dédié au sujet est nommé « IA de confiance ». Une preuve de plus, estime-t-il, du « gros déni » de la France envers les risques des applications du vaste champ de l'intelligence artificielle.

Commentaires (18)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar
Je leur souhaite bien du courage.
La cause est intéressante mais les moulins tournent déjà trop vite.
votre avatar
Aucune chance qu'ils arrivent à convaincre les chinois et les américains. Donc si l'Europe fait cette "pause", ça veut juste dire qu'on laisse les autres continuer sans nous. Ça me semble beaucoup plus faisable de contrôler la direction en étant à l'intérieur qu'en le laissant aux autres.
votre avatar
Exact, c'est d'ailleurs pour ça qu'il est absurde d'interdire aux dictatures de développer leur puissance nucléaire.
votre avatar
C'est quoi les « risques existentiels » ?

(bon, après une recherche rapide sur WP, j'ai trouvé ça)
votre avatar
L'ia n'a d'applications dangereuses qu'à condition qu'on continue à tout connecter et tout surveiller électroniquement dans nos quotidiens, administrations, espaces publics.

Ils prennent peut être le pb à l'envers ; l'IA n'a pas un potentiel plus problématique qu'un gouvernement humain autocratique, des administrations répressives en roue libre, des groupes privés violents etc.
Eventuellement ça peut être un outil qui rend plus problématique encore les cas cités ci dessus.
votre avatar
L'ia n'a d'applications dangereuses qu'à condition qu'on continue à tout connecter et tout surveiller électroniquement dans nos quotidiens, administrations, espaces publics.
Les deepfake n'ont pas besoin de "tout connecter et tout surveiller" pour exister et être dangereux
votre avatar
Pourquoi c'est dangereux les deepfake ?

En plus, la diffusion des deepfake a bien besoin de connectivité et peut être faite par un bot.
votre avatar
Pourquoi c'est dangereux les deepfake ?
Parce que ça peut être utilisé pour faire diffuser de faux messages.

Exemples :
- un politicien A qui crée un deepfake de son opposant B où B fait des choses qui poussent ses électeurs à voter pour A à la place
- un dirigeant qui crée un deepfake d'un dirigeant ennemi pour justifier une guerre
...

La série The Capture décrit tout cela de manière pertinente https://www.imdb.com/title/tt8201186/
En plus, la diffusion des deepfake a bien besoin de connectivité et peut être faite par un bot.
A moins d'isoler physiquement tous les humains, ce n'est pas l'absence de communication électronique qui empêchera la diffusion d'un message issu d'un deepfake
Et je ne pense pas que le propos de @yvan était "de toute façon sans Internet, l'IA n'est pas un danger"
votre avatar
[un dirigeant qui crée un deepfake d'un dirigeant ennemi pour justifier une guerre]

Dans ce cas ça fait des décennies que ça existe. Se souvenir de la guerre en irak des USA sur de fausses allégations d'armements chimiques, se souvenir de la riche production de médias retouchés de l'URSS où les dignitaires en disgrâce disparaissaient des photos/vidéos etc.

Sur ce sujet ce ne sont pas les technologies grand public le pb. Et les états n'accepteront jamais d'être contraints par des lois civiles sur ce genre d'usage dans le cadre de leurs intrigues politiques donc on peut prononcer tous les moratoires qu'on veut, ça ne s'applique pas aux services secrets.
votre avatar
"Dans ce cas ça fait des décennies que ça existe."

Le problème n'est pas le principe, c'est l'échelle.
Quand tu vas pouvoir produire une fausse information 1000 fois plus vite et 1000 fois plus difficile à démonter qu'auparavant, cela devient tout simplement ingérable.

Sachant que le principe selon lequel il faut un effort 20 fois plus conséquent pour démonter une ânerie que pour la produire...

D'ailleurs on le voit déjà. Pour l'instant des youtubeurs s'amusent à créer des satires "pseudo-crédibles" en rappelant bien que c'est du fake et en poussant le curseur assez loin pour que quiconque connaisse les personnalités publiques mises en scène se doute que c'est chiqué.
Ce qui implique aussi que déjà actuellement si tu vois la vidéo mettant en scène un illustre inconnu, sauf à ce que des indices suffisamment évidents existent, tu ne sauras pas si c'est vrai ou non sans un examen approfondi. Ce que peu de personnes ont la compétence et le temps requis pour.
votre avatar
La question d'avenir effectivement risque d'être plutôt de savoir certifier la véracité que de pouvoir démonter un fake. Passé une certaine qualité des algos, tout sera, par défaut, fake (je l'imagine comme une extension des filtres d'appareils photo aujourd'hui où toutes les images seront cadrées, éclairées, retouchées par IA sur le moindre terminal grand public).

Je ne vois pas d'alternative, à partir du moment où il y a possibilité de faire de la guerre de l'information, des états ou ONGs vont l'utiliser. Que ce soit interdit au grand public ou non. Que l'Europe l'interdise sur son sol ou non.

Actuellement et vraisemblablement à l'avenir aussi, c'est bien plus la désinformation étatique qui pose un souci de gouvernance libre (genre robots russes sur les réseaux sociaux africains) que les youtubeurs qui font dire des trucs cyniques et autoritaires à Macron ou le font danser en rave party.
votre avatar
Ce qui dangereux, ce n'est pas le deepfake mais que les gens croient n'importe quoi.

Dans ton premier exemple, B expliquera que c'est un faux et que ça doit être l'équipe de A qui l'a fait. Ça peut se retourner contre A si les électeurs sont un peu intelligents, s'il ne le sont pas, pas la peine de deepfake pour les manipuler, on n'a qu'à voir la campagne US : Trump raconte des âneries sans avoir besoin d'IA et tout un tas de gens le croient ou savent qu'il dit des conneries mais ils l'aiment juste pour ça.

Quant à ta série, il faut arrêter de croire que les séries ou les films sont la réalité, ce sont des fake, comme dans deepfake.

Les gens vont vite apprendre que l'on fait des deepfakes et qu'il faut se méfier de ce qui circule sur des médias non fiables comme X ou autres vecteurs de merde. Ils se tourneront vers les médias crédibles. Finalement, on y gagnera probablement.

Sans communication électronique, les deepfakes circuleraient très lentement et seraient encore plus inefficaces.

Le propos d'yvan est que si l'on ne connecte pas directement des IA et qu'on ne leur demande pas de piloter le monde réel, les IA ne sont pas un problème puisqu'elles ne peuvent pas intervenir directement sur celui-ci. Le problème est plutôt l'humain qui croit les IA sans recul.
votre avatar
"Les gens vont vite apprendre que l'on fait des deepfakes et qu'il faut se méfier de ce qui circule sur des médias non fiables comme X ou autres vecteurs de merde."

Par rapport à ce que je vois autour de moi, ton propos est particulièrement optimiste.
votre avatar
Dans ton premier exemple, B expliquera que c'est un faux et que ça doit être l'équipe de A qui l'a fait.
Pourquoi croire la parole de B plutôt que la vidéo partagée par A ?

Ah oui, évidemment, il suffit d'être "un peu intelligent" ! C'est si simple !
Trump raconte des âneries sans avoir besoin d'IA et tout un tas de gens le croient
Ce qui contredit la première phrase, puisque la parole d'une personne n'a pas plus de valeur qu'une vidéo d'une autre
Quant à ta série, il faut arrêter de croire que les séries ou les films sont la réalité, ce sont des fake, comme dans deepfake.
Tout d'abord il s'agit non pas de fake mais d’œuvres de fiction, c'est bien différent. Cela me surprend que vous ne sachiez pas la différence malgré votre intelligence.

Deuxièmement, vous faites preuve d'une mauvaise foi certaine en m'accusant de _croire_ à des œuvres de fiction.

Ce qui fait leur richesse est justement de créer des situations qui se réfléchissent sur le réel et amènent une réflexion sur celui-ci.

Cependant, j'imagine que seuls les faibles d'esprit se laissent à consommer de tels œuvres, pendant que les génies, sachant tout et maîtrisant tout, se contentent de cracher sur ces minables.
votre avatar
Ils sont plus difficiles à produire de manière crédible si ce qu'ils créent est dans un environnement où aucune caméra n'aurait pu enregistrer quoi que ce soit.
Leur conséquences sont plus limitées dans un monde avec une pluralité d'expressions politiques et la séparation -réelle- des pouvoirs.
Et même les atteintes à l'intimité n'ont réellement de poids que dans un monde puritain, donc généralement structuré par des autorités illibérales.
votre avatar
Ils n'ont pas compris que l'on a pas le choix avec la mondialisation. Si la France bloque la Chine elle continuera et nous serons à la traine.
votre avatar
Je me disais justement qu'il y avait beaucoup trop d'innovation en France.
votre avatar
J'avais lu le rapport sur l'IA et comme eux, j'avais constaté un sacré paquet de conflits d'intérêts, d'articles bidons ou pseudo scientifiques, et de raccourcis trompeurs et techno solutionnistes. L'impression encore une fois, qu'on en revient à cet article: https://research.gold.ac.uk/id/eprint/25962/1/AI-Neoliberalism-PR-Jan2019%20(1).pdf
Un truc qui m'embête, dans un but purement académique :D, c'est que je ne sais pas trop comment citer cette contre expertise (nom des auteurs? page web? rapport?).

Des militants de la « sécurité de l’intelligence artificielle » lancent Pause IA en France

  • Critique du rapport du conseil de l’intelligence artificielle

  • Le risque existentiel, un repoussoir ?

  • Le sommet pour l’action sur l’IA en ligne de mire

Fermer