Des militants de la « sécurité de l’intelligence artificielle » lancent Pause IA en France
⏯️
Next s’est rendu au lancement de la version française de Pause IA, mouvement international qui appelle à cesser l'entraînement des systèmes d'IA « les plus dangereux » en attendant de mieux en maîtriser les risques.
Le 12 septembre à 10h00
6 min
IA et algorithmes
IA
« Dangers de l’intelligence artificielle : la France dans le déni ? » Pour son lancement officiel, ce 10 septembre, Pause IA veut marquer les esprits et cela se sent autant dans le titre de sa conférence que dans les prises de paroles de ses membres et invités.
Cofondée avant l’été par le data scientist Maxime Fournes et le musicien Gilles Breda, Pause IA est la version française de l’organisation internationale Pause AI, fondée début 2023 aux Pays-Bas et déjà riche de plusieurs dizaines de communautés affiliées, principalement ouvertes en Europe de l’Ouest et aux États-Unis.
Celles-ci se sont déjà fendues de manifestations dans plusieurs endroits du monde, dont celle organisée en mai avait réuni à Paris une poignée de personnes. Leur but, à toutes : obtenir un « moratoire sur l'entraînement de systèmes plus dangereux, afin d'éviter une catastrophe mondiale ».
Critique du rapport du conseil de l’intelligence artificielle
Pour son événement de rentrée, c’est une cinquantaine de personnes, curieux et journalistes, qui assistent aux prises de paroles de l’ancien président du Hub France IA Patrick Albert, de la philosophe Anne Alombert ; puis à la présentation, par le président de Pause IA, d’une contre-expertise du rapport rendu en mars 2023 au gouvernement par son comité sur l’intelligence artificielle.
Ce faisant, la petite entité rejoint les critiques déjà formulées par d’autres associations, en tête desquelles celles relatives à la composition de la commission – cette dernière compte de nombreux représentants des plus gros industriels du secteur (Joëlle Barral pour Google, Arthur Mensch et Cédric O pour Mistral AI, Yann LeCun pour Meta).
Surtout, Maxime Fournes s’indigne de la « minimisation systématique des risques » posés par l’IA dans les recommandations formulées auprès du gouvernement. Parmi les plus importants, les risques relatifs à l’espace public numérique, les risques en matière de cybersécurité – par la génération, dans les deux cas, de texte crédible ou de code malveillant efficace – ou encore la question des risques existentiels.
Et le data scientist d’opposer les arguments d’un Yoshua Bengio et d’un Geoffrey Hinton, tous deux très présents l’an dernier sur la scène médiatique pour alerter contre les risques d’un potentiel dépassement de l’humain par l’intelligence artificielle, à ceux d’un Yann LeCun, plus mesuré sur la question.
- AGI, GPAI, modèles de fondation… de quoi on parle ?
- Transhumanisme, long-termisme… comment les courants « TESCREAL » influent sur le développement de l’IA
Le risque existentiel, un repoussoir ?
Oui mais voilà, si ce type de discours a pu convaincre en 2023, en ce mois de septembre 2024, l’auditoire y est plus rétif. Axer le combat de Pause IA sur la question des risques existentiels (qu'étudie le domaine de l'« AI safety», traduisible en sécurité ou sûreté de l'IA), est-ce vraiment le plus efficace ?
La question est posée à plusieurs reprises, dans l’amphithéâtre du Learning Planet Institute. Maxime Fournes y répond patiemment : le sujet « n'est pas le seul » traité par l’association, mais il reste un enjeu important, « moi j’y crois ».
Dans ces trois petits mots répétés à deux ou trois reprises surgit une des interrogations qui, peut-être, brouille certains débats autour des enjeux de l’intelligence artificielle : quand Pause IA évoque les risques existentiels, sommes-nous encore dans le domaine de la science, ou dans celui de la croyance ?
Citant l’exemple des armes nucléaires, Maxime Fournes esquisse auprès de Next un début de réponse : « Dans ce domaine, on peut faire des modélisations qui permettent d’estimer ce qu'il risque de se passer en cas d’usage de ces armes, sans tomber dans la croyance. »
Le président de l’association salue aussi l’opportunité du débat. « Nous avions fait exprès d'inviter une variété large d’interlocuteurs, notre but est justement d’engager des discussions avec des personnes aux opinions différentes des nôtres » (parmi elles, certains soulignent que le champ de la sécurité de l'IA a pu être critiqué pour sa propension servir, à terme, les intérêts des industriels du secteur).
Au lendemain de la rencontre, cela dit, Maxime Fournes regrette un peu l’importance prise par les risques existentiels dans les échanges : « certes ils nous occupent, mais ils sont loin d’être le centre de nos occupations. Ce qui nous intéresse, ce sont tous les risques posés par l’IA, les hypothétiques comme les très actuels. »
Le sommet pour l’action sur l’IA en ligne de mire
Ce qui intéresse aussi Pause IA, c’est la tenue, les 10 et 11 février prochains, du Sommet pour l’action sur l’IA, dont l’envoyée spéciale Anne Bouverot a co-rapporté le fameux rapport de mars 2023 critiqué par l’association. L’événement fait suite au Sommet sur la sécurité de l’IA organisé en novembre 2023 à Londres, et à celui de Séoul, en mai 2024.
Et l’un des éléments qui fait tiquer Maxime Fournes est la disparition du terme « sécurité » du programme des échanges - en l’occurrence, le groupe de travail dédié au sujet est nommé « IA de confiance ». Une preuve de plus, estime-t-il, du « gros déni » de la France envers les risques des applications du vaste champ de l'intelligence artificielle.
Des militants de la « sécurité de l’intelligence artificielle » lancent Pause IA en France
-
Critique du rapport du conseil de l’intelligence artificielle
-
Le risque existentiel, un repoussoir ?
-
Le sommet pour l’action sur l’IA en ligne de mire
Commentaires (18)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 12/09/2024 à 10h31
La cause est intéressante mais les moulins tournent déjà trop vite.
Le 12/09/2024 à 10h42
Le 12/09/2024 à 10h58
Le 12/09/2024 à 11h34
(bon, après une recherche rapide sur WP, j'ai trouvé ça)
Le 12/09/2024 à 12h08
Ils prennent peut être le pb à l'envers ; l'IA n'a pas un potentiel plus problématique qu'un gouvernement humain autocratique, des administrations répressives en roue libre, des groupes privés violents etc.
Eventuellement ça peut être un outil qui rend plus problématique encore les cas cités ci dessus.
Le 12/09/2024 à 12h31
Le 12/09/2024 à 14h05
En plus, la diffusion des deepfake a bien besoin de connectivité et peut être faite par un bot.
Le 12/09/2024 à 14h35
Exemples :
- un politicien A qui crée un deepfake de son opposant B où B fait des choses qui poussent ses électeurs à voter pour A à la place
- un dirigeant qui crée un deepfake d'un dirigeant ennemi pour justifier une guerre
...
La série The Capture décrit tout cela de manière pertinente https://www.imdb.com/title/tt8201186/
A moins d'isoler physiquement tous les humains, ce n'est pas l'absence de communication électronique qui empêchera la diffusion d'un message issu d'un deepfake
Et je ne pense pas que le propos de @yvan était "de toute façon sans Internet, l'IA n'est pas un danger"
Modifié le 12/09/2024 à 15h30
Dans ce cas ça fait des décennies que ça existe. Se souvenir de la guerre en irak des USA sur de fausses allégations d'armements chimiques, se souvenir de la riche production de médias retouchés de l'URSS où les dignitaires en disgrâce disparaissaient des photos/vidéos etc.
Sur ce sujet ce ne sont pas les technologies grand public le pb. Et les états n'accepteront jamais d'être contraints par des lois civiles sur ce genre d'usage dans le cadre de leurs intrigues politiques donc on peut prononcer tous les moratoires qu'on veut, ça ne s'applique pas aux services secrets.
Le 12/09/2024 à 16h37
Le problème n'est pas le principe, c'est l'échelle.
Quand tu vas pouvoir produire une fausse information 1000 fois plus vite et 1000 fois plus difficile à démonter qu'auparavant, cela devient tout simplement ingérable.
Sachant que le principe selon lequel il faut un effort 20 fois plus conséquent pour démonter une ânerie que pour la produire...
D'ailleurs on le voit déjà. Pour l'instant des youtubeurs s'amusent à créer des satires "pseudo-crédibles" en rappelant bien que c'est du fake et en poussant le curseur assez loin pour que quiconque connaisse les personnalités publiques mises en scène se doute que c'est chiqué.
Ce qui implique aussi que déjà actuellement si tu vois la vidéo mettant en scène un illustre inconnu, sauf à ce que des indices suffisamment évidents existent, tu ne sauras pas si c'est vrai ou non sans un examen approfondi. Ce que peu de personnes ont la compétence et le temps requis pour.
Modifié le 12/09/2024 à 17h02
Je ne vois pas d'alternative, à partir du moment où il y a possibilité de faire de la guerre de l'information, des états ou ONGs vont l'utiliser. Que ce soit interdit au grand public ou non. Que l'Europe l'interdise sur son sol ou non.
Actuellement et vraisemblablement à l'avenir aussi, c'est bien plus la désinformation étatique qui pose un souci de gouvernance libre (genre robots russes sur les réseaux sociaux africains) que les youtubeurs qui font dire des trucs cyniques et autoritaires à Macron ou le font danser en rave party.
Le 12/09/2024 à 23h56
Dans ton premier exemple, B expliquera que c'est un faux et que ça doit être l'équipe de A qui l'a fait. Ça peut se retourner contre A si les électeurs sont un peu intelligents, s'il ne le sont pas, pas la peine de deepfake pour les manipuler, on n'a qu'à voir la campagne US : Trump raconte des âneries sans avoir besoin d'IA et tout un tas de gens le croient ou savent qu'il dit des conneries mais ils l'aiment juste pour ça.
Quant à ta série, il faut arrêter de croire que les séries ou les films sont la réalité, ce sont des fake, comme dans deepfake.
Les gens vont vite apprendre que l'on fait des deepfakes et qu'il faut se méfier de ce qui circule sur des médias non fiables comme X ou autres vecteurs de merde. Ils se tourneront vers les médias crédibles. Finalement, on y gagnera probablement.
Sans communication électronique, les deepfakes circuleraient très lentement et seraient encore plus inefficaces.
Le propos d'yvan est que si l'on ne connecte pas directement des IA et qu'on ne leur demande pas de piloter le monde réel, les IA ne sont pas un problème puisqu'elles ne peuvent pas intervenir directement sur celui-ci. Le problème est plutôt l'humain qui croit les IA sans recul.
Le 13/09/2024 à 09h20
Par rapport à ce que je vois autour de moi, ton propos est particulièrement optimiste.
Le 13/09/2024 à 11h20
Ah oui, évidemment, il suffit d'être "un peu intelligent" ! C'est si simple !
Ce qui contredit la première phrase, puisque la parole d'une personne n'a pas plus de valeur qu'une vidéo d'une autre
Tout d'abord il s'agit non pas de fake mais d’œuvres de fiction, c'est bien différent. Cela me surprend que vous ne sachiez pas la différence malgré votre intelligence.
Deuxièmement, vous faites preuve d'une mauvaise foi certaine en m'accusant de _croire_ à des œuvres de fiction.
Ce qui fait leur richesse est justement de créer des situations qui se réfléchissent sur le réel et amènent une réflexion sur celui-ci.
Cependant, j'imagine que seuls les faibles d'esprit se laissent à consommer de tels œuvres, pendant que les génies, sachant tout et maîtrisant tout, se contentent de cracher sur ces minables.
Modifié le 12/09/2024 à 15h25
Leur conséquences sont plus limitées dans un monde avec une pluralité d'expressions politiques et la séparation -réelle- des pouvoirs.
Et même les atteintes à l'intimité n'ont réellement de poids que dans un monde puritain, donc généralement structuré par des autorités illibérales.
Le 12/09/2024 à 17h58
Le 12/09/2024 à 18h35
Le 14/09/2024 à 15h03
Un truc qui m'embête, dans un but purement académique , c'est que je ne sais pas trop comment citer cette contre expertise (nom des auteurs? page web? rapport?).