Deux défis que ChatGPT pose aux régulateurs
Le 27 février 2023 à 07h59
2 min
Sciences et espace
Sciences
Quels challenges ChatGPT crée-t-il pour les législateurs européens, qui travaillent depuis plusieurs mois à un règlement sur l’intelligence artificielle ?
Dans un article de l’Internet Policy Review, Natali Helberger, chercheuse à l’université d’Amsterdam, et Nicholas Diakopoulos, de la Northwestern University, expliquent que ChatGPT diffère au moins en deux points des modèles « traditionnels » d’intelligence artificielle à partir desquels les premiers jets de textes légaux ont été rédigés.
Les modèles génératifs sont dynamiques (ils ne sont pas construits pour un contexte spécifique) et leur design les rend utilisables à des échelles sans précédent. Cela rend quasiment impossible d’envisager les risques futurs qui découleront des applications inventées au fil du temps par les usagers.
Pour Helberger et Diakopoulos, ces deux aspects remettent en question la possibilité d’approcher les systèmes d’intelligence artificielle selon des catégories de risque (haut, moyen, sans risque), comme le fait, en substance, la directive européenne.
Plutôt que des catégories fixes, les deux chercheurs proposent notamment d’envisager la question de manière plus dynamique, en s’inspirant des logiques de surveillance des risques systémiques encadrées par le DSA (Digital Services Act).
L’article a été publié une semaine à peine après que le parlement européen a ajouté les systèmes génératifs dans les catégories à risque, en particulier quand ceux-ci produisent du contenu difficilement différentiable d’une production humaine.
Le 27 février 2023 à 07h59
Commentaires (19)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 27/02/2023 à 08h32
Il est urgent de créer une loi pour réguler le futur, surtout s’il est inconnu.
Bref, l’innovation est un risque et le régulateur fera tout pour minimiser les risques.
Et après on s’étonne que l’Europe soit à la traine sur le numérique.
Le 27/02/2023 à 09h24
C’est pourtant simple ! Il suffit d’interdire à ces systèmes de répondre des choses fausses et de sourcer leurs réponses. À eux de de démerder.
Le 27/02/2023 à 09h55
oué ho jamais tout le monde sera d’accord sur les sources quel que soit le sujet.
Le 27/02/2023 à 09h58
Ça permettra au moins de juger la qualité de la réponse.
De plus, j’ai mis un “et” entre mes 2 exigences.
Le 27/02/2023 à 10h42
juger la qualité de la réponse c’est déjà faire preuve d’esprit critique sur les sources, ça je crois pas que tout le monde soit prêt à le faire (genre les présentations avec des réponses fausses que personne ne relève). mais c’est presque une prise de position : le robot répond dans un sens en argumentant avec des sources qu’on lui propose, il ne va pas chercher des réponses et/ou des sources là où il veut.
perso je pense que c’est pas plus mal tant que ce sont des gentils monsieurs (aka pas les chinois et les russes) qui choisissent les sources en questions.
Le 27/02/2023 à 10h47
Quand on voit les énormités sorties par chatGPT, je pense qu’il est urgent de bloquer ce genre de systèmes, quels que soient ceux qui le nourrissent.
Le robot n’argumente pas aujourd’hui. Il sort des mots qui correspondent le mieux de façon probabiliste à la phrase précédente du chat.
Le 27/02/2023 à 11h23
quand je parle d’argument, je veux dire qu’il probabilise son discours avec des sources pour pas répondre tout le temps à côté de la plaque. mais oui on est d’accord.
Le 27/02/2023 à 12h31
Il faut demander un rapport à ce sujet à ChatGPT, il est super doué pour pondre ce genre de discours
Le 27/02/2023 à 12h53
Ou, a l’inverse, traiter ces systèmes comme des utilisateurs lambda d’internet.
Pourquoi les réponses provenant d’un bot devraient faire l’objet de davantage d’attention de la part du régulateur que les réponses d’un utilisateur lambda ? Les utilisateurs ont le droit d’être con, mais pas les IA ?
Le 27/02/2023 à 14h49
À quoi pourrait servir une IA à la con ?
Cela interdirait à l’IA de créer de la vérité. Par exemple en trouvant des corrélations entre différentes sources qu’aucun humain n’aurait au préalable vues et documentées.
Le 27/02/2023 à 15h50
Par définition, une IA est intelligente, donc pas conne.
Les utilisateurs savent que les gens sur Internet sont des cons. Par contre, ils croient que ce que disent les IA est vrai, surtout quand comme chatGPT, c’est dit d’une façon assurée.
Le 27/02/2023 à 16h24
Les IA utilisent leur intelligence pour générer des discours compréhensibles.
Pas pour générer des réponses exactes.
Quatre sources qui disent les choses d’une façon assurée:
Je ne vois pas pourquoi il faut réguler l’une des quatre sources plus que les 3 autres.
Le 27/02/2023 à 16h51
L’un des quatre est un outil. Saura tu retrouver lequel ? :x
Le 27/02/2023 à 17h51
Et dire qu’il suffirait d’indiquer sur l’écran d’accueil de ChatGPT qu’il peut générer des contenus erronés.
… Oh wait !
Le 27/02/2023 à 19h16
L’outil en question (GPT) ne fait qu’afficher une réponse qui correspond à ma recherche. En ce sens ce n’est guère différent de ce que fait Google Search ou Twitter Search.
Auquel cas on doit réguler tous les outils de recherche au motif que le résultat affiché pourrait être faux ?
Ca confirmerait la tendance des procès qui demandent de censurer en priorité les résultats de “Google Search” et pas les sources d’informations. C’est un peu déresponsabiliser les créateurs d’information et les consommateurs d’information. Et indirectement donner du pouvoir aux moteurs de recheche: si c’est affiché en résultat de Google/Bing, alors c’est vrai… car la loi les oblige à afficher des trucs vrais. :/
Le 28/02/2023 à 13h29
A la même chose qu’un humain à la con ?
Le 28/02/2023 à 15h33
Barmaid ♀️ → Batman ♂️ → Barbot et Robin ? ———-> [ ]
On ne réinventera pas Autofab de Philip K. Dick, qui a bien posé le thème, avec une touche humoristique qui ajoute tout son sel au produit (si j’ose dire…). Sauf que bien sur dans la nouvelle de 1955 il s’agissait tout autant de critiquer les déficiences de la logique planificatrice de l’humain que les lacunes d’intelligence de l’IA causées par les limites de sa conception : sous la plume de P.K.D., l’IA est tout autant elle-même que la personification d’une administration déshumanisante.
Dans le film Passengers, toute la partie romantique de l’histoire évacue la part de critique de l’humain car il est représenté par sa sentimentalité et ses émotions. Bon ok le film est bien réalisé, excepté pour ce qui est de la révélation faite à Eve qu’elle est issue d’une côte d’Adam (c’est un paradoxe, mais elle le savait déjà !) et bien sur la fin est lacunaire : après moultes péripéties rocambolesques ils vécurent heureux, ok, et puis ils font pousser une jungle vierge dans le vaisseau spatial ? C’est encore un de ces films subliminalement conçu pour influencer inconsciemment les humains à la con à se laisser pousser des poils aussi longs qu’un troll.
Le 28/02/2023 à 15h41
Donc finalement tu préfères ne pas comprendre la différence entre un humain et outil.
Le 28/02/2023 à 23h57
Ou alors c’est toi qui ne fait pas la différence entre un outil qui affiche un texte écrit par un humain, et un outil qui affiche un texte généré par un algorithme.
Exemple
A qui la faute ? Google ? wikipedia ? Surement Wikipedia, non ?
Si j’ajoute que l’article wikipedia a été généré et publié automatiquement par ChatGPT.
Est-ce que la responsabilité de la faute vient soudain de changer ? Ou c’est toujours de la faute de wikipedia ?