Connexion
Abonnez-vous

Deux défis que ChatGPT pose aux régulateurs

Deux défis que ChatGPT pose aux régulateurs

Le 27 février 2023 à 07h59

Quels challenges ChatGPT crée-t-il pour les législateurs européens, qui travaillent depuis plusieurs mois à un règlement sur l’intelligence artificielle ?

Dans un article de l’Internet Policy Review, Natali Helberger, chercheuse à l’université d’Amsterdam, et Nicholas Diakopoulos, de la Northwestern University, expliquent que ChatGPT diffère au moins en deux points des modèles « traditionnels » d’intelligence artificielle à partir desquels les premiers jets de textes légaux ont été rédigés.

Les modèles génératifs sont dynamiques (ils ne sont pas construits pour un contexte spécifique) et leur design les rend utilisables à des échelles sans précédent. Cela rend quasiment impossible d’envisager les risques futurs qui découleront des applications inventées au fil du temps par les usagers.

Pour Helberger et Diakopoulos, ces deux aspects remettent en question la possibilité d’approcher les systèmes d’intelligence artificielle selon des catégories de risque (haut, moyen, sans risque), comme le fait, en substance, la directive européenne.

Plutôt que des catégories fixes, les deux chercheurs proposent notamment d’envisager la question de manière plus dynamique, en s’inspirant des logiques de surveillance des risques systémiques encadrées par le DSA (Digital Services Act).

L’article a été publié une semaine à peine après que le parlement européen a ajouté les systèmes génératifs dans les catégories à risque, en particulier quand ceux-ci produisent du contenu difficilement différentiable d’une production humaine.

Le 27 février 2023 à 07h59

Commentaires (19)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Cela rend quasiment impossible d’envisager les risques futurs qui découleront des applications inventées au fil du temps par les usagers.


Il est urgent de créer une loi pour réguler le futur, surtout s’il est inconnu.



Bref, l’innovation est un risque et le régulateur fera tout pour minimiser les risques.
Et après on s’étonne que l’Europe soit à la traine sur le numérique.

votre avatar

C’est pourtant simple ! Il suffit d’interdire à ces systèmes de répondre des choses fausses et de sourcer leurs réponses. À eux de de démerder.

votre avatar

fred42 a dit:


C’est pourtant simple ! Il suffit d’interdire à ces systèmes de répondre des choses fausses et de sourcer leurs réponses. À eux de de démerder.


oué ho jamais tout le monde sera d’accord sur les sources quel que soit le sujet.

votre avatar

Ça permettra au moins de juger la qualité de la réponse.



De plus, j’ai mis un “et” entre mes 2 exigences.

votre avatar

juger la qualité de la réponse c’est déjà faire preuve d’esprit critique sur les sources, ça je crois pas que tout le monde soit prêt à le faire (genre les présentations avec des réponses fausses que personne ne relève). mais c’est presque une prise de position : le robot répond dans un sens en argumentant avec des sources qu’on lui propose, il ne va pas chercher des réponses et/ou des sources là où il veut.
perso je pense que c’est pas plus mal tant que ce sont des gentils monsieurs (aka pas les chinois et les russes) qui choisissent les sources en questions.

votre avatar

Quand on voit les énormités sorties par chatGPT, je pense qu’il est urgent de bloquer ce genre de systèmes, quels que soient ceux qui le nourrissent.




le robot répond dans un sens en argumentant avec des sources qu’on lui propose


Le robot n’argumente pas aujourd’hui. Il sort des mots qui correspondent le mieux de façon probabiliste à la phrase précédente du chat.

votre avatar

quand je parle d’argument, je veux dire qu’il probabilise son discours avec des sources pour pas répondre tout le temps à côté de la plaque. mais oui on est d’accord.

votre avatar

Il faut demander un rapport à ce sujet à ChatGPT, il est super doué pour pondre ce genre de discours :D

votre avatar

fred42 a dit:


C’est pourtant simple ! Il suffit d’interdire à ces systèmes de répondre des choses fausses et de sourcer leurs réponses. À eux de de démerder.


Ou, a l’inverse, traiter ces systèmes comme des utilisateurs lambda d’internet.



Pourquoi les réponses provenant d’un bot devraient faire l’objet de davantage d’attention de la part du régulateur que les réponses d’un utilisateur lambda ? Les utilisateurs ont le droit d’être con, mais pas les IA ? :keskidit:

votre avatar

À quoi pourrait servir une IA à la con ? :keskidit:



Cela interdirait à l’IA de créer de la vérité. Par exemple en trouvant des corrélations entre différentes sources qu’aucun humain n’aurait au préalable vues et documentées.

votre avatar

Par définition, une IA est intelligente, donc pas conne.



Les utilisateurs savent que les gens sur Internet sont des cons. Par contre, ils croient que ce que disent les IA est vrai, surtout quand comme chatGPT, c’est dit d’une façon assurée.

votre avatar

fred42 a dit:


Par définition, une IA est intelligente, donc pas conne.


Les IA utilisent leur intelligence pour générer des discours compréhensibles.
Pas pour générer des réponses exactes.




Les utilisateurs savent que les gens sur Internet sont des cons. Par contre, ils croient que ce que disent les IA est vrai, surtout quand comme chatGPT, c’est dit d’une façon assurée.


Quatre sources qui disent les choses d’une façon assurée:




  1. Le professeur Raoult sur son blog.


  2. Un expert autoproclamé en cybersécurité sur Twitter .

  3. Une IA ChatGPT sur Bing.

  4. Un rédacteur d’article sur NXI.



Je ne vois pas pourquoi il faut réguler l’une des quatre sources plus que les 3 autres.

votre avatar

(quote:2121835:127.0.0.1)
Quatre sources qui disent les choses d’une façon assurée:




  1. Le professeur Raoult sur son blog.

  2. Un expert autoproclamé en cybersécurité sur Twitter .

  3. Une IA ChatGPT sur Bing.

  4. Un rédacteur d’article sur NXI.



Je ne vois pas pourquoi il faut réguler l’une des quatre sources plus que les 3 autres.


L’un des quatre est un outil. Saura tu retrouver lequel ? :x

votre avatar

Et dire qu’il suffirait d’indiquer sur l’écran d’accueil de ChatGPT qu’il peut générer des contenus erronés.



… Oh wait !

votre avatar

eliumnick a dit:


L’un des quatre est un outil. Saura tu retrouver lequel ? :x


L’outil en question (GPT) ne fait qu’afficher une réponse qui correspond à ma recherche. En ce sens ce n’est guère différent de ce que fait Google Search ou Twitter Search.



Auquel cas on doit réguler tous les outils de recherche au motif que le résultat affiché pourrait être faux ?



Ca confirmerait la tendance des procès qui demandent de censurer en priorité les résultats de “Google Search” et pas les sources d’informations. C’est un peu déresponsabiliser les créateurs d’information et les consommateurs d’information. Et indirectement donner du pouvoir aux moteurs de recheche: si c’est affiché en résultat de Google/Bing, alors c’est vrai… car la loi les oblige à afficher des trucs vrais. :/

votre avatar

Tsinpen a dit:


À quoi pourrait servir une IA à la con ?


A la même chose qu’un humain à la con ?



Barman du film Passenger

votre avatar

(quote:2121993:j34n-r0x0r)
A la même chose qu’un humain à la con ?



Barman du film Passenger


Barmaid ♀️ → Batman ♂️ → Barbot et Robin ? ———-> [ :byebye: ]



On ne réinventera pas Autofab de Philip K. Dick, qui a bien posé le thème, avec une touche humoristique qui ajoute tout son sel au produit (si j’ose dire…). Sauf que bien sur dans la nouvelle de 1955 il s’agissait tout autant de critiquer les déficiences de la logique planificatrice de l’humain que les lacunes d’intelligence de l’IA causées par les limites de sa conception : sous la plume de P.K.D., l’IA est tout autant elle-même que la personification d’une administration déshumanisante.



Dans le film Passengers, toute la partie romantique de l’histoire évacue la part de critique de l’humain car il est représenté par sa sentimentalité et ses émotions. Bon ok le film est bien réalisé, excepté pour ce qui est de la révélation faite à Eve qu’elle est issue d’une côte d’Adam (c’est un paradoxe, mais elle le savait déjà !) et bien sur la fin est lacunaire : après moultes péripéties rocambolesques ils vécurent heureux, ok, et puis ils font pousser une jungle vierge dans le vaisseau spatial ? C’est encore un de ces films subliminalement conçu pour influencer inconsciemment les humains à la con à se laisser pousser des poils aussi longs qu’un troll.

votre avatar

(quote:2121894:127.0.0.1)
L’outil en question (GPT) ne fait qu’afficher une réponse qui correspond à ma recherche. En ce sens ce n’est guère différent de ce que fait Google Search ou Twitter Search.



Auquel cas on doit réguler tous les outils de recherche au motif que le résultat affiché pourrait être faux ?



Ca confirmerait la tendance des procès qui demandent de censurer en priorité les résultats de “Google Search” et pas les sources d’informations. C’est un peu déresponsabiliser les créateurs d’information et les consommateurs d’information. Et indirectement donner du pouvoir aux moteurs de recheche: si c’est affiché en résultat de Google/Bing, alors c’est vrai… car la loi les oblige à afficher des trucs vrais. :/


Donc finalement tu préfères ne pas comprendre la différence entre un humain et outil. :craint:

votre avatar

eliumnick a dit:


Donc finalement tu préfères ne pas comprendre la différence entre un humain et outil. :craint:


Ou alors c’est toi qui ne fait pas la différence entre un outil qui affiche un texte écrit par un humain, et un outil qui affiche un texte généré par un algorithme.



Exemple




  1. je fais une recherche sur Google.

  2. Google me pointe un article de wikipedia.

  3. L’article de wikipedia contient des informations fausses.



A qui la faute ? Google ? wikipedia ? Surement Wikipedia, non ?



Si j’ajoute que l’article wikipedia a été généré et publié automatiquement par ChatGPT.
Est-ce que la responsabilité de la faute vient soudain de changer ? Ou c’est toujours de la faute de wikipedia ?

Deux défis que ChatGPT pose aux régulateurs

Fermer