L’institut AI Now appelle à « confronter le pouvoir technologique »
Le 14 avril 2023 à 05h34
3 min
Sciences et espace
Sciences
Cofondé en 2017 par les chercheuses Kate Crawford et Meredith Whittaker, l’institut AI Now de l’Université de New-York vient de publier son rapport annuel sur l’intelligence artificielle, titré « confronter le pouvoir technologique ».
Alors que les pronostics sur le futur de l’intelligence artificielle sont toujours plus sombres, « il est temps pour les régulateurs et pour le public de s’assurer que rien dans l’intelligence artificielle (et dans l’industrie qui l’alimente) ne va de soi », introduit la synthèse.
- [Interview] Promesses et limites de l’éthique de l’intelligence artificielle
- Timnit Gebru demande des régulations ex ante de l’intelligence artificielle
Publiées en 2018 puis en 2019, les précédentes éditions des rapports de l’AI Now Institute se penchaient à l’époque sur le développement des systèmes de reconnaissance faciale, « jusqu'à ce que les réactions des communautés locales fassent pression sur les responsables gouvernementaux ».
De même, insistent encore, en gras, les autrices du rapport : « l’intelligence artificielle n’a rien d’inévitable ».
Il est urgent de tirer des leçons de l’ère du « move fast and break things » des Big Tech, insiste encore l’institut, et bonne nouvelle : cette fois-ci, nous avons déjà mis en place des lois et des débuts de cadres qui s’imposent aux constructeurs d’algorithmes.
Partout où l’IA est utilisée, « la technologie ne fonctionne pas comme prévu et produit des taux d’erreurs élevés et des résultats injustes et discriminatoires ».
Pour pallier ce problème, et celui, peut-être moins simple à discerner, qui chercherait à faire croire que nous n’avons rien à dire sur le déploiement de ces technologies, le rapport propose quatre axes de travail. Tous visent un seul but, celui de remettre la responsabilité du déploiement et de la sécurisation de ces technologies dans les mains de leurs créateurs, c’est-à-dire des grandes entreprises technologies :
- « Faire peser sur les Big Tech la charge de démontrer que leurs technologies et leurs actions ne provoquent pas de dommages, plutôt que de laisser au public et aux régulateurs le rôle d’enquêter en permanence, d’identifier et de trouver des solutions après que les dommages ont eu lieu »
- « Casser les silos entre les arènes politiques, afin d’être mieux préparés à gérer les effets d’un programme politique sur un autre. » Ici, le rapport pointe la surface d’action des Big Tech à travers de multiples secteurs économiques et politiques, ce qui leur permet de faire jouer à leur avantage le cloisonnement des secteurs.
- « Identifier les espaces où les approches politiques sont vidées de leur substance par l’industrie et réorienter nos stratégies en conséquence ». Le rapport pointe ici la propension qu’a eu le milieu de la tech à prôner une réglementation « douce », par l’éthique, de la reconnaissance faciale, pour, in fine, pouvoir continuer de développer ses outils.
- « Dépasser notre focalisation restreinte sur les leviers législatifs et politiques pour adopter une théorie du changement bien plus large ». Ici, le rapport suggère de s’inspirer des organisations de défense du climat ou des travailleurs, qui identifient les enjeux de très long terme pour travailler dessus.
Le 14 avril 2023 à 05h34
Commentaires (13)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 14/04/2023 à 07h52
Boite de Pandore: réguler l’utilisation des logiciels.
En 1: les IA générative
En 2: la cryptographie
En 3: les lecteurs multimédia
En 4: ….
Le 14/04/2023 à 08h33
Déjà s’ils pouvaient renommer “Intelligence Artificielle”, cela éviterait à certains de croire que derrière cela, il y a une intelligence qui à réponse à tout et détient la vérité…
On serait moins surpris de les voir se tromper, ou dire n’importe quoi selon le sujet…
Le 14/04/2023 à 09h03
Je suis plutôt d’accord avec toi, parler d’“intelligence” c’est de la tromperie. Se baser sur l’accumulation des connaissances acquises n’est qu’une partie de l’intelligence, ou de la sagesse comme on pourrait l’exprimer.
Mais justement, je ne suis pas d’accord avec ton argument. Si on considère que le top du top de l’intelligence est ce que peut produire le cerveau humain, se tromper, dire n’importe quoi… je pense que l’humain a déjà montré à quel point il peut être dans le faux et y croire mordicus, diffuser des l’information erronée, préférer croire à savoir…
Le 14/04/2023 à 09h06
Oui, mais le problème c’est que ça donne une dimension un peu de science fiction à tous ces bots, il faut juste redescendre un peu et les utiliser ce pour quoi ils sont bons.
Pas en faire des IA qui ont réponse à tout et détiennent la vérité.
Le 14/04/2023 à 16h58
C’est là un des éléments importants du débat sur l’IA… Il n’existe pas vraiment de définition précise de ce qu’est “l’intelligence”.
C’est pour ça qu’il y a toujours un volet intéressant dans l’aspect législatif : définir le sujet sur le plan légal pour pouvoir légiférer dessus. Aujourd’hui, “l’intelligence” n’est pas une chose précisément définie et donc on y englobe toutes les interprétations du monde.
Je me rappelle il y a quelques mois avoir vu un documentaire sur des équipes de biologistes qui défendaient une théorie sur l’intelligence des plantes qui se localiserait dans les racines. Leurs observations montraient que les racines testent et tâtent le terrain pour trouver le meilleur endroit pour se développer. Là où coupée, la racine se développe “bêtement” en ligne droite. Tout comme le blob démontre une forme d’intelligence aussi avec sa faculté d’adaptation et même de résoudre des problèmes.
Bref, s’pas simple et je pense qu’on fabule un peu trop sur le mot “intelligence”.
Le 15/04/2023 à 05h32
Je pense aussi que c’est la première chose qui devrait être réglée. Le terme d’ “intelligence” pour parler de ces outils est très clairement marketing mais tout le monde n’a pas la culture technologique pour le comprendre malheureusement.
Le 14/04/2023 à 09h20
Il y a toute une élite intellectuelle qui s’inquiète qu’on en arrive à la conclusion “on peut être intelligent et dire des conneries”. Car cela casserait leur figure d’autorité.
Cette élite préfèrerait qu’on arrive à la conclusion “ces programmes ne sont pas intelligents”.
Le 14/04/2023 à 09h37
Il n’y a aucune intelligence dans ces programmes qui ne font que compulser un grand nombre de sources. Aucune analyse, aucune réflexion. C’est simplement dire la vérité, rien à voir avec se tirer sur la nouille en se pensant faire partie d’une élite.
Je te laisse imaginer que tu fais partie d’une élite au dessus des élites qui constatent que ces “IA” ne sont juste qu’un pas en avant après ce qu’ont été les moteurs de recherches tels que Google ou le très regretté Altavista.
Le 14/04/2023 à 09h43
Je pense que @127.0.0.1 faisait ici un trait d’humour. On est vendredi, quant même.
Le 14/04/2023 à 09h44
Définit moi “intelligence” dans le contexte de la formulation d’une réponse à une question, stp.
(peu importe qui/quoi à formulé la réponse).
Tu penses mal. Peut-être que ton intelligence n’est qu’un artifice ? (Ah ah ah)
Le 14/04/2023 à 10h30
ça ce n’est qu’une partie du problème. L’autre, aussi importante, c’est ce que les gens en font.
Le 14/04/2023 à 11h06
Bah… si. Très clairement. Même en imaginant qu’on interdise les big tech de poursuivre les recherches, ce n’est qu’une question d’années avant que le grand public ait accès à du matériel suffisamment performant pour entrainer ces modèles. L’utilisation de ces IA va se répandre et se démocratiser, qu’on le veuille ou non.
Le 16/04/2023 à 13h55
L’intelligence ne signifie pas détenir la vérité ni avoir réponse à tout.
Il est vrai que quand on montre GPT au grand public, il peut y avoir cette illusion momentanément, mais au delà de ces cas, je n’ai jamais vu personne croire ou prétendre que GPT serait une sorte de Dieu.
En revanche, il est clair qu’il y a une forme d’intelligence, et ça à peu près tous ceux qui l’ont utilisé sérieusement en conviennent.
https://arxiv.org/pdf/2303.12712v3.pdf
La comparaison avec les moteurs de recherche est pertinente à mon avis. Les moteurs de recherche tel que Google maintiennent un tableau de “poids” qui ressemble un peu à un réseau de neurones. C’est de l’apprentissage machine et on peut déjà parler d’un système intelligent primitif.