Des vidéastes et spécialistes alertent sur les conflits d’intérêts dans l’IA
Le 21 octobre à 17h19
2 min
IA et algorithmes
IA
Emmenés par les vidéastes Lê Nguyen Hoang (derrière la chaîne Youtube Science4all), Jean-Lou Fourquet (AprèsLaBiere) et Victor Fersing (La Fabrique Sociale), plus de soixante-dix chercheuses, praticiens, enseignantes et journalistes co-signent une tribune intitulée « Pourquoi il est urgent de porter de l’attention aux conflits d’intérêt des "experts en IA" ».
Publié dans Usbek & Rica, le texte alerte sur la portée médiatique offerte dans les médias et dans les instances politiques à des personnalités certes spécialistes de l’intelligence artificielle, mais aussi affiliées à des géants numériques comme Meta ou Alphabet – ainsi du directeur de la recherche en IA de Meta Yann Le Cun, invité à l’Élysée aux côtés d’Eric Schmidt, ancien PDG de Google, pour réfléchir au futur de l’IA dans l’Hexagone.
Ses auteurs soulignent par ailleurs la propension des plus grandes entreprises à orienter la recherche scientifique elle-même. Ils citent l’étude remarquée des frères Abdalla, qui démontrait en 2021 que 95 % des articles sur l’éthique de l’IA ou ses effets sociaux publiés dans les journaux scientifiques Nature et Science avaient au moins un auteur financé, à un moment de sa carrière, par l’une des Big Tech.
Et d’enjoindre la population, spécialistes, journalistes comme citoyens, d'affuter leur esprit critique vis-à-vis du domaine.
Le 21 octobre à 17h19
Commentaires (11)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 21/10/2024 à 20h50
J'espérais voir des exemples concrets de tribunes ou articles dont l'objectivité pouvait être remise en doute. Parce que je trouve léger de dire "la tribune est du lobbying" quand une personne a bossé ou a fréquenté à un moment ou un autre une entreprise de la Big Tech sans plus de détails.
Avec un tel degré de réflexion, je suis donc aussi moi-même un vendu parce que je suis régulièrement amené à bosser avec Google ou Microsoft ?
Le 22/10/2024 à 08h21
Sur les questions de fabrique du doute et d'information biaisée que ces financements peuvent générer, je recommande The Misinformation Age de Cailin O'Connor
Le 22/10/2024 à 09h56
Modifié le 22/10/2024 à 03h36
L'industrie a toujours retardé la prise en compte des enjeux de sécurité et de santé publique. Dans 30 ans, on aura un "nutriscore" de l'IA avec une gradation de réalité et de génération automatique, ou une mention générique obligatoire "fumer tue" pour l'IA, du genre "l'IA reproduit et ne crée rien".
Creapills a d'ailleurs relevé une image : https://www.facebook.com/100064242896937/posts/pfbid02P2z9G4XXe3e6UG66PT9tE7mQw424LmyNFXZ8wpivwWPspPBSnNqeZ36DrixpcQtdl/
Le 22/10/2024 à 03h28
Modifié le 22/10/2024 à 09h38
Le 22/10/2024 à 09h54
Le 22/10/2024 à 10h04
Il doit convaincre un monde incrédule que le cauchemar a déjà commencé.
Le 22/10/2024 à 10h09
Le 22/10/2024 à 12h06
Modifié le 23/10/2024 à 09h29
2. Ce sont quelques experts parmi plein d'autres.
Certes, c'est pas les employés de GAFAM que j'écouterai le plus concernant les problèmes d'éthiques. Mais leur expertise sur la technologie ou le business est incontestable.
La tribune s'adresse aux "scientifiques, journalistes et citoyens" afin qu'ils soient "beaucoup plus méfiants envers ces experts" qui auraient un intérêt personnel en contradiction avec l'intérêt général.
De nos jours, je dirais que c'est vrai pour toute personne qui pense que son avis mérite d'être diffusé au public. Méfiez-vous des gens qui donnent leurs avis... ou publient des tribunes.