En Afrique, les algorithmes amplifient la désinformation depuis longtemps
Des algorithmes b(i)aisés…
Le 12 septembre 2023 à 06h22
3 min
Réseaux sociaux
Sociaux
« L'hystérie autour de l’IA est une distraction, les algorithmes sèment déjà la désinformation en Afrique » écrit le chercheur de la fondation Mozilla Odanga Madung dans The Guardian.
Des dirigeants d’entreprises leaders de l’intelligence artificielle générative comme Sam Altman (OpenAI) font le tour de l’Union Européenne et des États-Unis en évoquant leurs propres produits comme de probables « dangers pour la démocratie », tout en déployant des efforts de lobbying pour que les régulations en cours d’élaboration, comme le règlement européen sur l’IA, leur reste favorable.
Saper les discussions publiques
Pourtant, écrit le chercheur kényan, voilà longtemps que les algorithmes participent à saper les discussions publiques, notamment dans divers pays d’Afrique.
L’industrie des « mercenaires de la désinformation » manipule facilement l’algorithme de « trending topic » de Twitter au Kenya comme au Nigeria. De même, l’algorithme qui distribue le contenu sur l’onglet « For You » de TikTok a soumis quantité de vidéos haineuses et clivantes en amont des élections kényanes de 2022.
Une large problématique
« Cela signifie qu'il n'est pas nécessaire de s'appuyer uniquement sur le contenu généré par l'IA pour mener des campagnes de désinformation efficaces », écrit Odanga Madung. Il ajoute que « le nœud du problème ne réside pas tant dans le contenu produit par des outils d’IA comme ChatGPT, mais dans la manière dont les gens reçoivent, traitent et comprennent les informations générées par les systèmes d'IA des plateformes technologiques ».
Le chercheur déclare donc qu’il prend les brusques alertes de l’industrie numérique « avec des pincettes », dans la mesure où celle-ci a déjà eu de nombreux effets néfastes documentés sur divers régimes politiques, mais aussi sur les vies quotidiennes de milliers de travailleurs du clic résidant dans divers pays en développement.
Quand l’IA perpétue des préjudices
Le problème est encore plus large, dans la mesure où il touche jusqu'à l'efficacité des modèles d'intelligence artificielle. Il y a plus de cinq ans, par exemple, la CNIL indiquait déjà que les données servant à entraîner les modèles médicaux représentaient principalement des hommes ayant des ancêtres européens : « Si vous êtes une femme d’origine africaine et jeune, je ne pense pas que la médecine personnalisée vous concerne », expliquait alors Philippe Besse, professeur de mathématiques et de statistique à l’Université de Toulouse.
- IA : la majorité du travail du clic « à la française » externalisée à Madagascar
- Kenya : 150 travailleurs de l’industrie de l’IA créent un syndicat
Les alertes sur les risques de l’IA « sélectionnent commodément ce sur quoi il faut se concentrer et ce qu'il faut ignorer », écrit Odanga Madung. « Je parie que les populations africaines n'effleurent même pas l'esprit d'Altman et de ses collègues », quand bien même ce sont elles, notamment par leur travail du clic, qui ont « contribué à faire de ChatGPT le phénomène qu'il est aujourd’hui ».
Et le chercheur « d'implorer les défenseurs et les observateurs de la démocratie, en particulier dans les pays en développement, de ne pas perdre de vue les préjudices déjà existants que l’IA perpétue ».
En Afrique, les algorithmes amplifient la désinformation depuis longtemps
-
Saper les discussions publiques
-
Une large problématique
-
Quand l’IA perpétue des préjudices
Commentaires (5)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 12/09/2023 à 10h03
Les PDG de la Silicon Valley qui cachent les sujets qui fâchent en détournant l’attention du public, on croirait voir nos politiques
Le 12/09/2023 à 11h56
On sait bien que tout ça c’est la faute aux abayas !
Le 12/09/2023 à 14h28
Certaines de ces polémiques sont un exemple en France des manipulations en ligne.
Car ce qui se passe en Afrique existe aussi chez nous et dans d’autres pays occidentaux.
Le plus consternant est que les personnes à la tête des réseaux sociaux (y compris des gens comme LeCun) sont dans le déni total, ils ne veulent rien savoir de ces problématiques alors que leurs algorithmes sont manipulés à grande échelle dans à peu près tous les pays.
Le 12/09/2023 à 15h54
En fait, si les réseaux dits sociaux ne faisaient pas caisse de résonance d’autant plus efficace que l’éducation laisse (qui a dit de manière croissante?) à désirer, la désinformation (qu’elle soit algorithmique ou singeant l’humain) perdrait juste son mode de diffusion favori.
Bon, j’aurais bien une solution radicale et je n’en serais clairement pas trop affecté personnellement. Mais ça casserait le jouet du chercheur qui s’affiche ainsi: “I tour the human condition by using data”.
Le 18/09/2023 à 17h01
Les marabouts ont sûrement déjà anticipés les opportunités offertes par ChatGPT.