Des mineurs employés à l’entraînement des modèles d’IA
Le 23 novembre 2023 à 06h54
2 min
IA et algorithmes
IA
Certaines des entreprises qui sous-traitent aux géants du numérique l’étiquetage des jeux d’entraînement de leurs modèles d’intelligence artificielle (IA) emploient des mineurs.
Wired rapporte par exemple le cas d'Hassan, 18 ans aujourd’hui, qui a commencé à étiqueter des données via la plateforme de crowdsourcing Toloka lorsqu’il n’en avait que 15.
Pendant les confinements, cette activité a paru au jeune Pakistanais être un bon moyen de gagner un peu d’argent.
Wired raconte aussi comment travailler pour Appen, une autre plateforme de travail crowdsourcé, a pu devenir une activité discutée dans les cours d’écoles kényanes, les élèves récupérant les cartes d’identité de leurs parents pour passer outre les vérifications d’âges implémentées.
Parmi les tâches qu’ils se retrouvent à effectuer : de l’étiquetage, du partage de données parfois sensibles, ou de la modération - Hassan raconte ainsi avoir dû trier des récits de viols, des discours de haine et des images sexualisées de mineurs pour la plateforme UHRS, autant de tâches qui touchent négativement sa santé mentale.
Le 23 novembre 2023 à 06h54
Commentaires (15)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 23/11/2023 à 08h06
Le 23/11/2023 à 08h16
Modifié le 23/11/2023 à 08h28
Quand au mensonge sur leur âge pour faire ce boulot, pour moi c'est la même chose que les personnes qui mentent pour regarder du porno. C'est leur responsabilité, elles assument leurs conneries. Après les plateformes en question auraient certainement dû être plus explicites dans le travail, j'imagine que cela n'était pas mentionné ?
Le 23/11/2023 à 12h11
Le 23/11/2023 à 13h28
On ne parle pas de responsabilité pénale dans le cas présent si je me réfère au droit français. Je ne saurais me prononcer pour le contexte législatif des pays de résidences de ces personnes.
Cependant, toujours en droit français, à 15 ans on a déjà une responsabilité pénale (fixée à partir de 13 ans). La responsabilité pénale est celle qui déclare qu'un mineur peut être reconnu coupable d'une infraction. Elle démarre à 13 ans car avant cela, le mineur est considéré par la loi comme n'ayant pas la capacité de comprendre ses actions. La délinquance entre 13 et 18 ans implique déjà une responsabilité du mineur (traduction : il peut être reconnu coupable), ce sont les sanctions qui vont différer (peines éducatives, etc).
Par contre la majorité pénale est fixée à 18 ans, condition qui supprime l'excuse de la minorité et donc il risque les peines prévues par le code pénal.
Là on est dans le cas d'une responsabilité que je qualifierais de morale : t'as fait une connerie en mentant délibérément, t'assumes les conséquences. A 15 ans on commence à avoir assez de discernement pour ça. Même si je pense qu'il y a certainement eu un défaut d'information, mais là dessus je ne saurais me prononcer.
Le 23/11/2023 à 10h36
Pour les plus jeunes: Wikipedia
Quand tu étais mineur et que légalement tu ne peut pas gagner quelques sous c'était une solution.
Le 23/11/2023 à 11h17
Et j'ai eu une grosse période d'activité sur ce genre de site (jamais payé par contre).
Modifié le 23/11/2023 à 13h02
Ce n'est plus une plateforme de travail déguisé (déjà l'objet de scandale. Ex : Amazon) qui fait travailler.
C'est une plateforme qui entraine un modèle pour faire le job en utilisant le travail déguisé... Et une fois entrainée le modèle, plus besoin de main d'œuvre.
Qu'on mette de l'IA dans la vie de gens; soit. Mais qu'on laisse pas d'option de vie derrière pour ces même gens... Iz just gud buziness disait un Lolcat.
Le 23/11/2023 à 13h31
Les personnes concernées par cet article ont volontairement choisi de faire ce travail en mentant sur leur âge. Je n'ai pas vu d'information comme quoi il y avait une contrainte ou autre pour le faire.
Le travail d'entraînement déguisé de l'IA, c'est plutôt ces saloperies de CAPTCHA.
Le 23/11/2023 à 14h37
Le 23/11/2023 à 16h09
Le 23/11/2023 à 21h29
Bon les mesures de contrôle... bref... ça fait deux.
C'est plutôt que l'industrie (la vraie cible de mon propos) sait très bien qui va souscrire, et cela permet encore une fois de trouver de la main d’œuvre à bas cout qui ne suscitera plus d'intérêt une fois l'IA entrainée.
Peu importe la forme ou le montage plus ou moins alambiqué. Ça reste les mêmes moyens, les mêmes cibles. A ceci près qu'il n'y a pas d'emplois de remplacement une fois l'objectif atteint. Donc ils passeront d'emploi (ou activité) très précaires à rien...
Et ce n'est pas une accusation puisque c'est déjà rapporté par Wired. Ou alors il faut dire que Wired accuse.
On ne va pas faire croire que ce sont de vils djeuns qui ont voulu se faire un billet en faisant de fausse déclarations. Ils ont juste besoin d'argent dans ces pays ou c'est pas vraiment Byzance. Pakistan, Kenya... y'a un peu de stress sur le porte monnaie, hein. Quand c'est pas une guerre sur les bras.
Et en face on le sait très bien.
Ces plateformes opèrent la ou elles opèrent pour les raisons les plus simple du monde. Pauvreté, protection de l'enfance en virgule flottante, etc... Alors qu'elles savent parfaitement choisir de ne pas ouvrir leur services dans un pays X ou Y pour les raisons qu'elles inventent régulièrement en fonction du lait qui boue.
Combien d'américains on "subi" ce genre de trauma ?
Enfin bref regardons la gueule des liens qui sont en dessous de l'article :
* IA : la majorité du travail du clic « à la française » externalisée à Madagascar
* Des Kényans payés moins de 2 dollars de l’heure pour entraîner ChatGPT
* IA : en Finlande, le travail du clic confié aux prisonniers
* Le remplacement des travailleurs par l’IA, un récit peu nuancé
Si j'étais une IA j'y verrai un "pattern"... sic...
Le 24/11/2023 à 14h46
Le 26/11/2023 à 09h53
Le 23/11/2023 à 19h37