Une silhouette se détache devant un mur de carrés rouges.

Des mineurs employés à l’entraînement des modèles d’IA

Une silhouette se détache devant un mur de carrés rouges.

Certaines des entreprises qui sous-traitent aux géants du numérique l’étiquetage des jeux d’entraînement de leurs modèles d’intelligence artificielle (IA) emploient des mineurs.

Wired rapporte par exemple le cas d'Hassan, 18 ans aujourd’hui, qui a commencé à étiqueter des données via la plateforme de crowdsourcing Toloka lorsqu’il n’en avait que 15.

Pendant les confinements, cette activité a paru au jeune Pakistanais être un bon moyen de gagner un peu d’argent.

Wired raconte aussi comment travailler pour Appen, une autre plateforme de travail crowdsourcé, a pu devenir une activité discutée dans les cours d’écoles kényanes, les élèves récupérant les cartes d’identité de leurs parents pour passer outre les vérifications d’âges implémentées.

Parmi les tâches qu’ils se retrouvent à effectuer : de l’étiquetage, du partage de données parfois sensibles, ou de la modération - Hassan raconte ainsi avoir dû trier des récits de viols, des discours de haine et des images sexualisées de mineurs pour la plateforme UHRS, autant de tâches qui touchent négativement sa santé mentale.

Commentaires (15)


Ah merde on savait pas. Bon, maintenant que c’est fait on va pas jeter le boulot.
C'est beau l'IA qui œuvre pour le plein emploi.
Traiter du label pour des dataset c'est clairement comme modérer les medias sociaux. Les modèles ont besoin d'informations détaillées, y compris de toutes les saletés que notre espèce est capable de produire, ne serait-ce que pour savoir comment éviter de les répéter et les bloquer.

Quand au mensonge sur leur âge pour faire ce boulot, pour moi c'est la même chose que les personnes qui mentent pour regarder du porno. C'est leur responsabilité, elles assument leurs conneries. Après les plateformes en question auraient certainement dû être plus explicites dans le travail, j'imagine que cela n'était pas mentionné ?
Modifié le 23/11/2023 à 08h28
Responsabilité et mineur, ce n'est pas antinomique ?

greenchris

Responsabilité et mineur, ce n'est pas antinomique ?
Pas forcément.

On ne parle pas de responsabilité pénale dans le cas présent si je me réfère au droit français. Je ne saurais me prononcer pour le contexte législatif des pays de résidences de ces personnes.

Cependant, toujours en droit français, à 15 ans on a déjà une responsabilité pénale (fixée à partir de 13 ans). La responsabilité pénale est celle qui déclare qu'un mineur peut être reconnu coupable d'une infraction. Elle démarre à 13 ans car avant cela, le mineur est considéré par la loi comme n'ayant pas la capacité de comprendre ses actions. La délinquance entre 13 et 18 ans implique déjà une responsabilité du mineur (traduction : il peut être reconnu coupable), ce sont les sanctions qui vont différer (peines éducatives, etc).

Par contre la majorité pénale est fixée à 18 ans, condition qui supprime l'excuse de la minorité et donc il risque les peines prévues par le code pénal.

Là on est dans le cas d'une responsabilité que je qualifierais de morale : t'as fait une connerie en mentant délibérément, t'assumes les conséquences. A 15 ans on commence à avoir assez de discernement pour ça. Même si je pense qu'il y a certainement eu un défaut d'information, mais là dessus je ne saurais me prononcer.
Finalement Prizee n'tait pas si mal, très abrutissant mais pas choquant.
Pour les plus jeunes: https://fr.wikipedia.org/wiki/Prizee
Quand tu étais mineur et que légalement tu ne peut pas gagner quelques sous c'était une solution.
De mémoire c'était presque impossible de gagner un prix sans payer pour avoir plus de parties.

Et j'ai eu une grosse période d'activité sur ce genre de site (jamais payé par contre).
Il n'aura pas fallu longtemps pour que l'IA soit liée à un scandale social.

Ce n'est plus une plateforme de travail déguisé (déjà l'objet de scandale. Ex : Amazon) qui fait travailler.

C'est une plateforme qui entraine un modèle pour faire le job en utilisant le travail déguisé... Et une fois entrainée le modèle, plus besoin de main d'œuvre.

Qu'on mette de l'IA dans la vie de gens; soit. Mais qu'on laisse pas d'option de vie derrière pour ces même gens... Iz just gud buziness disait un Lolcat.

Modifié le 23/11/2023 à 13h02
En quoi le travail est-il déguisé ?

Les personnes concernées par cet article ont volontairement choisi de faire ce travail en mentant sur leur âge. Je n'ai pas vu d'information comme quoi il y avait une contrainte ou autre pour le faire.

Le travail d'entraînement déguisé de l'IA, c'est plutôt ces saloperies de CAPTCHA.

SebGF

En quoi le travail est-il déguisé ?

Les personnes concernées par cet article ont volontairement choisi de faire ce travail en mentant sur leur âge. Je n'ai pas vu d'information comme quoi il y avait une contrainte ou autre pour le faire.

Le travail d'entraînement déguisé de l'IA, c'est plutôt ces saloperies de CAPTCHA.
Qui plus est, il y a un intermédiaire qui est la plateforme de crowdsourcing qui sert de prestataires et enfin, il y a usurpation d'identité de la part du mineur. L'accusation d'utiliser des mineurs pour entraîner des IA est un peu un raccourci putassié.

tazvld

Qui plus est, il y a un intermédiaire qui est la plateforme de crowdsourcing qui sert de prestataires et enfin, il y a usurpation d'identité de la part du mineur. L'accusation d'utiliser des mineurs pour entraîner des IA est un peu un raccourci putassié.
L'accusation d'utiliser des mineurs pour entraîner des IA est un peu un raccourci putassié.


Pluzun

tazvld

Qui plus est, il y a un intermédiaire qui est la plateforme de crowdsourcing qui sert de prestataires et enfin, il y a usurpation d'identité de la part du mineur. L'accusation d'utiliser des mineurs pour entraîner des IA est un peu un raccourci putassié.
Le problème n'est pas la. C'est bien évident que ces personnes ne devraient pas y souscrire. Mais ont-elles le choix ? Et d'une...

Bon les mesures de contrôle... bref... ça fait deux.

C'est plutôt que l'industrie (la vraie cible de mon propos) sait très bien qui va souscrire, et cela permet encore une fois de trouver de la main d’œuvre à bas cout qui ne suscitera plus d'intérêt une fois l'IA entrainée.

Peu importe la forme ou le montage plus ou moins alambiqué. Ça reste les mêmes moyens, les mêmes cibles. A ceci près qu'il n'y a pas d'emplois de remplacement une fois l'objectif atteint. Donc ils passeront d'emploi (ou activité) très précaires à rien...

Et ce n'est pas une accusation puisque c'est déjà rapporté par Wired. Ou alors il faut dire que Wired accuse.

On ne va pas faire croire que ce sont de vils djeuns qui ont voulu se faire un billet en faisant de fausse déclarations. Ils ont juste besoin d'argent dans ces pays ou c'est pas vraiment Byzance. Pakistan, Kenya... y'a un peu de stress sur le porte monnaie, hein. Quand c'est pas une guerre sur les bras.

Et en face on le sait très bien.

Ces plateformes opèrent la ou elles opèrent pour les raisons les plus simple du monde. Pauvreté, protection de l'enfance en virgule flottante, etc... Alors qu'elles savent parfaitement choisir de ne pas ouvrir leur services dans un pays X ou Y pour les raisons qu'elles inventent régulièrement en fonction du lait qui boue.

Combien d'américains on "subi" ce genre de trauma ?


Enfin bref regardons la gueule des liens qui sont en dessous de l'article :

* IA : la majorité du travail du clic « à la française » externalisée à Madagascar
* Des Kényans payés moins de 2 dollars de l’heure pour entraîner ChatGPT
* IA : en Finlande, le travail du clic confié aux prisonniers
* Le remplacement des travailleurs par l’IA, un récit peu nuancé

Si j'étais une IA j'y verrai un "pattern"... sic...


TexMex

Le problème n'est pas la. C'est bien évident que ces personnes ne devraient pas y souscrire. Mais ont-elles le choix ? Et d'une...

Bon les mesures de contrôle... bref... ça fait deux.

C'est plutôt que l'industrie (la vraie cible de mon propos) sait très bien qui va souscrire, et cela permet encore une fois de trouver de la main d’œuvre à bas cout qui ne suscitera plus d'intérêt une fois l'IA entrainée.

Peu importe la forme ou le montage plus ou moins alambiqué. Ça reste les mêmes moyens, les mêmes cibles. A ceci près qu'il n'y a pas d'emplois de remplacement une fois l'objectif atteint. Donc ils passeront d'emploi (ou activité) très précaires à rien...

Et ce n'est pas une accusation puisque c'est déjà rapporté par Wired. Ou alors il faut dire que Wired accuse.

On ne va pas faire croire que ce sont de vils djeuns qui ont voulu se faire un billet en faisant de fausse déclarations. Ils ont juste besoin d'argent dans ces pays ou c'est pas vraiment Byzance. Pakistan, Kenya... y'a un peu de stress sur le porte monnaie, hein. Quand c'est pas une guerre sur les bras.

Et en face on le sait très bien.

Ces plateformes opèrent la ou elles opèrent pour les raisons les plus simple du monde. Pauvreté, protection de l'enfance en virgule flottante, etc... Alors qu'elles savent parfaitement choisir de ne pas ouvrir leur services dans un pays X ou Y pour les raisons qu'elles inventent régulièrement en fonction du lait qui boue.

Combien d'américains on "subi" ce genre de trauma ?


Enfin bref regardons la gueule des liens qui sont en dessous de l'article :

* IA : la majorité du travail du clic « à la française » externalisée à Madagascar
* Des Kényans payés moins de 2 dollars de l’heure pour entraîner ChatGPT
* IA : en Finlande, le travail du clic confié aux prisonniers
* Le remplacement des travailleurs par l’IA, un récit peu nuancé

Si j'étais une IA j'y verrai un "pattern"... sic...


C'est un problème des plateformes de crowdsourcing et ce n'est pas nouveau. À une époque, avant internet, on appelait ça la mondialisation.

tazvld

C'est un problème des plateformes de crowdsourcing et ce n'est pas nouveau. À une époque, avant internet, on appelait ça la mondialisation.
S'ils sont si pauvres que cela, alors ils n'ont certainement pas tous à la maison un PC dédié et une connexion Internet. Donc, cela veut dire que quelqu'un là bas leur fournit le matériel en échange d'une commission. Le véritable profiteur, c'est cet intermédiaire.
Le big data, l'or numérique, est plus important que la protection des mineurs et l'esclavage moderne réunis.
Fermer