Dans leur document, ils précisent qu’ils n’ont pas demandé de ciblage sur le genre :
And for all the ads, we specified only the following: that the ads must be shown to adults who lived in or had recently been in either country.
Or, à partir du moment où tu paies une annonce pour être visible par les adultes et que celle-ci n’est présentée qu’à une catégorie de personne, alors il y a un problème, avant même d’être illégale.
Autre exemple, avec un contexte différent du homme/femme : Si je vends une machine à pain pour les particuliers, et que je demande à FB de l’annoncer à tous les adultes, je ne m’attends pas à ce qu’il enlève du scope les boulangers et patissiers amateur et pro car l’algorithme estime que cette population n’aime pas faire le pain de manière automatique.
Ici l’algorithme à choisi de lui même de ne pas privilégier une catégorie de personne ce qui représente :
pour l’annonceur : un manque de visibilité de son annonce
pour le récepteur : une opportunité manquée
Et cette non visibilité pourrait être du à un algorithme qui reproduit les schémas sur lesquels il a été entrainé, renforçant de facto les biais et préjugés.
1 commentaires
Discrimination algorithmique : la Fondation des femmes porte plainte contre Facebook
20/06/2023
Le 20/06/2023 à 07h 11
Dans leur document, ils précisent qu’ils n’ont pas demandé de ciblage sur le genre :
Or, à partir du moment où tu paies une annonce pour être visible par les adultes et que celle-ci n’est présentée qu’à une catégorie de personne, alors il y a un problème, avant même d’être illégale.
Autre exemple, avec un contexte différent du homme/femme :
Si je vends une machine à pain pour les particuliers, et que je demande à FB de l’annoncer à tous les adultes, je ne m’attends pas à ce qu’il enlève du scope les boulangers et patissiers amateur et pro car l’algorithme estime que cette population n’aime pas faire le pain de manière automatique.
Ici l’algorithme à choisi de lui même de ne pas privilégier une catégorie de personne ce qui représente :
Et cette non visibilité pourrait être du à un algorithme qui reproduit les schémas sur lesquels il a été entrainé, renforçant de facto les biais et préjugés.