Amnesty au rapport

Comment les technologies s’insinuent dans le contrôle des personnes réfugiées et migrantes

Abonnez-vous pour tout dévorer et ne rien manquer.

Déjà abonné ? Se connecter

Abonnez-vous

Inquiète du déploiement peu contrôlé de technologies de surveillance aux frontières, Amnesty International publie une introduction aux droits numériques des personnes migrantes et réfugiées.

Constatant « le déploiement rapide et généralisé des technologies numériques dans les systèmes de gestion de l'asile et des migrations » partout sur la planète, Amnesty International publie un précis d’une trentaine de pages sur les droits numériques des personnes réfugiées et migrantes.

L’ONG y rappelle documenter depuis longtemps, de concert avec d’autres organisations spécialistes de la question, les différentes atteintes aux droits humains commises alors que les gouvernements tentent de réduire les flux migratoires. Dans les années récentes, cela dit, elle note que « ces politiques et pratiques se sont superposées à l'expansion rapide des capacités en matière de technologie numérique développées par des entreprises technologiques privées ».

Avec ce rapport, elle souhaite alerter sur la prolifération de technologies dites de « frontières intelligentes » (smart borders) et de la série de menaces pour les droits humains que leur expansion permet, sous la houlette de partenariats public-privé. En pratique, ces dispositifs intègrent de la surveillance électronique, l’usage de satellites comme de drones, des technologies de reconnaissance faciale, de la « détection de mensonge », du scanning d’iris, etc.

Amnesty International précise en introduction que les nouvelles technologies peuvent aider « au soutien, à la protection et à la promotion des droits des personnes réfugiées et en migration ». Ces outils peuvent les aider, par exemple, à accéder aux informations fiables dont elles ont besoin, et leur faciliter l’accès à des services vitaux.

Pour autant, en l’état, comme le résume le conseil de l’ONG pour l’intelligence artificielle (IA) et les technologies liées aux droits humains Matt Mahmoudi, « la prolifération de ces technologies risque de perpétuer et de renforcer les discriminations, le racisme, et la surveillance disproportionnée et illégale contre les personnes racisées » (ou racialisées. Ces termes désignent le processus d’assignation d’une personne à une catégorie raciale qui peut conduire, en raison de l’appartenance à cette supposée catégorie, à des discriminations ou du racisme).

Et le rapport de souligner : « La combinaison d’intérêts privés, d’un manque général de respect pour les droits des personnes en déplacement et du racisme et des discriminations systémiques peut permettre aux technologies de se développer plus rapidement » que les garanties et garde-fous nécessaires « pour responsabiliser un secteur technologique en permanente expansion ».

Alternatives technologiques à la détention et « externalisation » des frontières

La détention des personnes en migration est « souvent abusive et discriminante », indique Amnesty International, à la fois parce qu’elle est « arbitraire », parce qu’elle « vise des personnes racisées » et parce qu’elle est souvent le lieu de « violations des droits humains par les états comme par les entités privées ». L’ONG rappelle que le droit à la liberté est un inconditionnel, en droit international, et qu’à ce titre, les demandeurs d’asiles, réfugiés ou migrants devraient bénéficier de la même « présomption légale de liberté » que toute autre personne.

Pour faire face à la problématique, de nombreux États déclarent recourir à des technologies « d’alternatives à la détention » (ATD : couvre-feu, résidence imposée, caution, etc), ou leur versant numérique, les e-ATD, qui comprennent par exemple des bracelets électroniques et des applications de reconnaissance vocale ou faciale. Les États-Unis ont ainsi déployé deux dispositifs, un de « supervision intensive de comparution » (Intensive supervision appearance Program, ISAP) et un de surveillance par appareil électronique (Electronic monitoring device program), pour suivre les personnes passées par ses services d’immigration (ICE).

Au Royaume-Uni, en 2022, près de 15 000 personnes avaient été équipées de dispositifs de surveillance électronique – et le pays travaille à étendre encore ces technologies de surveillance.

Ces technologies posent des problèmes de cybersécurité, mais aussi plus largement de respect de l’intimité et de la vie privée. Elles soulèvent aussi la question de l’opacité des partenariats entre institutions publiques et entreprises privées, et des partages de données que ceux-ci permettent. En 2019, l’ICE a par exemple utilisé des outils de la société Palantir pour procéder à des arrestations de grande ampleur.

Une dernière problématique est posée par l’efficacité purement technique de ces outils : bracelets électroniques comme outils de reconnaissance vocales sont sujets aux faux positifs et aux dysfonctionnements. Amnesty souligne que ces problématiques affectent les personnes racisées de manière disproportionnée.

L'Europe a « virtuellement étendu ses frontières à travers la Méditerranée »

Autre tendance dans la gestion des mouvements migratoires : les pays du Nord recourent de plus en plus à ce qu’ils qualifient d’ « externalisation », qui désignent en réalité des partenariats passés avec d’autres pays et se traduit par l’apparition de contrôle d’immigration plus tôt sur les routes empruntées par les populations en déplacement. Ainsi l’Union Européenne a-t-elle « virtuellement étendu ses frontières à travers la Méditerranée et dans les régions africaines de transit », par l’intermédiaire de radars, de caméras haute-technologie, de données satellites et de capteurs électro-optiques (qui servent à la détection de mouvement), ou encore de drones et de systèmes biométriques qui visent avant tous les demandeurs d’asiles et migrants d'Afrique subsaharienne.

Amnesty International relève que, pour le déploiement efficace de ces dispositifs, les pays concernés ont conclu des accords avec des pays notoirement peu respectueux des droits humains comme la Libye, où les migrants se retrouvent pris dans des cycles de violences incluant torture, violences sexuelles et autres dénis de droits humains. Par ailleurs, l’ONG relève un nombre croissant de démonstrations que l’usage de technologies pour suivre, tracer et intercepter des migrants sur leur route conduit à un risque accru de décès de ces personnes.

Et de citer une récente étude menée à la frontière entre le Mexique et les États-Unis, où les auteurs constatent une corrélation positive entre les « difficultés et les souffrances » vécues par les personnes en déplacement et la présence d’infrastructure de surveillance « intelligente ».

Algorithmes d’aide à la décision et biométrie

Parmi les technologies les plus fréquemment utilisées dans le domaine, Amnesty International relève par ailleurs que des pays comme l’Autriche, la Belgique, le Danemark, l’Allemagne ou la Norvège autorisent la saisine et l’extraction de données des téléphones de personnes migrantes pour confirmer ou non leurs témoignages lorsqu’ils demandent l’asile. Au Royaume-Uni, la Cour de Justice a d’ailleurs estimé en mars 2022 que le département de l’Intérieur était dans l’illégalité lorsqu’il saisissait les téléphones portables des réfugiés arrivés par bateau et les obligeaient à céder leur mot de passe.

La biométrie est un autre sujet d’inquiétude de l’ONG, notamment à cause des risques de discrimination directe et indirecte qu’elle pose. Des organisations humanitaires comme l’Agence des Nations Unies pour les réfugiés ou le Programme alimentaire mondial de l’ONU ont d’ailleurs créé de larges bases de données d’empreintes digitales et d’iris, « dans le but apparent d’empêcher les enregistrements multiples et la duplication des données sur les réfugiés ». De leurs côtés, les États membres de l’Union Européenne s’appuient largement sur des bases de données biométriques, comme Eurodac.

De la même manière que les partenariats public-privé soulèvent divers enjeux politiques et économiques, Amnesty International s’interroge sur le partage croissant de données entre organismes humanitaires et états, sans le consentement nécessaire des personnes migrantes dont les données sont concernées.

L’ONG relève par ailleurs que le projet iBorderCtrl de l’Union Européenne continue son existence, dans le but de contrer la migration irrégulière, et ce quand bien même il a été démontré que « la détection de mensonge basée sur les micro-expressions » – comme le propose la technologie en question – « est largement appuyée sur la phrénologie », c’est-à-dire sur une pseudoscience qui « présente des liens solides et de forts parallèles avec les réflexions eugénistes ».

Elle note, enfin, qu’au Canada comme au Royaume-Uni ou ailleurs, de nombreux systèmes d’aide algorithmique à la décision interviennent dans les processus de contrôle aux frontières, et qu’ils ont comme effet collatéral de reproduire et renforcer certaines logiques racistes et discriminantes.

Un AI Act qui ne convainc pas

Au sujet de l’Union Européenne, elle note que, malgré le travail actuel sur une directive sur l’intelligence artificielle, drones, détecteurs de mensonges, technologies biométriques et autres sont déjà largement déployées aux frontières, créant « un large filet de surveillance de masse ». Citant le rapporteur de l’ONU sur les formes contemporaines du racisme, elle rappelle que cela « a le potentiel d’aggraver le racisme, la discrimination raciale, la xénophobie et d'autres formes d’exclusion ».

Saluant les travaux sur l’AI Act, elle regrette néanmoins qu'il « ne prévient pas suffisamment les potentiels risques posés par les technologies » ni ne les interdit. En effet, pour Amnesty International, les États doivent protéger les droits des personnes qui migrent en restreignant l'usage de technologies incompatibles avec les droits humains et en s’assurant que les outils déployés gèrent correctement les problématiques structurelles de discriminations, de xénophobie et de racisme. L'ONG demande aussi l'interdiction des systèmes de profilage dans le contexte du contrôle aux frontières et des technologies prédictives qui menacent le droit d’asile.

Autant d’éléments qui ont été écartés très tôt du texte européen.

Commentaires (1)


La capacité de traitement de masse d'information des outils "technologiques" peut devenir problématique, dès lors qu'il s'agit d'individus.

Dans ce cas, le risque de déshumanisation devient inévitable et donc les dérives...

Ici, on en devine, sans trop de difficulté, leurs contours...
Fermer