Réguler les systèmes d’intelligence artificielle utilisés en matière de migration, d’asile et de contrôle aux frontières
cedie | Louvain-la-Neuve
Intelligence artificielle – Union européenne – Conseil de l’Europe – Droits fondamentaux – Systèmes biométriques.
La note propose une brève présentation de deux nouveaux textes applicables en matière d’intelligence artificielle – la Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle, les droits de l’homme, la démocratie et l’État de droit et le Règlement européen 2024/1689 sur l’intelligence artificielle – ainsi que leurs implications en matière de migration, d’asile et de contrôle aux frontières.
Edwina Taylor
L’année 2024 se distingue déjà comme une année charnière pour la régulation des systèmes d’intelligence artificielle avec l’adoption de deux textes majeurs : la Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle, les droits de l’homme, la démocratie et l’État de droit et le Règlement européen 2024/1689 sur l’intelligence artificielle.
L’on présente, dans les lignes qui suivent, les principales caractéristiques de ces textes et l’on résume leurs implications en matière de migration, d’asile et de contrôle aux frontières.
A. La Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle, les droits de l’homme, la démocratie et l’État de droit
La Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle, les droits de l’homme, la démocratie et l’État de droit a été adoptée le 17 mai 2024 par le Comité des ministres du Conseil de l’Europe lors de sa 133e session. Elle sera ouverte à la signature à l’occasion de la Conférence des ministres de la Justice qui se tiendra à Vilnius le 5 septembre prochain.
La Convention vise à instaurer des règles et des principes généraux communs. En vertu du texte, les États doivent veiller à ce que les activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle soient conformes aux principes fondamentaux suivants :
- Le principe de dignité humaine et d’autonomie personnelle (article 7) ;
- Le principe de transparence et de contrôle (article 8) ;
- Le principe de responsabilité et l’obligation de rendre des comptes (article 9) ;
- Le principe d’égalité et de nondiscrimination (article 10) ;
- Le principe de respect de la vie privée et de protection des données à caractère personnel (article 11) ;
- Le principe de fiabilité (article 12) ;
- Le principe d’innovation sûre (article 13).
Les États doivent également garantir l’accès à des voies de recours effectives en cas de violation des droits humains résultant d’activités menées par ou avec des systèmes d’intelligence artificielle. Des obligations d’information renforcent l’effectivité de tels recours comme la nécessité d’informer les personnes qui interagissent avec des systèmes d’intelligence artificielle du fait qu’elles n’interagissent pas avec un être humain ou encore la mise à disposition d’une documentation pertinente au sujet des systèmes d’intelligence artificielle susceptibles d’avoir une incidence significative sur les droits de l’homme (articles 14 et 15).
À ces garanties s’ajoutent des exigences visant à assurer l’identification, l’évaluation, la prévention et l’atténuation des risques posés par les systèmes d’intelligence artificielle (article 16).
L’on sait que les personnes migrantes, les demandeurs d’asile et les individus qui font l’objet de contrôles aux frontières constituent des groupes particulièrement vulnérables. En réaffirmant et en précisant l’application des droits fondamentaux dans le contexte de l’utilisation d’outils d’intelligence artificielle, la Convention vise à garantir que ces droits ne soient pas bafoués.
Les principes énoncés dans la Convention offrent un cadre permettant, par exemple, de traiter la problématique des biais racistes des systèmes d’intelligence artificielle. L’on rappelle que les biais algorithmiques sont la création ou la reproduction, par des systèmes automatisés, d’inégalités sociales. Ceux-ci peuvent être la conséquence de préjugés sociétaux préexistants, de données d’entraînement manquant de représentativité ou de défauts dans la conception de l’outil.
Les principes de transparence et d’égalité sont à cet égard particulièrement pertinents.
La mise en œuvre du principe de transparence permet, d’une part, de détecter et de rectifier les biais potentiels dans les systèmes d’IA. En rendant les processus et les données plus accessibles et compréhensibles, il devient possible d’identifier et de corriger des corrélations inexactes qui pourraient autrement passer inaperçues.
La mise en œuvre du principe d’égalité et de non-discrimination exige, d’autre part, la suppression des « inégalités dans les activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle afin d’obtenir des résultats impartiaux, justes et équitables » (article 10, § 2).
B. Le Règlement européen 2024/1689 sur l’intelligence artificielle
Le Règlement européen 2024/1689 sur l’intelligence artificielle a été adopté le 13 juin 2024 et a été publié au Journal officiel de l’Union européenne le 12 juillet dernier.
L’objectif du règlement est d’établir un cadre juridique uniforme applicable au développement, à la mise sur le marché, à la mise en service et à l’utilisation de systèmes d’intelligence artificielle dans le respect des droits fondamentaux consacrés par la Charte des droits fondamentaux de l’Union européenne.
Les nouvelles règles s’articulent en trois catégories en fonction du niveau de risque posé par les systèmes d’intelligence artificielle à l’encontre de la santé, de la sécurité et des droits humains.
La première catégorie comprend les systèmes qui présentent un risque considéré comme étant inacceptable. Ceux-ci constituent, dès lors, des systèmes prohibés (article 5).
La deuxième catégorie comprend les systèmes qui présentent un haut risque. Ceux-ci doivent respecter des exigences complémentaires en matière de gestion des risques (article 9), de gestion et de gouvernance des données (article 10), de documentation technique (article 11), d’enregistrement (article 12), de transparence (article 13), de contrôle humain (article 14), d’exactitude, de robustesse et de cybersécurité (article 15), etc.
La troisième catégorie comprend les systèmes qui présentent un risque faible. Ceux-ci sont autorisés tant qu’ils satisfont à certaines obligations de transparence.
Les systèmes d’intelligence artificielle utilisés en matière de migration, d’asile et de contrôle aux frontières sont considérés comme des systèmes à haut risque (Annexe III, 7o) lorsqu’ils sont utilisés par les autorités publiques compétentes ou par les institutions, organes ou organismes de l’Union ou en leur nom :
- en tant que polygraphes et outils similaires ;
- pour évaluer un risque, y compris un risque pour la sécurité, un risque de migration irrégulière ou un risque pour la santé, posé par une personne physique qui a l’intention d’entrer ou qui est entrée sur le territoire d’un État membre ;
- pour aider les autorités compétentes à procéder à l’examen des demandes d’asile, de visas et de titres de séjour et des plaintes connexes au regard de l’objectif visant à établir l’éligibilité des personnes physiques demandant un statut, y compris les évaluations connexes de la fiabilité des éléments de preuve ;
- aux fins de la détection, de la reconnaissance ou de l’identification des personnes physiques, à l’exception de la vérification des documents de voyage.
Ces systèmes à haut risque doivent notamment faire l’objet d’une analyse d’impact sur les droits fondamentaux avant d’être déployés (article 27).
Les systèmes biométriques, déjà employés en matière de contrôle aux frontières, relèvent tantôt de la première catégorie et sont prohibés (article 5, § 1er, h), tantôt de la deuxième catégorie et sont considérés comme étant à haut risque. L’usage d’outils de reconnaissance des émotions n’est, par exemple, pas prohibé alors que de nombreuses associations ont dénoncé leur caractère potentiellement discriminatoire (Annexe III, 1o, c).
En matière d’asile, le règlement souligne par ailleurs que le système d’IA ne peut être utilisé par les États membres comme moyen de contourner les obligations internationales qui leur incombent en vertu de la Convention des Nations unies relative au statut des réfugiés, d’enfreindre le principe de non-refoulement ou de refuser des voies d’accès légales, sûres et effectives au territoire de l’Union, y compris le droit à la protection internationale (considérant 60).
Si l’Union européenne reconnait que les systèmes d’IA utilisés dans les domaines de la migration, de l’asile et des contrôles aux frontières touchent des personnes qui se trouvent dans des situations particulièrement vulnérables et qui sont tributaires du résultat des actions des autorités publiques, le choix a tout de même été d’autoriser plutôt largement l’utilisation de l’intelligence artificielle dans ces domaines plutôt que de l’interdire. Leur classification en tant que systèmes à haut risque devrait garantir le respect des droits fondamentaux des personnes concernées, mais seul l’avenir pourra dire si les mécanismes protecteurs prévus sont réellement effectifs (considérant 60).
C. Pour aller plus loin
Législation :
Règlement (UE) 2024/1689 du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) no 300/2008, (UE) no 167/2013, (UE) no 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (règlement sur l’intelligence artificielle), J.O., 12 juillet 2024.
Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle, les droits de l’homme, la démocratie et l’État de droit, Série des Traités du Conseil de l’Europe, no 225, 2024.
Documentation institutionnelle :
Brochure explicative du Conseil de l’Europe au sujet de la Convention-cadre sur l’intelligence artificielle, les droits de l’homme, la démocratie et l’État de droit.
Les travaux du Comité ad hoc sur l’intelligence artificielle (CAHAI) (2019-2021) et du Comité sur l’intelligence artificielle (CAI).
Les travaux du Groupe d’experts de haut niveau sur l’intelligence artificielle institué par la Commission européenne et, en particulier, leurs Lignes directrices éthiques pour une IA digne de confiance.
Service de recherche du Parlement européen, « L’intelligence artificielle aux frontières de l’Union européenne. Aperçu des applications et questions clés », 2021.
Doctrine :
Angenendt, S., Koch, A. et Tjaden, J., « Predicting Irregular Migration. High Hopes, Meagre Results », Stiftung Wissenschaft und Politik – German Institute for International and Security Affairs, 2023.
Beduschi, A., « Harnessing the potential of artificial intelligence for humanitarian action: Opportunities and risks », International Review of the Red Cross, no 919, 2022.
Drouhot, L. G., Deutschmann, E., Zuccotti, C. V. et Zagheni, E., « Computational approaches to migration and integration research: promises and challenges », Journal of Ethnic and Migration Studies, 2022, pp. 389-407.
Molnar, P., The walls have eyes. Surviving migration in the age of artificial intelligence, New York, The New Press, 2024.
Molnar, P., Technological Testing Grounds. Migration management experiments and reflections from the Ground Up, European Digital Rights (EDRI) and Refugee Law Lab, 2020.
Ozkul, D., Automating Immigration and Asylum: The Uses of New Technologies in Migration and Asylum Governance in Europe, 2023.
Taylor, E., « AI and vulnerabilities: the case of asylum seekers », Blog of EU-DRAWS Clinic on EU Digital Rights, Law and Design, 2023.
Pour citer cette note : E. TAYLOR, « Réguler les systèmes d’Intelligence artificielle utilisés en matière de migration, d’asile et de contrôle aux frontières – Présentation de deux nouveaux textes », Cahiers de l’EDEM, août 2024.