AI e reinsediamento: sfide e soluzioni per l’UE

ai migranti
Immagine generata con supporto AI © Lo Spiegone CC BY-NC

di Tatiana De Rosa

L’intelligenza artificiale (AI), considerata in tutto il mondo come una tecnologia di importanza geopolitica, presenta un enorme potenziale, ma solleva anche importanti questioni etiche, soprattutto per quanto riguarda il rapporto tra l’essere umano e le macchine. Per questo motivo, molti forum internazionali stanno attualmente discutendo la necessità di regolamentare questo strumento. Una delle sfide più importanti in questo momento storico è quella legata al reinsediamento, dato che l’utilizzo di sistemi algoritmici in questo contesto può comportare delle problematiche che potrebbero compromettere la reale protezione dei soggetti coinvolti nel programma.

L’intelligenza artificiale e la dottrina giuridica 

L’utilizzo sempre più diffuso di sistemi autonomi basati sull’intelligenza artificiale sta diventando una pratica comune nella società contemporanea e nella gestione delle funzioni statali. La dottrina italiana e straniera ha iniziato ad analizzare in modo critico gli effetti positivi e le criticità derivanti da questo intreccio, focalizzandosi sul garantire i diritti fondamentali delle persone coinvolte e il rispetto dei principi costituzionali.

Recentemente, l’applicazione di sistemi autonomi e algoritmi, spesso correlati ai big data, ha interessato il settore dell’immigrazione. Questi sistemi vengono utilizzati nel controllo delle frontiere nazionali, nella gestione delle prime fasi di interazione con i migranti da parte delle autorità nazionali, nella formalizzazione e valutazione delle richieste di protezione internazionale, nell’organizzazione delle attività di accoglienza e integrazione, e nella valutazione delle richieste di assistenza socio-assistenziale.

Anche se spesso utilizzati in modo sperimentale e temporaneo, l’impiego di sistemi autonomi basati su algoritmi nella gestione delle normative e politiche migratorie sta assumendo una rilevanza e un impatto che richiedono una riflessione accurata da parte della dottrina giuridica.

AI ACT ed il reinsediamento dei rifugiati

La proposta di regolamento del Parlamento europeo e del Consiglio che disciplina  l’intelligenza artificiale (AI Act) fa parte di un più ampio sforzo dell’Unione Europea per regolare le tecnologie digitali, come stabilito nel “Programma strategico per il decennio digitale 2030” – Decisione (UE) 2022/2481 del 14 dicembre 2022. Tuttavia, trovare un equilibrio tra l’innovazione tecnologica e la protezione dei diritti fondamentali non è mai un compito facile. 

Questo obiettivo diventa ancora più sfidante quando si tratta di regolamentare l’uso e la commercializzazione di prodotti di cui non si conoscono ancora appieno le implicazioni o le conseguenze che potrebbero derivarne, come nel caso delle Intelligenze Artificiali (IA) nel settore dell’immigrazione, dell’asilo e del controllo delle frontiere.

L’utilizzo dell’Intelligenza Artificiale (IA) nel processo di reinsediamento dei rifugiati può migliorare l’efficienza e la velocità delle procedure, consentendo a più Stati di adottare questa tecnologia per fornire protezione adeguata alle persone in fuga. I software di IA analizzano una vasta quantità di dati per supportare la selezione dei candidati da reinsediare e per facilitarne l’integrazione nella società di accoglienza. 

Tra difetti e mancanza di strumenti: quale soluzione?

I risultati algoritmici effettuati dal software Annie MOORE, attualmente utilizzato dall’agenzia statunitense per il reinsediamento HIAS (un programma gestito dall’International Rescue Committee che mira a reinsediare rifugiati vulnerabili in tutto il mondo), quindi possono presentare difetti tecnici che possono esacerbare le vulnerabilità dei rifugiati. 

Tuttavia, l’IA presenta alcune criticità, come la mancanza di trasparenza nel suo funzionamento, che può compromettere la capacità delle autorità di comprendere e giustificare le decisioni prese dagli algoritmi. L’enorme potenza computazionale di queste tecnologie supera la capacità di ragionamento umano, rendendola inaccessibile ad un qualsiasi osservatore esterno: si tratta del concetto di “barriera black box”.

La mancanza di spiegazioni, infatti, può portare a un’acritica accettazione delle decisioni automatizzate, mettendo a repentaglio l’obbligo di responsabilizzazione delle autorità pubbliche. Si occupa di questo l’art. 5 del Regolamento Generale sulla protezione dei dati, RGDP, che prescrive il principio di minimizzazione delle informazioni e il diritto a non essere sottoposti a decisioni basate esclusivamente sull’elaborazione automatica dei dati personali. 

Il ruolo e le responsabilità umane nell’utilizzo dei sistemi intelligenti 

Questa disposizione, allo stesso tempo, solleva interrogativi sulla legittimità stessa delle selezioni dei candidati idonei al reinsediamento effettuate tramite l’uso di strumenti di intelligenza artificiale. Affinché una decisione non sia risultato esclusivo di un algoritmo, è necessario che un operatore umano possa comprendere le motivazioni di ciò che viene suggerito dall’IA e eventualmente prendere una decisione diversa.

Per ciò che concerne le criticità di tale tema, Amnesty International ha esortato l’Unione Europea a rispettare i suoi obblighi in conformità al diritto internazionale. Per l’ONG, è necessario garantire una piena trasparenza e responsabilità per l’uso e l’esportazione dei sistemi di intelligenza artificiale, considerando le implicazioni per i diritti umani. È altresì essenziale assicurare che le persone coinvolte abbiano il diritto di accedere equamente alle tecnologie e di richiedere un equo indennizzo in caso di danni subiti.

AI e politiche migratorie, un primo bilancio

L’intelligenza artificiale è uno strumento dall’enorme potenziale che però solleva necessariamente, come tutti gli sviluppi tecnologici, degli interrogativi e delle questioni etiche, a partire dal piano della governance. È necessario quindi bilanciare il vantaggio offerto dall’IA nel processo di reinsediamento con la necessità di rispettare i diritti fondamentali delle persone coinvolte e garantire la trasparenza e la responsabilità delle decisioni prese dagli algoritmi.

L’AI Act, recentemente approvato, introduce alcuni obblighi riguardo all’utilizzo di sistemi algoritmici nel processo di reinsediamento all’interno dell’UE, ma è stato criticato per la mancanza di strumenti di tutela e responsabilità per le persone coinvolte. Pertanto, è fondamentale sviluppare linee guida specifiche e meccanismi di tutela adeguati a garantire che l’IA nel processo di reinsediamento rispetti i diritti delle persone migranti e mantenga la trasparenza nelle decisioni prese.

Fonti e approfondimenti

Freund e alt., Group fairness in dynamic refugee assignment, HBS Working Paper Series, n. 23-047, 2023.

Longo, Il possibile impatto dell’AI Act sull’immigrazione: iniziamo a discuterne, ADiM Blog, Editoriale, febbraio 2023.

P. Burgess, D. Kloza, Border Control and New Technologies. Addressing Integrated Impact Assessment, ASP, 2021.

Finck, Automated decision making and Administrative Law, Max Planck Institute for Innovation and Competition Research Paper, n. 19 (10), 2019.

Ineli-Cinger, Artificial Intelligence and Resettlement of Refugees: implications for the fundamental rights, RSC Working Paper, n. 2023/44, 2023.

Ineli-Cinger, Is resettlement still a durable solution? An analysis in light of the proposal for a Regulation establishing a Union Resettlement Framework, in European Journal of Migration and Law, 2022, n. 24, pp. 27 ss.

Molnar, The EU’s AI Act and its Human Rights Impacts on people Crossing Borders, in Dot.Mig, 2022.

Penasa, Smart borders o invisibile walls? L’utilizzo di sistemi “intelligenti” al confine tra politiche migratorie e garanzie per gli stranieri, ADiM Blog, Analisi & Opinioni, dicembre 2022.

Editing a cura di Beatrice Cupitò

Scopri di più da Lo Spiegone

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere