L’intelligenza artificiale (AI) è considerata la tecnologia che, più di ogni altra, rivoluzionerà la Società trasformando l’economia e il lavoro, le abitudini di vite quotidiana e le relazioni interpersonali.
L’impressionante capacità di queste macchine di migliorare automaticamente, attraverso sistemi di autoapprendimento, consente loro di elaborare quantità di dati sempre più grandi, in tempi sempre più ridotti e con una qualità sempre più elevata.
In questo modo si ampliano gli ambiti in cui gli algoritmi della AI vengono utilizzati, spaziando dalla produzione industriale alla sanità, dalla finanza al commercio, dalla sicurezza alle arti, dalle tecniche di riconoscimento facciale all’informazione, dall’agricoltura al tempo libero, dalla giustizia alla lotta ai cambiamenti climatici e la previsione delle catastrofi naturali.
Assieme all’entusiasmo crescono però anche le preoccupazioni.
Alcuni più catastrofisti temono che questi sistemi informatici super intelligenti possano sfuggire al controllo e dominare l’Umanità, ma si tratta di scenari poco realistici, legati all’immaginario collettivo di film come Matrix o Blade Runner.
Al contrario, esistono preoccupazione molto più concrete che riguardano:
- la protección de la intimidad
- el riesgo de que las máquinas tomen decisiones sanitarias o jurídicas cruciales de forma injusta o errónea
- la dificultad para que los ciudadanos comprendan la lógica que subyace a tales decisiones
- la posibilidad de que la IA influya o manipule la conciencia humana
- los peligros de su utilización por la delincuencia malintencionada u organizada
- los efectos letales de su uso en el ámbito militar
- • gli impatti sull’occupazione.
- • la crescita delle disuguaglianze sociali.
- y muchas otras implicaciones técnicas, filosóficas, jurídicas y éticas.
In generale è possibile affermare che i processi decisionali automatizzati possono presentare rischi o errori ed è proprio per questo motivo che bisogna approfondire seriamente quali criteri dovrebbero essere sviluppati per misurare la qualità del processo decisionale.
L’azione delle Istituzioni europee
Nel febbraio 2020, la Commissione Europea ha pubblicato un libro bianco sull’intelligenza artificiale intitolato “Un approccio europeo all’eccellenza e alla fiducia“.
In questo documento si delineano quelli che dovranno essere i principi fondamentali di un futuro quadro normativo europeo, sottolineando l’importanza che tale quadro sia fondato sui valori fondamentali dell’UE, inclusi il rispetto dei diritti umani (come indicato all’articolo 2 del Trattato sull’Unione europea).
Nell’aprile 2021, la Commissione europea ha presentato una proposta di legge volta a regolamentare l’utilizzo dell’intelligenza artificiale e nel dicembre 2022, il Consiglio dell’Unione Europea ha chiarito la sua posizione in merito, rimandando al Parlamento europeo il compito di delineare la propria posizione.
Al termine di questa procedura le tre istituzioni dovranno concordare su un testo comune.
Nel giugno 2023 è intanto stata diffusa l’ultima edizione del Rapporto sui diritti fondamentali 2023 a cura della FRA (Agenzia dell’Unione Europea per i Diritti Fondamentali) che passa in rassegna i principali sviluppi del settore con una particolare attenzione all’AI. La relazione si basa su 91 interviste condotte con funzionari della pubblica amministrazione e personale di aziende private in alcuni Stati membri dell’UE. Gli intervistati sono stati interrogati sull’uso dell’IA, sulla loro consapevolezza delle questioni relative ai diritti fondamentali e sulle pratiche di valutazione e mitigazione dei rischi associati all’utilizzo delle nuove tecnologie.
L’appello dei docenti universitari
A settembre 2023 un gruppo di oltre 150 docenti universitari tra i più autorevoli di tutta Europa nei campi dell’intelligenza artificiale, della protezione dei dati e dei diritti fondamentali ha pubblicato un “ha pubblicato un “Appello urgente per l’approvazione di una solida valutazione d’impatto sui diritti fondamentali nella legge UE sull’intelligenza artificiale”. I firmatari si sono rivolti direttamente ai rappresentanti del Consiglio dell’Unione europea, della Commissione europea e del Parlamento europeo affinché intervengano sul regolamento sull’intelligenza artificiale (AI Act) di imminente approvazione, inserendo l’obbligo di valutare l’impatto sui diritti fondamentali (Fria), non solo nei settori considerati ad alto rischio ma in tutti gli ambiti di applicazione della IA, pubblici che privati. Vista l’alta posta in gioco, gli accademici si appellano al principio di regolamentazione precauzionale.
La presa di posizione dell’ONU
In una dichiarazione di luglio 2023 l’Alto Commissario delle Nazioni Unite per i Diritti Umani, Volker Turk ha fatto un appello per la regolamentazione del settore.
Secondo Turk, occorre fissare dei limiti e guardare a ciò che accadrà all’intelligenza artificiale e alle nuove tecnologie tenendo ben fissa la prospettiva sui diritti umani e alla necessità di adottare misure di salvaguardia per mitigare i potenziali rischi derivanti dai progressi dell’IA.
Il richiamo a un coinvolgimento urgente da parte di aziende e governi per lo sviluppo di tali misure sottolinea l’importanza di affrontare proattivamente le sfide etiche, di sicurezza, di contrasto alle “conseguenze indesiderate” e di individuazione chiara sulla responsabilità che non possono essere ascritte ad una macchina ma vanno personalizzate. L’attenzione posta sulla “questione del coinvolgimento umano” indica la preoccupazione per il possibile superamento dei limiti nell’automazione decisionale, con implicazioni dirette sulla dignità umana e sui diritti fondamentali.
L’allarme di Amnesty International
Nell’aprile 2023, la segretaria generale di Amnesty International, Agnès Callamard, assieme ad un gruppo di organizzazioni della società civile guidata dalla Rete europea per i diritti digitali, ha pubblicato una lettera aperta indirizzata ai relatori e ai membri delle principali commissioni responsabili dell’Atto sull’intelligenza artificiale dell’Unione europea (AI Act), esortandoli a vietare l’utilizzo di specifici sistemi di intelligenza artificiale ritenuti incompatibili con i diritti umani dei migranti, rifugiati e richiedenti asilo.
La lettera sottolinea la necessità di proibire:
1. Sistemas automatizados de evaluación de riesgos y elaboración de perfiles: estos sistemas, que se utilizan para determinar el “riesgo” de actividades ilegales que podrían cometer los inmigrantes, se consideran inadecuados por entrañar riesgos de discriminación, invasión de la intimidad, pérdida de libertades fundamentales y seguridad individual.
2. Sistemas analíticos predictivos para la gestión de la migración: El uso de este tipo de sistemas, cuyo objetivo es interceptar, restringir e impedir las salidas, aumenta el riesgo de devolución y de violaciones del derecho de asilo.
3. Herramientas de detección de emociones y “detectores de mentiras”: se trata de herramientas que amenazan explícitamente los derechos fundamentales, como la no discriminación, la libertad y las garantías procesales.
4. Identificación biométrica remota (IBR): herramientas que pueden facilitar la vigilancia masiva y discriminatoria.
Amnesty International, sottolineando anche la necessità di vietare l’esportazione di tali tecnologie, cerca di influenzare positivamente l’AI Act, sottolineando l’importanza di un approccio che salvaguardi i diritti umani nel contesto dell’impiego sempre più diffuso dell’intelligenza artificiale.