Se considera que la inteligencia artificial (IA) es la tecnología que, más que ninguna otra, revolucionará la sociedad transformando la economía y el trabajo, las rutinas diarias y las relaciones interpersonales.
La impresionante capacidad de estas máquinas para mejorar automáticamente, mediante sistemas de autoaprendizaje, les permite procesar cantidades cada vez mayores de datos, en tiempos cada vez más cortos y con una calidad cada vez mayor.
Se amplían así los ámbitos de aplicación de los algoritmos de IA, que van desde la producción industrial a la sanidad, desde las finanzas al comercio, desde la seguridad a las artes, desde las técnicas de reconocimiento facial a la información, desde la agricultura al ocio, desde la justicia a la lucha contra el cambio climático y la predicción de catástrofes naturales.
Junto con el entusiasmo, sin embargo, también crecen las preocupaciones.
Algunos de los más catastrofistas temen que estos sistemas informáticos superinteligentes puedan descontrolarse y dominar a la Humanidad, pero se trata de escenarios poco realistas, ligados al imaginario colectivo de películas como Matrix o Blade Runner.
Por el contrario, hay preocupaciones mucho más concretas:
- la protección de la intimidad
- el riesgo de que las máquinas tomen decisiones sanitarias o jurídicas cruciales de forma injusta o errónea
- la dificultad para que los ciudadanos comprendan la lógica que subyace a tales decisiones
- la posibilidad de que la IA influya o manipule la conciencia humana
- los peligros de su utilización por la delincuencia malintencionada u organizada
- los efectos letales de su uso en el ámbito militar
- las repercusiones en el empleo
- el aumento de las desigualdades sociales
- y muchas otras implicaciones técnicas, filosóficas, jurídicas y éticas.
En general, se puede afirmar que los procesos automatizados de toma de decisiones pueden presentar riesgos o errores, y es precisamente por esta razón por la que se debe considerar seriamente qué criterios se deben desarrollar para medir la calidad del proceso de toma de decisiones.
La actuación de las instituciones europeas
En febrero de 2020, la Comisión Europea publicó un libro blanco sobre inteligencia artificial titulado “Un enfoque europeo de la excelencia y la confianza”.
Este documento esbozaba lo que deberían ser los principios básicos de un futuro marco regulador europeo, haciendo hincapié en la importancia de que dicho marco se basara en los valores fundamentales de la UE, incluido el respeto de los derechos humanos (tal y como se recoge en el artículo 2 del Tratado de la Unión Europea).
En abril de 2021, la Comisión Europea presentó una propuesta legislativa para regular el uso de la inteligencia artificial, y en diciembre de 2022, el Consejo de la Unión Europea aclaró su posición al respecto, remitiéndola de nuevo al Parlamento Europeo para que perfilara su postura.
Al término de este procedimiento, las tres instituciones deberán ponerse de acuerdo sobre un texto común.
Mientras tanto, en junio de 2023 se publicó la última edición del Informe sobre Derechos Fundamentales 2023 de la FRA (Agencia de los Derechos Fundamentales de la Unión Europea), en el que se repasan los principales avances en este campo, con especial atención a la IA. El informe está basado en 91 entrevistas realizadas a funcionarios y personal de empresas privadas de algunos Estados miembros de la UE. Se preguntó a los entrevistados sobre el uso que hacían de la IA, su concienciación sobre cuestiones de derechos fundamentales y sus prácticas para evaluar y mitigar los riesgos asociados al uso de las nuevas tecnologías.
El llamamiento de los académicos
En septiembre de 2023, un grupo de más de 150 de los académicos más influyentes de toda Europa en los ámbitos de la inteligencia artificial, la protección de datos y los derechos fundamentales publicó un “Llamamiento urgente para la aprobación de una sólida evaluación de impacto sobre los derechos fundamentales en la Ley de IA de la UE”. Los firmantes hacen un llamamiento directo a los representantes del Consejo de la Unión Europea, la Comisión Europea y el Parlamento Europeo para que intervengan en el Reglamento sobre Inteligencia Artificial (Ley de IA), que se aprobará próximamente, incluyendo el requisito de una Evaluación de Impacto sobre los Derechos Fundamentales (EIDF), no sólo en las áreas consideradas de alto riesgo, sino en todos los ámbitos de aplicación de la IA, tanto públicos como privados. Dado lo mucho que está en juego, los académicos apelan al principio de regulación cautelar.
La postura de la ONU
En una declaración de julio de 2023, el Alto Comisionado de la ONU para los Derechos Humanos, Volker Turk, hizo un llamamiento a la regulación de este campo.
Según Turk, es necesario establecer límites y estudiar qué ocurrirá con la inteligencia artificial y las nuevas tecnologías sin perder de vista la perspectiva de los derechos humanos y la necesidad de adoptar salvaguardias para mitigar los riesgos potenciales de los avances de la IA.
El llamamiento a la implicación urgente de empresas y gobiernos en el desarrollo de estas medidas subraya la importancia de abordar de forma proactiva los retos de la ética, la seguridad, la lucha contra las «consecuencias imprevistas» y la identificación clara de la responsabilidad que no puede atribuirse a una máquina, sino que debe personalizarse. La atención prestada a la «cuestión de la implicación humana» indica la preocupación por la posible superación de los límites en la toma de decisiones automatizada, con implicaciones directas en la dignidad humana y los derechos fundamentales.
Advertencia de Amnistía Internacional
En abril de 2023, la secretaria general de Amnistía Internacional, Agnès Callamard, junto con un grupo de organizaciones de la sociedad civil encabezadas por la Red Europea por los Derechos Digitales, publicó una carta abierta dirigida a los ponentes y miembros de los principales comités responsables de la Ley de Inteligencia Artificial de la Unión Europea (AI Act), instándoles a prohibir el uso de sistemas específicos de inteligencia artificial considerados incompatibles con los derechos humanos de migrantes, refugiados y solicitantes de asilo.
La carta hace hincapié en la necesidad de una prohibición de:
1. Sistemas automatizados de evaluación de riesgos y elaboración de perfiles: estos sistemas, que se utilizan para determinar el «riesgo» de actividades ilegales que podrían cometer los inmigrantes, se consideran inadecuados por entrañar riesgos de discriminación, invasión de la intimidad, pérdida de libertades fundamentales y seguridad individual.
2. Sistemas analíticos predictivos para la gestión de la migración: El uso de este tipo de sistemas, cuyo objetivo es interceptar, restringir e impedir las salidas, aumenta el riesgo de devolución y de violaciones del derecho de asilo.
3. Herramientas de detección de emociones y «detectores de mentiras»: se trata de herramientas que amenazan explícitamente los derechos fundamentales, como la no discriminación, la libertad y las garantías procesales.
4. Identificación biométrica remota (IBR): herramientas que pueden facilitar la vigilancia masiva y discriminatoria.
Amnistía Internacional, que también hace hincapié en la necesidad de prohibir la exportación de estas tecnologías, pretende influir positivamente en la Ley de Inteligencia Artificial subrayando la importancia de un enfoque que salvaguarde los derechos humanos en el contexto del uso cada vez más generalizado de la inteligencia artificial.