Does Artificial Intelligence Violate Human Rights?

Image nº. 1. Property of Valentina Isernia

Choose your reading level:

STANDARD

Does Artificial Intelligence Violate Human Rights?

Written by Mario Maffei - IdeaDinamica

On the eve of the launch of European legislation that will regulate the AI sector, positions and calls for greater attention to the protection of fundamental rights are growing.

Se considera que la inteligencia artificial (IA) es la tecnología que, más que ninguna otra, revolucionará la sociedad transformando la economía y el trabajo, las rutinas diarias y las relaciones interpersonales.

La impresionante capacidad de estas máquinas para mejorar automáticamente, mediante sistemas de autoaprendizaje, les permite procesar cantidades cada vez mayores de datos, en tiempos cada vez más cortos y con una calidad cada vez mayor.

Se amplían así los ámbitos de aplicación de los algoritmos de IA, que van desde la producción industrial a la sanidad, desde las finanzas al comercio, desde la seguridad a las artes, desde las técnicas de reconocimiento facial a la información, desde la agricultura al ocio, desde la justicia a la lucha contra el cambio climático y la predicción de catástrofes naturales.

Junto con el entusiasmo, sin embargo, también crecen las preocupaciones.

Algunos de los más catastrofistas temen que estos sistemas informáticos superinteligentes puedan descontrolarse y dominar a la Humanidad, pero se trata de escenarios poco realistas, ligados al imaginario colectivo de películas como Matrix o Blade Runner.

Por el contrario, hay preocupaciones mucho más concretas:

  • la protección de la intimidad
  • el riesgo de que las máquinas tomen decisiones sanitarias o jurídicas cruciales de forma injusta o errónea
  • la dificultad para que los ciudadanos comprendan la lógica que subyace a tales decisiones
  • la posibilidad de que la IA influya o manipule la conciencia humana
  • los peligros de su utilización por la delincuencia malintencionada u organizada
  • los efectos letales de su uso en el ámbito militar
  • las repercusiones en el empleo
  • el aumento de las desigualdades sociales
  • y muchas otras implicaciones técnicas, filosóficas, jurídicas y éticas. 

En general, se puede afirmar que los procesos automatizados de toma de decisiones pueden presentar riesgos o errores, y es precisamente por esta razón por la que se debe considerar seriamente qué criterios se deben desarrollar para medir la calidad del proceso de toma de decisiones.

La actuación de las instituciones europeas

En febrero de 2020, la Comisión Europea publicó un libro blanco sobre inteligencia artificial titulado “Un enfoque europeo de la excelencia y la confianza”.

Este documento esbozaba lo que deberían ser los principios básicos de un futuro marco regulador europeo, haciendo hincapié en la importancia de que dicho marco se basara en los valores fundamentales de la UE, incluido el respeto de los derechos humanos (tal y como se recoge en el artículo 2 del Tratado de la Unión Europea).

En abril de 2021, la Comisión Europea presentó una propuesta legislativa para regular el uso de la inteligencia artificial, y en diciembre de 2022, el Consejo de la Unión Europea aclaró su posición al respecto, remitiéndola de nuevo al Parlamento Europeo para que perfilara su postura.

Al término de este procedimiento, las tres instituciones deberán ponerse de acuerdo sobre un texto común.

Mientras tanto, en junio de 2023 se publicó la última edición del Informe sobre Derechos Fundamentales 2023 de la FRA (Agencia de los Derechos Fundamentales de la Unión Europea), en el que se repasan los principales avances en este campo, con especial atención a la IA. El informe está basado en 91 entrevistas realizadas a funcionarios y personal de empresas privadas de algunos Estados miembros de la UE. Se preguntó a los entrevistados sobre el uso que hacían de la IA, su concienciación sobre cuestiones de derechos fundamentales y sus prácticas para evaluar y mitigar los riesgos asociados al uso de las nuevas tecnologías.

El llamamiento de los académicos

En septiembre de 2023, un grupo de más de 150 de los académicos más influyentes de toda Europa en los ámbitos de la inteligencia artificial, la protección de datos y los derechos fundamentales publicó unLlamamiento urgente para la aprobación de una sólida evaluación de impacto sobre los derechos fundamentales en la Ley de IA de la UE”. Los firmantes hacen un llamamiento directo a los representantes del Consejo de la Unión Europea, la Comisión Europea y el Parlamento Europeo para que intervengan en el Reglamento sobre Inteligencia Artificial (Ley de IA), que se aprobará próximamente, incluyendo el requisito de una Evaluación de Impacto sobre los Derechos Fundamentales (EIDF), no sólo en las áreas consideradas de alto riesgo, sino en todos los ámbitos de aplicación de la IA, tanto públicos como privados. Dado lo mucho que está en juego, los académicos apelan al principio de regulación cautelar.

La postura de la ONU

In a statement in July 2023, the UN High Commissioner for Human Rights, Volker Turk, called for regulation in this area.

Según Turk, es necesario establecer límites y estudiar qué ocurrirá con la inteligencia artificial y las nuevas tecnologías sin perder de vista la perspectiva de los derechos humanos y la necesidad de adoptar salvaguardias para mitigar los riesgos potenciales de los avances de la IA.

El llamamiento a la implicación urgente de empresas y gobiernos en el desarrollo de estas medidas subraya la importancia de abordar de forma proactiva los retos de la ética, la seguridad, la lucha contra las “consecuencias imprevistas” y la identificación clara de la responsabilidad que no puede atribuirse a una máquina, sino que debe personalizarse. La atención prestada a la “cuestión de la implicación humana” indica la preocupación por la posible superación de los límites en la toma de decisiones automatizada, con implicaciones directas en la dignidad humana y los derechos fundamentales.

Advertencia de Amnistía Internacional

En abril de 2023, la secretaria general de Amnistía Internacional, Agnès Callamard, junto con un grupo de organizaciones de la sociedad civil encabezadas por la Red Europea por los Derechos Digitales, publicó una carta abierta dirigida a los ponentes y miembros de los principales comités responsables de la Ley de Inteligencia Artificial de la Unión Europea (AI Act), instándoles a prohibir el uso de sistemas específicos de inteligencia artificial considerados incompatibles con los derechos humanos de migrantes, refugiados y solicitantes de asilo.

La carta hace hincapié en la necesidad de una prohibición de:

1.  Sistemas automatizados de evaluación de riesgos y elaboración de perfiles: estos sistemas, que se utilizan para determinar el “riesgo” de actividades ilegales que podrían cometer los inmigrantes, se consideran inadecuados por entrañar riesgos de discriminación, invasión de la intimidad, pérdida de libertades fundamentales y seguridad individual.

2. Sistemas analíticos predictivos para la gestión de la migración: El uso de este tipo de sistemas, cuyo objetivo es interceptar, restringir e impedir las salidas, aumenta el riesgo de devolución y de violaciones del derecho de asilo.

3. Herramientas de detección de emociones y “detectores de mentiras”: se trata de herramientas que amenazan explícitamente los derechos fundamentales, como la no discriminación, la libertad y las garantías procesales.

4. Identificación biométrica remota (IBR): herramientas que pueden facilitar la vigilancia masiva y discriminatoria.

Amnistía Internacional, que también hace hincapié en la necesidad de prohibir la exportación de estas tecnologías, pretende influir positivamente en la Ley de Inteligencia Artificial subrayando la importancia de un enfoque que salvaguarde los derechos humanos en el contexto del uso cada vez más generalizado de la inteligencia artificial.

complementary activities

White Paper on Artificial Intelligence: a European approach to excellence and trus
Fundamental Rights Report 2023
Countdown to Human Rights Day
AI: University lecturers appeal to EU to protect rights
The EU must respect human rights of migrants in the AI Act

EASY

Does Artificial Intelligence Violate Human Rights?

Written by Mario Maffei - IdeaDinamica

On the eve of the launch of European legislation that will regulate the AI sector, positions and calls for greater attention to the protection of fundamental rights are growing.

Artificial Intelligence (AI) is seen as the technology that, more than any other, will revolutionise society, transforming the economy and work, daily routines and interpersonal relationships.

The impressive ability of these machines to improve themselves automatically, through self-learning systems, enables them to process ever larger amounts of data in ever shorter times and with ever higher quality.

As a result, the applications of AI algorithms are expanding, from industrial production to healthcare, from finance to commerce, from security to art, from facial recognition to information, from agriculture to entertainment, from justice to climate change and natural disaster prediction.

But with the excitement comes growing concern:

  • the protection of privacy
  • the risk of machines making important health or legal decisions unfairly or incorrectly
  • the difficulty for citizens to understand the logic behind such decisions
  • the potential for AI to affect or manipulate human consciousness
  • the dangers of its use by malicious or organised criminals
  • the deadly consequences of its use in the military sphere
  • the impact on employment
  • the widening of social inequalities
  • and many other technical, philosophical, legal and ethical implications.

Action by the European Institutions

In February 2020, the European Commission published a white paper on artificial intelligence entitled “A European approach to excellence and trust”.

In April 2021, the European Commission presented a proposal for legislation to regulate the use of artificial intelligence, and in December 2022, the Council of the European Union clarified its position on the issue, leaving it to the European Parliament to outline its own position.

Meanwhile, in June 2023, the latest edition of the FRA’s (European Union Agency for Fundamental Rights) Fundamental Rights Report 2023 was published, reviewing the main developments in the field with a particular focus on AI.

The academics’ call

In September 2023, a group of over 150 of the most influential academics from across Europe in the fields of artificial intelligence, data protection and fundamental rights published an “Urgent call for the adoption of a robust fundamental rights impact assessment of EU legislation on artificial intelligence”.

The UN position

In a statement in July 2023, the UN High Commissioner for Human Rights, Volker Turk, called for regulation in this area.

According to Turk, there is a need to set boundaries and consider what will happen with artificial intelligence and new technologies, without losing sight of the human rights perspective and the need to adopt safeguards to mitigate potential risks arising from the development of AI.

Amnesty International warning

In April, Amnesty International’s Secretary General Agnès Callamard, together with a group of civil society organisations led by the European Digital Rights Network, published an open letter to the rapporteurs and members of the key committees responsible for the EU’s Artificial Intelligence (AI Act), urging them to ban the use of certain artificial intelligence systems deemed incompatible with the human rights of migrants, refugees, and asylum seekers.

White Paper on Artificial Intelligence: a European approach to excellence and trus
Fundamental Rights Report 2023
Countdown to Human Rights Day

☑️ Test your knowledge

Reading comprehension test - Does artificial intelligence violate human rights?

Step 1 of 3

The main concerns about artificial intelligence are:
Skip to content