A Inteligência Artificial (IA) é vista como a tecnologia que, mais do que qualquer outra, irá revolucionar a sociedade, transformando a economia e o trabalho, as rotinas diárias e as relações interpessoais.
A impressionante capacidade destas máquinas para se aperfeiçoarem automaticamente, através de sistemas de auto-aprendizagem, permite-lhes processar quantidades cada vez maiores de dados em tempos cada vez mais curtos e com uma qualidade cada vez mais elevada.
Consequentemente, as aplicações dos algoritmos de IA estão a expandir-se, da produção industrial aos cuidados de saúde, das finanças ao comércio, da segurança à arte, do reconhecimento facial à informação, da agricultura ao entretenimento, da justiça às alterações climáticas e à previsão de catástrofes naturais.
Mas, a par do entusiasmo, há uma preocupação crescente.
Alguns dos mais pessimistas receiam que estes sistemas informáticos superinteligentes possam ficar fora de controlo e dominar a humanidade, mas estes são cenários irrealistas associados ao imaginário coletivo de filmes como Matrix ou Blade Runner.
Em contrapartida, há preocupações muito mais concretas:
- – a proteção da vida privada
- – o risco de as máquinas tomarem decisões importantes em matéria de saúde ou de direito de forma injusta ou incorreta
- – a dificuldade de os cidadãos compreenderem a lógica subjacente a essas decisões
- – o potencial da IA para afetar ou manipular a consciência humana
- – os perigos da sua utilização por criminosos mal-intencionados ou organizados
- – as consequências mortais da sua utilização no domínio militar
- – o impacto no emprego
- – o agravamento das desigualdades sociais
- – e muitas outras implicações técnicas, filosóficas, jurídicas e éticas.
Em geral, pode argumentar-se que os processos de decisão automatizados podem envolver riscos ou erros, e é precisamente por esta razão que se deve refletir seriamente sobre os critérios a desenvolver para medir a qualidade do processo de decisão.
Ação das instituições europeias
Em fevereiro de 2020, a Comissão Europeia publicou um Livro Branco sobre a inteligência artificial intitulado “Uma abordagem europeia da excelência e da confiança“.
Este documento delineou os princípios básicos de um futuro quadro regulamentar europeu e sublinhou a importância desse quadro se basear nos valores fundamentais da UE, incluindo o respeito pelos direitos humanos (tal como consagrado no artigo 2.º do Tratado da União Europeia).
Em abril de 2021, a Comissão Europeia apresentou uma proposta legislativa para regulamentar a utilização da inteligência artificial e, em dezembro de 2022, o Conselho da União Europeia clarificou a sua posição sobre esta questão e remeteu-a para o Parlamento Europeu para que este definisse a sua posição.
No final deste processo, as três instituições terão de chegar a acordo sobre um texto comum.
Entretanto, a última edição do Relatório 2023 sobre os Direitos Fundamentais da FRA (Agência dos Direitos Fundamentais da União Europeia) foi publicada em junho de 2023, analisando os principais desenvolvimentos neste domínio, com especial destaque para a IA. O relatório baseia-se em 91 entrevistas com funcionários públicos e trabalhadores de empresas privadas em Estados-Membros da UE selecionados. Os inquiridos foram questionados sobre a sua utilização da IA, a sua sensibilização para as questões dos direitos fundamentais e as suas práticas de avaliação e atenuação dos riscos associados à utilização de novas tecnologias.
O apelo dos académicos
Em setembro de 2023, um grupo de mais de 150 dos académicos mais influentes de toda a Europa nos domínios da inteligência artificial, da proteção de dados e dos direitos fundamentais publicou um “Apelo Urgente à Adoção de uma Avaliação de Impacto Robusta dos Direitos Fundamentais da Lei da IA da UE”. Os signatários apelam diretamente aos representantes do Conselho da União Europeia, da Comissão Europeia e do Parlamento Europeu para que intervenham no Regulamento sobre Inteligência Artificial (Lei da IA), a adotar em breve, incluindo a exigência de uma Avaliação de Impacto sobre os Direitos Fundamentais (AIDF), não só em áreas consideradas de alto risco, mas em todas as áreas de aplicação da IA, tanto públicas como privadas. Tendo em conta os elevados riscos envolvidos, os académicos apelam ao princípio da regulamentação prudencial.
A posição da ONU
Numa declaração de julho de 2023, o Alto Comissário das Nações Unidas para os Direitos Humanos, Volker Turk, apelou à regulamentação neste domínio.
De acordo com Turk, é necessário estabelecer limites e considerar o que vai acontecer com a inteligência artificial e as novas tecnologias, sem perder de vista a perspetiva dos direitos humanos e a necessidade de adotar salvaguardas para mitigar os riscos potenciais dos desenvolvimentos da IA.
O apelo ao envolvimento urgente das empresas e dos governos no desenvolvimento destas políticas sublinha a importância de enfrentar proativamente os desafios da ética, da segurança, do combate às “consequências não intencionais” e da identificação clara das responsabilidades que não podem ser atribuídas a uma máquina, mas que devem ser personalizadas. A atenção dada à questão do “envolvimento humano” revela preocupação com a potencial ultrapassagem dos limites na tomada de decisões automatizada, com implicações diretas na dignidade humana e nos direitos fundamentais.
Advertência da Amnistia Internacional
A Secretária-Geral da Amnistia Internacional, Agnès Callamard,juntamente com um grupo de organizações da sociedade civil liderado pela Rede Europeia para os Direitos Digitais, publicou uma carta aberta aos relatores e membros das principais comissões responsáveis pela Lei da Inteligência Artificial da UE (Lei da IA), instando-os a proibir a utilização de determinados sistemas de inteligência artificial considerados incompatíveis com os direitos humanos dos migrantes, refugiados e requerentes de asilo.
A carta sublinha a necessidade de proibir a:
1. Sistemas automatizados de avaliação de riscos e de definição de perfis: Estes sistemas, que são utilizados para determinar o “risco” de atividades ilegais que os migrantes possam cometer, são considerados inadequados devido aos riscos de discriminação, invasão da privacidade, perda de liberdades fundamentais e segurança individual.
2. Sistemas analíticos de previsão para a gestão da migração: A utilização de tais sistemas para intercetar, restringir e impedir as partidas aumenta o risco de repulsão e de violação do direito de asilo.
3. Instrumentos de deteção de emoções e “detetores de mentiras”: Trata-se de instrumentos que ameaçam explicitamente direitos fundamentais como a não-discriminação, a liberdade e o direito a um processo justo.
4. Identificação biométrica à distância (RBI): instrumentos que podem facilitar a vigilância maciça e discriminatória.
A Amnistia Internacional, que também sublinha a necessidade de proibir a exportação destas tecnologias, pretende influenciar positivamente a Lei da Inteligência Artificial, salientando a importância de uma abordagem baseada nos direitos humanos para a utilização cada vez mais generalizada da inteligência artificial.