Opinião: Práticas de Inteligência Artificial proibidas
O Regulamento Europeu sobre Inteligência Artificial (IA), publicado em junho de 2024, adotou uma abordagem baseada no risco, isto é, na combinação da probabilidade de ocorrência de danos com a gravidade desses danos, da qual resultou uma categorização dos sistemas de IA como de risco inaceitável, de risco elevado ou de risco limitado.
A partir do próximo dia 2 de fevereiro serão aplicáveis as disposições relativas aos sistemas de IA de risco inaceitável, elencados no artigo 5.º. Que sistemas serão, então, proibidos, dentro de duas semanas?
Em primeiro lugar, os sistemas de IA que empreguem técnicas subliminares que contornem a consciência de uma pessoa, ou técnicas manifestamente manipuladoras ou enganadoras, com o objetivo ou o efeito de distorcer substancialmente o comportamento de uma pessoa ou de um grupo de pessoas, prejudicando de forma considerável a sua capacidade de tomar uma decisão, causando, ou sendo suscetível de causar, danos significativos.
Em segundo lugar, os sistemas de IA que explorem vulnerabilidades de uma pessoa singular ou de um grupo específico, devidas à sua idade, incapacidade ou situação socioeconómica específica, com o objetivo ou o efeito de distorcer substancialmente o seu comportamento, causando, ou sendo razoavelmente suscetível de causar, danos significativos.
Em terceiro lugar, os sistemas para avaliação ou classificação de pessoas, durante um certo período, com base no seu comportamento social ou em características de personalidade ou pessoais, que conduza a um tratamento prejudicial ou desfavorável em contextos sociais não relacionados com os contextos nos quais os dados foram originalmente gerados ou recolhidos, ou injustificado ou desproporcionado face ao comportamento social ou à gravidade do mesmo.
Em quarto lugar, serão proibidos, com raríssimas exceções, os sistemas de IA para avaliar ou prever o risco de uma pessoa cometer uma infração penal, com base exclusivamente na definição de perfis ou na avaliação dos seus traços e características de personalidade.
Em quinto e sexto lugar, os sistemas que criam ou expandem bases de dados de reconhecimento facial através da recolha aleatória de imagens faciais a partir da Internet ou de imagens de televisão em circuito fechado, bem como os que visam para inferir emoções de uma pessoa singular no local de trabalho e nas instituições de ensino (a não ser por razões médicas ou de segurança).
Em sétimo lugar, os sistemas de categorização biométrica que classifiquem individualmente as pessoas singulares para deduzir ou inferir a sua raça, opiniões políticas, filiação sindical, convicções religiosas ou filosóficas, vida sexual ou orientação sexual.
Por último, sistemas de identificação biométrica à distância em tempo real em espaços acessíveis ao público, para aplicação da lei, exceto para a busca seletiva de vítimas específicas de rapto, tráfico de seres humanos ou exploração sexual de seres humanos, bem como a busca por pessoas desaparecidas; para a prevenção de uma ameaça específica, substancial e iminente à vida ou à segurança física de pessoas singulares ou de uma ameaça real e atual ou real e previsível de um ataque terrorista; ou, em certos casos, para a localização ou identificação de uma pessoa suspeita de ter cometido uma infração penal.
