diario as beiras
Geralopiniao

Opinião: Errar (já não) é (só) humano!

03 de março às 10h20
0 comentário(s)

A competição entre a Inteligência Artificial (IA) e o humano é desigual, como em tantos outros confrontos anteriores entre a evolução tecnológica e o homem.

Os algoritmos de IA, “alimentados” com imensidões de dados, tomam já inúmeras decisões por nós, sem que tenhamos grande controlo sobre tal.

É fundamental assumirmos que o volume de dados que geramos e que pretendemos analisar não é viável ser útil sem o uso da IA.

Assim, a ética associada às decisões desses algoritmos é um aspeto fundamental da discussão.

Se “Errar é humano” era usual, hoje os erros já não são só os dos humanos: as máquinas e os algoritmos também erram e esses erros podem ser de tal forma ampliados que podem ter consequências relevantes sobre as vidas das pessoas, empresas, cidades, governos…

Habituámo-nos a que a IA seja uma “caixa negra” para os utilizadores mas não o pode ser para quem tem a responsabilidade de implementar soluções baseadas em IA.

Os algoritmos têm de ser auditáveis, permitir responsabilizar as pessoas que os criaram e que tomaram as decisões que eles incorporam.

Em 2016, o Professor Luciano Floridi (fundador do Laboratório de Ética Digital na Universidade de Oxford), deu início ao processo de sensibilização da União Europeia quanto ao tema da ética na IA, quando a maioria não via sequer este assunto como um tema.

A Comissão Europeia formou então, em 2018, um grupo de peritos de Alto Nível sobre a Inteligência Artificial com o propósito de criar linhas orientadoras sobre ética e uma IA de confiança.

Do documento de 2019 constam 7 princípios fundamentais: “1 ) ação e supervisão humanas; 2 ) solidez técnica e segurança; 3 ) privacidade e governação dos dados; 4 ) transparência; 5 ) diversidade, não discriminação e equidade; 6 ) bem-estar ambiental e societal; 7 ) responsabilização”.

Para qualquer aplicação de IA é necessário, por exemplo, perceber objetivos e riscos, respeitar liberdades individuais, garantir que o julgamento humano é incorporado e que os algoritmos não geram enviesamentos ou falta de representação.

Decisões tomadas por chatbots, conversando sem distinguirmos se escrevemos a pessoas ou máquinas (Alan Turing já assim antecipou nos anos 40 ), veículos autónomos que preveem infinitas possibilidades de condução e obstáculos, algoritmos de deteção de anomalias e fraude que analisam biliões de transações, a título de exemplo, são exaustivamente testados garantindo valores apenas residuais de taxas de erro, o risco admissível. Será que o erro aceitável para uma empresa é eticamente aceitável?

Estamos dispostos a que a IA facilite as nossas vidas mas não para que as invada sem que possamos controlar.

Cada cidadão deve fazer o seu papel para exigir que os algoritmos de IA sejam auditáveis e as empresas que os manipulam garantem o cumprimento dos princípios éticos a que a IA está obrigada: promovamos a tecnologia ao serviço do bem e promotora da evolução.

Autoria de:

Deixe o seu Comentário

O seu email não vai ser publicado. Os requisitos obrigatórios estão identificados com (*).


Últimas

Geral

opiniao