O Cónego, o Filósofo e o Criador do Espelho
Em 1595, nas clausuras luminosas da Universidade de Coimbra, um cónego nascido em Granada percorria os claustros com um pensamento que o(s) século(s) seguinte(s) não estavam preparados para receber. Francisco de Menezes escrevia sobre intelligentia separata — inteligência fora da matéria, desligada de um corpo. Era teologia. Era metafísica. Era acima de tudo e, sem que ele soubesse, uma premonição.
Cento e quinze anos depois, em 1710, Giambattista Vico assentava o princípio que lhe parecia uma certeza inabalável: verum et factum convertuntur — só compreendemos verdadeiramente aquilo que somos capazes de fazer. O conhecimento genuíno nasce do fazer. A matemática é certa porque a inventámos. A natureza é opaca porque não a fizemos. O mundo humano é inteligível porque somos seus autores.
Vico não poderia imaginar que, três séculos mais tarde, máquinas aprenderiam padrões que nenhum humano lhes ensinou explicitamente — extraindo de vastos oceanos de texto e dados, as estruturas que os seus próprios criadores não conseguem explicar inteiramente . O machine learning não faz. Encontra. E ao encontrar, perturba o princípio de Vico com uma questão que ainda não tem resposta: pode existir compreensão sem autoria?
Em 1966, Joseph Weizenbaum criou o ELIZA — um programa que simulava um terapeuta rogeriano com uma verosimilhança perturbadora. Ficou horrorizado com a facilidade com que as pessoas projetavam empatia, profundidade e compreensão naquele espelho de palavras. Passaria os anos seguintes a avisar o mundo com uma frase que ressoa até hoje com a força do badalo em um sino: “Uma vez que não temos maneira de fazer com que os computadores sejam sábios, não deveríamos, por enquanto, confiar-lhes tarefas que requerem sabedoria.”
Por enquanto. Weizenbaum não disse nunca. Disse por enquanto — deixando aberta a questão que Francisco de Menezes teria, quiçá, apreciado: que natureza tem a inteligência que opera fora da matéria viva? E o que a distingue, no limite, da sabedoria?
É neste arco de quinhentos anos — do cónego de Granada ao programador de Cambridge, passando pelo filósofo napolitano — que hoje se ergue o desafio mais consequente da nossa geração: construir agentes de Inteligência Artificial que não sejam apenas competentes, mas governados. Não apenas eficientes, mas responsáveis. Não apenas inteligentes, mas alinhados com aquilo que, na melhor tradição humana, chamamos de bem.
Os agentes que hoje concebemos — desde o especialista normativo que conhece a ISO/IEC 42001 para Sistemas de Gestão de IA, ao “psicólogo organizacional” que mapeia o grief profissional das equipas, passando pelo jurista que distingue o piso legal do teto ético, até ao estratega que procura o alinhamento onde outros veem apenas automação — são uma resposta operacional ao aviso de Weizenbaum. Se não podemos ainda dar sabedoria às máquinas, podemos criar sistemas de gestão que incorporem a sabedoria humana nas suas regras, nos seus limites, nas suas obrigações de supervisão e contestação.
O futuro consequente não é o futuro sem IA. É o futuro onde a IA tem autores responsáveis, instituições vigilantes, e a memória longa de que a inteligência, separada da sabedoria, já produziu – em mãos humanas – dano suficiente para nos tornar cautelosos. Estamos ainda a tempo de fazer diferente.
