Estudo da UC revela que conteúdos gerados por inteligência artificial contribuem para insegurança
Cláudia Seabra, docente da Faculdade de Letras participa no estudo | Fotografia: UC | Gabinete de Comunicação e Imagem
Conteúdos gerados por inteligência artificial (IA) contribuem para a construção de narrativas de insegurança e podem influenciar a perceção de risco das pessoas, com impactos no turismo, revelou um estudo internacional hoje divulgado pela Universidade de Coimbra (UC).
O trabalho foi desenvolvido por uma equipa composta por investigadores da UC, e das universidades de Shri Mata Vaishno Devi, Central de Jammu e Bundelkhand, todas na Índia, e de East London, no Reino Unido, que “explorou como imagens, vídeos e notícias produzidas ou amplificadas por sistemas de IA contribuem para a construção de narrativas de insegurança”.
Em nota enviada à agência Lusa, a Universidade de Coimbra adiantou ainda que os conteúdos gerados por IA sobre zonas de conflito “podem afastar turistas”, por aumentarem a ansiedade e a redução da intenção de viajar.
Adira aqui ao canal do Whatsapp do DIÁRIO AS BEIRAS
“Os investigadores alertam para a necessidade de um debate urgente sobre o papel da IA na formação da opinião pública e nas decisões individuais, particularmente em contextos de crise”, observou a UC.
A equipa internacional de investigadores centrou-se nos impactos destes conteúdos no turismo em algumas regiões do Líbano, “por conta do conflito em Gaza”, combinando a análise de conteúdo de quatro jornais ‘online’ internacionais, árabes e não árabes, com uma análise quantitativa das respostas aos questionários recolhidos junto de 503 cidadãos libaneses.
O estudo concluiu que a exposição aos produtos noticiosos desenvolvidos recorrendo à inteligência artificial “pode levar potenciais visitantes a sobrestimar os perigos associados ao destino, influenciando negativamente a decisão de viajar”, vincou, citada na nota, a docente da Faculdade de Letras (FLUC) Cláudia Seabra.
“O efeito é particularmente relevante em contextos de elevada incerteza, onde a informação circula rapidamente e nem sempre é devidamente verificada”, afirmou a também investigadora do Centro de Estudos de Geografia e Ordenamento do Território (CEGOT) da UC.
A investigação destacou ainda que “a IA não só reproduz conteúdos existentes, como também pode amplificar tendências sensacionalistas, contribuindo para uma perceção distorcida da realidade”, fazendo com que este fenómeno levante “questões importantes sobre a responsabilidade das plataformas digitais e a necessidade de mecanismos de regulação e literacia mediática”, adiantou Cláudia Seabra.
A pesquisa foi centrada no Líbano, território do Médio Oriente “cuja economia depende em parte do turismo e, como tal, os impactos podem ser significativos, e, por outro lado, um país muito próximo ao cenário de guerra”, contextualizou a investigadora da FLUC.
“A redução do fluxo turístico afeta diretamente negócios locais, emprego e o desenvolvimento regional, agravando os desafios económicos já existentes”, notou.
A investigação internacional evidenciou ainda a existência de diferenças relevantes entre conteúdos produzidos por IA e os desenvolvidos pelos meios de comunicação tradicionais.
“Enquanto o jornalismo profissional tende a seguir critérios editoriais, verificação de fontes e contextualização geográfica e política, os conteúdos gerados por IA, frequentemente disseminados em redes sociais, podem replicar padrões sensacionalistas, descontextualizar acontecimentos ou até criar cenários plausíveis, mas não verificados”, alertou Cláudia Seabra.
“Esta distinção torna-se crítica em contextos de conflito, onde a IA pode amplificar imagens e narrativas de violência de forma mais difusa e menos rigorosa, contribuindo para uma perceção de risco alargada a regiões não diretamente afetadas. Como resultado, os utilizadores expostos a este tipo de conteúdos tendem a formar perceções mais negativas e generalizadas, em contraste com uma leitura potencialmente mais equilibrada proporcionada pelos média tradicionais”, acrescentou.

IA, insegurança e perceções públicas: talvez o problema não esteja onde pensamos…
Foi recentemente divulgado um estudo que sugere que conteúdos gerados por inteligência artificial contribuem para narrativas de insegurança e podem afastar turistas. A conclusão parece alarmante, mas talvez mereça uma leitura mais crítica por nele identificarmos inúmeros enviesamentos relativos à IA. A partir das informações divulgadas na imprensa, é possível levantar algumas questões fundamentais.
1. “A IA contribui para narrativas de insegurança.”
O sensacionalismo, a amplificação do medo e a distorção de acontecimentos existem muito antes da IA. A tecnologia não inventou estes fenómenos; apenas replica padrões humanos. Se conteúdos alarmistas circulam, é porque alguém os cria, partilha ou beneficia deles.
2. “A IA amplifica tendências sensacionalistas.”
Qualquer tecnologia amplifica aquilo que recebe. Se o input é sensacionalista, o output será também. A responsabilidade não é da ferramenta, mas das intenções humanas por detrás da sua utilização. Atribuir agência com determinadas propriedades humanas à IA é uma forma de desresponsabilização.
3. “Os conteúdos gerados por IA podem afastar turistas.”
O turismo sempre dependeu de perceções — e estas sempre foram moldadas por narrativas humanas, mediáticas e políticas. A IA não cria medo; apenas o reproduz quando lhe é pedido. O foco deveria estar na literacia mediática e na verificação de fontes, não na tecnologia em si.
4. “A IA cria cenários plausíveis, mas não verificados.”
Também o fazem boatos, redes sociais, títulos sensacionalistas e até meios de comunicação tradicionais quando pressionados por velocidade ou audiência. A diferença não está na IA, mas na cultura de consumo rápido de informação.
5. “A IA difunde imagens e narrativas de violência de forma menos rigorosa.”
A difusão rápida de conteúdos não verificados é um problema estrutural das plataformas digitais — independentemente de serem produzidos por IA ou por humanos. A tecnologia não decide o que viraliza; os utilizadores decidem.
6. “A IA distorce perceções de risco em regiões não afetadas.”
A distorção de risco é um fenómeno psicológico bem conhecido: heurísticas, viés de disponibilidade, medo do desconhecido. A IA não altera a psicologia humana; apenas opera dentro dela. O estudo parece confundir causa com meio de transmissão.
7. “É necessária regulação urgente da IA.”
Regulação é importante, mas não deve ser construída sobre equívocos. O foco deveria ser:
• transparência das plataformas,
• literacia mediática,
• responsabilidade humana na criação e partilha de conteúdos.
Culpar a IA por fenómenos humanos é uma forma de evitar discutir estes pontos.
E, finalmente, o ponto que raramente é dito em voz alta.
É também importante reconhecer que parte do debate público e da crítica dirigida à inteligência artificial surge revestida de linguagem científica, mas esconde receios muito humanos: o medo de ser substituído, de perder controlo ou de ver competências tradicionais desafiadas por novas ferramentas. Quando estes receios não são assumidos, surgem frequentemente narrativas que atribuem à tecnologia intenções que ela não tem. Talvez seja útil separar a ansiedade humana da análise tecnológica, para que o debate seja mais claro, mais honesto e menos condicionado por projecções. É também importante distinguir entre preocupações genuínas e a defesa de interesses humanos disfarçada de análise tecnológica. Só assim o debate poderá ser honesto, rigoroso e verdadeiramente útil para a sociedade.”
Aquilo que são preocupações legítimas da autora relativas a campanhas negativas, realizadas por determinados humanos, referentes a países específicos e destinos turísticos, transformou-se num artigo com claros enviesamentos relativos a IA e suas propriedades.
As propriedades agênticas da IA, tal como sucedeu nos humanos, vão evoluir. Contudo, é preciso não esquecer que funcionalidade convergente (entre humanos e IA) é distinto de ontologia equivalente. As propriedades actuais dos agentes IA não nos permitem responsabilizar os agentes IA pelo que quer que seja, porque a responsabilidade ainda se encontra ancorada no design e no desenvolvimento humanos, mas no futuro, poderá não ser mais assim. Por isso, e por ora, são legítimas as críticas apresentadas ao presente artigo.