Grandes modelos de linguagem podem inventar informação e desinformar

Os grandes modelos de linguagem (LLMs) podem gerar desinformação ao criar factos, citações, números e diagnósticos falsos, situação a que os especialistas chamam 'alucinações' ou 'miragens', refere a plataforma jornalística Maldita.

Notícia

© Shutterstock

Lusa
31/03/2025 14:31 ‧ há 2 dias por Lusa

Tech

LLM

A plataforma jornalística de 'fact-checking' espanhola Maldita avançou que quando uma ferramenta de inteligência artificial (IA), como o ChatGPT, produz uma reposta incorreta, imprecisa ou tendenciosa, a isso chama-se 'alucinação' ou 'miragem'. 

 

Isto acontece porque os grandes modelos de linguagem geram as suas respostas prevendo a próxima palavra plausível com base nos dados a que tiveram acesso durante o treino, pelo que "quando não têm informações sobre o assunto ou não entendem a instrução 'inventam', por exemplo, factos, citações, diagnósticos e análises".

Este fenómeno pode levar à desinformação se os utilizadores não verificarem as respostas com fontes confiáveis, sendo que de acordo com especialistas ouvidos pelo Maldita, "não há como se livrar completamente dessas 'alucinações'".

Neste sentido, segundo os especialistas citados, um instrumento de IA pode escolher diferentes combinações que têm o mesmo significado, para que possam responder à mesma pergunta de forma diferente.

Nos casos em que "um modelo de IA 'inventa'" isso "pode gerar desinformação em todas as suas variantes, desde a produção de elementos falso até à realização de falsas atribuições".

Além disso, a entidade espanhola cita uma investigação da Columbia Journalism Review que afirma que os mecanismos de pesquisa como ChatCPT, DeepSeek, Copilot, Gemini, fabricam 'links' falsos que não redirecionam para 'sites' reais.

Em quaisquer circunstâncias os 'chatbots' de IA não são fontes confiáveis de informação, sendo que detetar 'alucinações' não é uma tarefa fácil, pelo que a recomendação geral é sempre comparar as respostas geradas por uma IA com fontes de confiança, salienta a plataforma. 

De forma a evitar este tipo de fenómeno é importante perceber se o modelo dá respostas com confiança excessiva, mas sem fontes verificáveis, se menciona nomes ou dados que não existem ou se gera explicações que soam bem, mas não fazem sentido quando analisadas com cuidado, acrescenta.

Leia Também: Redes sociais e influenciadores têm "responsabilidade" pela desinformação

Partilhe a notícia

Escolha do ocnsumidor 2025

Descarregue a nossa App gratuita

Nono ano consecutivo Escolha do Consumidor para Imprensa Online e eleito o produto do ano 2024.

* Estudo da e Netsonda, nov. e dez. 2023 produtodoano- pt.com
App androidApp iOS

Recomendados para si

Leia também

Últimas notícias


Newsletter

Receba os principais destaques todos os dias no seu email.

Mais lidas