Ferramentas de IA são mais persuasivas que humanos, diz estudo

Os grandes modelos de linguagem (LLM) de inteligência artificial (IA) podem ser 64% mais persuasivos do que os humanos em discussões 'online', caso tenham dados personalizados, conclui um estudo da Nature Human Behaviour.

Notícia

© Shutterstock

Lusa
20/05/2025 14:47 ‧ há 9 horas por Lusa

Tech

Inteligência Artificial

De acordo com o estudo, em 64,4% das vezes os debatentes de IA personalizados foram mais persuasivos do que os humanos em discussões 'online', pois os modelos inteligentes tinham em sua posse informação personalizada sobre o adversário, de forma a moldar a sua argumentação.

 

Sem acesso a informação pessoal, as capacidades de persuasão do modelo de linguagem eram semelhantes às de um ser humano.

Especialistas ouvidos no estudo expressaram "preocupações sobre o risco de os LLMs serem usados para manipular conversas 'online' e poluir o ecossistema de informações, espalhando desinformação, exacerbado a polarização política, reforçando as câmaras de eco e persuadindo os indivíduos a adotar novas crenças".

O estudo alerta para a possibilidade dos grandes modelos de linguagem serem capazes de interferir em informações pessoais a partir da pegada digital disponível publicamente, em redes sociais, por exemplo.

Neste sentido, "os utilizadores acham cada vez mais desafiador distinguir o conteúdo gerado por IA do conteúdo gerado por humanos, com LLMs imitando eficientemente a escrita humana e assim ganhado credibilidade".

Apesar disso, os intervenientes no estudo conseguiram perceber quando estavam a falar com o 'chatbot' (assistente virtual que usa inteligência artificial e programação para comunicar por texto com utilizadores), embora isso não tenha tido influência nos resultados sobre a persuasão.

Para os autores do estudo, "os LLMs têm sido criticados pelo seu potencial de gerar e promover a difusão de discurso de ódio, desinformação e propaganda política maliciosa. Especificamente há preocupações sobre as capacidades persuasivas dos LLMs, que podem ser aprimoradas criticamente através da personalização, ou seja, adaptando o conteúdo a alvos individuais, criando mensagens que ressoam com seu histórico e dados demográficos específicos".

O estudo tem como base conversas entre o quarto modelo de IA do OpenAI, o ChatGPT-4 e 900 pessoas nos Estados Unidos da América, sendo abordados temas como o aborto, a guerra na Ucrânia e combustíveis fósseis.

Leia Também: IA pode substituir humanos em tarefas perigosas, diz a OIT

Partilhe a notícia

Escolha do ocnsumidor 2025

Descarregue a nossa App gratuita

Nono ano consecutivo Escolha do Consumidor para Imprensa Online e eleito o produto do ano 2024.

* Estudo da e Netsonda, nov. e dez. 2023 produtodoano- pt.com
App androidApp iOS

Recomendados para si

Leia também

Últimas notícias


Newsletter

Receba os principais destaques todos os dias no seu email.

Mais lidas