LLMs Mais Persuasivos que Humanos – Estudo Levanta Capacidades Inéditas
Um estudo liderado por Philipp Schoenegger (LSE) e colegas de universidades como EPFL, Cambridge, MIT e Stanford investigou a capacidade persuasiva de modelos de linguagem de última geração em comparação a humanos motivados por recompensas financeiras. O artigo, intitulado "Large Language Models Are More Persuasive Than Incentivized Human Persuaders", foi publicado no arXiv em maio deste ano.
Um estudo liderado por Philipp Schoenegger (LSE) e colegas de universidades como EPFL, Cambridge, MIT e Stanford investigou a capacidade persuasiva de modelos de linguagem de última geração em comparação a humanos motivados por recompensas financeiras. O artigo, intitulado "Large Language Models Are More Persuasive Than Incentivized Human Persuaders", foi publicado no arXiv em maio deste ano.
Resumo e Principais Descobertas
O experimento comparou o desempenho persuasivo do modelo Claude 3.5 Sonnet com participantes humanos em um quiz interativo com perguntas de conhecimento geral, ilusões cognitivas e previsões de eventos futuros. Os persuadidos ganhavam por acertos; os persuadores, por convencer.
Os resultados foram surpreendentes:
LLMs foram mais eficazes do que humanos tanto em persuadir participantes a escolherem respostas corretas (+3,5 pontos percentuais de eficácia), quanto em induzi-los a respostas erradas (+10,3 pp), mesmo com humanos financeiramente incentivados.
A acurácia dos participantes aumentou significativamente quando guiados por LLMs em direção à verdade (+12,2 pp em relação ao controle), mas caiu drasticamente quando enganados por eles (-15,1 pp), mais do que com humanos (-7,8 pp).
Mensagens geradas por LLMs eram mais complexas, longas e sofisticadas, o que pode ter sinalizado maior autoridade e contribuído para seu poder de persuasão. O efeito persuasivo do LLM decresceu levemente ao longo das interações, sugerindo que as pessoas podem desenvolver resistência com o tempo.
Implicações Éticas
O estudo levanta preocupações importantes sobre o uso de IA em ambientes reais:
Escalabilidade da persuasão: Diferente dos humanos, LLMs podem influenciar em larga escala, de forma contínua e personalizada.
Capacidade de enganar: Mesmo LLMs com foco em segurança, como o Claude 3.5, conseguiram induzir erros eficazmente.
Confiança excessiva: Participantes sob influência do LLM relataram maior confiança em suas respostas, mesmo quando estavam erradas.
Referência
Schoenegger, P., Salvi, F., Liu, J., Nan, X., Debnath, R., et al. (2025). Large Language Models Are More Persuasive Than Incentivized Human Persuaders. arXiv:2505.09662v2. Disponível em: arXiv.org
Artigos relacionados
3 de jun. de 2025
3 de jun. de 2023
