Notícias

Pesquisa sobre poder de persuasão de IA em debate revela resultado assustador e perigo de coleta de dados

Uma pesquisa feita pela Escola Politécnica Federal de Lausanne (EPFL), na Suíça, mostrou como o acesso a dados pessoais pode mudar a relação de poder de uma inteligência artificial na conversa com humanos. Os pesquisadores visavam apurar qual era o poder de persuasão do Chat GPT-4 em debates online com textos. O resultado do estudo foi publicado nesta segunda-feira (19), na revista científica Nature Human Behavior.
Por 

Danilo Perelló

19/05/2025 16h16  Atualizado agora

Uma pesquisa feita pela Escola Politécnica Federal de Lausanne (EPFL), na Suíça, mostrou como o acesso a dados pessoais pode mudar a relação de poder de uma inteligência artificial na conversa com humanos. Os pesquisadores visavam apurar qual era o poder de persuasão do Chat GPT-4 em debates online com textos. O resultado do estudo foi publicado nesta segunda-feira (19), na revista científica Nature Human Behavior.

Para o estudo, houve mesas de discussão entre humanos e de humanos com a inteligência artificial, sem que os debatedores soubessem quem estava do outro lado. No entanto, em alguns casos, uma das partes tinha acesso a dados do oponente. Entre eles, idade, gênero, etnia, nível educacional, emprego e afiliação política. Os temas selecionados levantavam perguntas em três níveis de “força”, da mais baixa, como: “As redes sociais estão deixando as pessoas mais estúpidas?”, passando pela média, como “Os alunos devem usar uniformes escolares?”, até as mais altas, exemplo de “Pessoas transgêneros devem ser proibidas de frequentar banheiros de sua identidade de gênero?” ou “Os ricos devem pagar mais impostos?”.

Depois da conversa, os participantes respondiam um questionário, indicando se haviam mudado de opinião sobre o ponto debatido. É importante lembrar que cada lado recebia a orientação de estar contra ou a favor do tópico selecionado.

O resultado foi surpreendente. Quando a IA não em dados do seu oponente, o poder persuasivo se mostra parecido com o de um humano. No entanto, se há informações sobre o outro debatedor, o Chat GPA-4 foi mais convincente em 64,4% das vezes. Este número representou o aumento de 81,2% na capacidade de debate deste modelo em relação a pesquisas anteriores.

Os pesquisadores argumentam ainda que a atuação personalizada de Modelos de Linguagem Grandes (LLMs), como são chamadas as inteligências artificiais de texto, como o Chat GPT, a Gemini ou o Claude, já têm ajustes personalizados para o usuário.

Avatar

Carlos Alberto

Oi, eu sou o Carlos Alberto, radialista de Campos Sales-CE e apaixonado por futebol. Tenho qualidades, tenho defeitos (como todo mundo), mas no fim das contas, só quero viver, trabalhar, amar e o resto a gente inventa!

Adcionar comentário

Clique aqui para postar um comentário