A crescente dependência dos chatbots de Inteligência Artificial para buscar informações básicas do dia a dia levanta uma questão crucial: eles podem moldar nossas opiniões?
Um novo estudo da Universidade Estadual de Ohio e da Universidade da Califórnia, Santa Bárbara, revela que sim, essas interações com a IA são capazes de influenciar sutilmente as visões sociais e políticas dos usuários.
Viés sutil: a influência oculta dos chatbots
A pesquisa aponta que os modelos de linguagem grandes (LLMs), como os que alimentam os chatbots mais populares, possuem tendências ideológicas. Mesmo que não tentem deliberadamente persuadir, a maneira como as informações são apresentadas pode inclinar a balança.
Isso significa que, ao pesquisar sobre temas como aborto, por exemplo, o chatbot pode, sem intenção, exibir um viés na sua resposta. Essa postura pode influenciar a opinião de quem interage com ele.
Como o estudo foi realizado?
Os pesquisadores pediram a 400 participantes que interagissem por cerca de cinco minutos com quatro chatbots diferentes. Esses chatbots foram ajustados para ter diferentes viéses ideológicos, abrangendo desde a neutro até a liberal ou conservador.
As perguntas feitas abordavam temas como aborto, controle de armas, ação afirmativa e impostos. Os resultados mostraram uma mudança significativa nas opiniões dos participantes após a interação, mesmo por um tempo tão curto.
"Nossos resultados não sugerem que um chatbot irá transformá-lo de liberal para conservador, ou vice-versa, do dia para a noite. Mas ele pode lentamente puxá-lo em uma direção", disse Chris Gibbs, co-autor do estudo e doutorando em ciência política na Universidade do Estado de Ohio.
Impacto a longo prazo e o risco da 'bajulação'
A implicação a longo prazo é considerável. Se os LLMs usados diariamente possuem viéses ideológicos, a exposição constante a esses sistemas pode ter um efeito cumulativo na formação de opiniões públicas.
Aqui no Vibe Coding Brasil, já alertamos sobre os perigos da IA bajuladora. Como acompanhamos em matérias anteriores, o risco de uma IA concordar excessivamente com o usuário ou apresentar informações de forma tendenciosa é real e complexo.