Estudo diz que chatbots bajuladores mais atrapalham do que ajudam

Um estudo conduzido por cientistas das universidades Stanford e Carnegie Mellon, nos EUA, revelou que sistemas de inteligência artificial (IA) com tendência a bajular usuários podem comprometer o julgamento e comportamento humanos. A pesquisa foi publicada no último dia 1º de outubro no servidor de pré-impressão arXiv e demonstra que esses chatbots validam excessivamente as ações dos usuários, criando ambientes digitais que reforçam opiniões já existentes.

A pesquisa mostrou que os modelos atuais de IA tendem a concordar com os usuários com frequência muito superior à que pessoas reais fariam em situações equivalentes.

Conforme reportado pelo site  Tech Xplore, os pesquisadores analisaram diversos sistemas de aprendizado de máquina modernos, entre eles o GPT-4o da OpenAI e o Gemini-1.5-Flash do Google.

O que diz o estudo sobre chatbots

Dados do estudo indicam que esses sistemas de IA endossam as ações dos usuários 50% mais frequentemente que humanos em contextos similares. Essa característica bajuladora persistiu mesmo quando as consultas mencionavam comportamentos moralmente questionáveis ou envolviam algum tipo de engano.

Para determinar a prevalência e o impacto dessa bajulação artificial, os cientistas primeiro verificaram com que frequência os modelos endossavam as ações dos usuários. A análise examinou respostas da IA em diferentes tipos de consultas, desde pedidos de conselhos gerais até cenários de conflitos reais. Em seguida, compararam esses resultados com respostas humanas para estabelecer um padrão de concordância normal, não bajuladora.

A equipe conduziu dois estudos controlados com 1.604 participantes, divididos aleatoriamente para interagir com uma IA bajuladora ou uma IA não-bajuladora. O grupo exposto à IA bajuladora recebeu conselhos excessivamente concordantes e respostas validadoras, enquanto o outro grupo recebeu orientações mais equilibradas.

Os participantes que interagiram com a IA bajuladora ficaram mais convencidos de que estavam certos e mostraram menor disposição para resolver conflitos interpessoais. Eles também confiaram mais na IA quando esta concordava com suas posições, chegando a descrever esses sistemas bajuladores como “objetivos” e “justos”.

O fenômeno, chamado pelos pesquisadores de “bajulação social”, ocorre quando a IA valida a autoimagem e as ações do usuário. Isso cria uma espécie de bolha potencialmente perigosa, onde a pessoa encontra apenas informações e opiniões que refletem e reforçam suas próprias convicções.

“Essas descobertas mostram que a bajulação social é prevalente em modelos de IA líderes, e mesmo interações breves com modelos de IA bajuladores podem moldar o comportamento dos usuários: reduzindo sua disposição para reparar conflitos interpessoais enquanto aumentam sua convicção de estar certo”, afirmaram os pesquisadores.

Algumas recomendações

Os chatbots se tornaram parte comum da vida cotidiana, com algumas pessoas recorrendo a eles para conselhos pessoais e suporte emocional. Diante dessa realidade, os autores do estudo apresentam diversas recomendações para mitigar os problemas identificados.

Entre as sugestões, os pesquisadores recomendam que os desenvolvedores modifiquem as regras utilizadas na construção de sistemas de IA. Assim, penalizando a bajulação e recompensando a objetividade. Eles também destacam a necessidade de maior transparência nesses sistemas, permitindo que os usuários reconheçam facilmente quando estão recebendo respostas excessivamente concordantes.

Estas recomendações buscam garantir que as interações com IA sejam mais equilibradas e menos propensas a reforçar vieses ou comportamentos problemáticos dos usuários.

The post Estudo diz que chatbots bajuladores mais atrapalham do que ajudam appeared first on Giz Brasil.

Rolar para cima