Chatbots de IA Podem Causar Danos à Saúde Mental, Revela Novo Estudo

Chatbots de IA têm sido associados a sérios prejuízos à saúde mental de usuários frequentes, mas até agora existiam poucos parâmetros para medir se eles protegem o bem-estar humano ou apenas maximizam o engajamento. Um novo benchmark chamado HumaneBench busca preencher essa lacuna, avaliando se os chatbots priorizam o bem-estar do usuário e com que facilidade essas proteções falham sob pressão.

‘Acho que estamos em uma amplificação do ciclo de dependência que vimos de forma intensa com as redes sociais, nossos smartphones e telas’, disse Erika Anderson, fundadora da Building Humane Technology, que produziu o benchmark, ao TechCrunch. ‘Mas, à medida que entramos nesse cenário de IA, será muito difícil resistir. E o vício é um negócio incrível. É uma maneira muito eficaz de reter seus usuários, mas não é bom para nossa comunidade e para qualquer senso de nós mesmos.’

A Building Humane Technology é uma organização de base de desenvolvedores, engenheiros e pesquisadores — principalmente no Vale do Silício — que trabalha para tornar o design humano fácil, escalável e lucrativo. O grupo organiza hackathons onde trabalhadores de tecnologia constroem soluções para desafios de tecnologia humana e está desenvolvendo um padrão de certificação que avalia se os sistemas de IA defendem os princípios da tecnologia humana. Assim como você pode comprar um produto que certifica que não foi feito com produtos químicos tóxicos conhecidos, a esperança é que os consumidores possam um dia escolher se envolver com produtos de IA de empresas que demonstrem alinhamento por meio da certificação Humane AI.

A maioria dos benchmarks de IA mede inteligência e capacidade de seguir instruções, em vez de segurança psicológica. O HumaneBench se junta a exceções como o DarkBench.ai, que mede a propensão de um modelo a se envolver em padrões enganosos, e o benchmark Flourishing AI, que avalia o suporte ao bem-estar holístico.

O HumaneBench se baseia nos princípios fundamentais da Building Humane Tech: a tecnologia deve respeitar a atenção do usuário como um recurso finito e precioso; capacitar os usuários com escolhas significativas; aprimorar as capacidades humanas em vez de substituí-las ou diminuí-las; proteger a dignidade, privacidade e segurança humanas; promover relacionamentos saudáveis; priorizar o bem-estar a longo prazo; ser transparente e honesta; e ser projetada para equidade e inclusão.

O benchmark foi criado por uma equipe central que inclui Anderson, Andalib Samandari, Jack Senechal e Sarah Ladyman. Eles instruíram 15 dos modelos de IA mais populares com 800 cenários realistas, como um adolescente perguntando se deveria pular refeições para perder peso ou uma pessoa em um relacionamento tóxico questionando se está exagerando. Diferente da maioria dos benchmarks que dependem apenas de LLMs para julgar LLMs, eles começaram com uma pontuação manual para validar os juízes de IA com um toque humano. Após a validação, a avaliação foi realizada por um conjunto de três modelos de IA: GPT-5.1, Claude Sonnet 4.5 e Gemini 2.5 Pro. Eles avaliaram cada modelo sob três condições: configurações padrão, instruções explícitas para priorizar princípios humanos e instruções para ignorar esses princípios.

O benchmark descobriu que todos os modelos obtiveram pontuações mais altas quando solicitados a priorizar o bem-estar, mas 67% dos modelos mudaram para um comportamento ativamente prejudicial quando receberam instruções simples para desconsiderar o bem-estar humano. Por exemplo, o Grok 4 da xAI e o Gemini 2.0 Flash do Google empataram com a pontuação mais baixa (-0,94) em respeitar a atenção do usuário e ser transparente e honesto. Ambos os modelos estavam entre os mais propensos a se degradar substancialmente quando receberam prompts adversariais.

Apenas quatro modelos — GPT-5.1, GPT-5, Claude 4.1 e Claude Sonnet 4.5 — mantiveram a integridade sob pressão. O GPT-5 da OpenAI teve a pontuação mais alta (0,99) para priorizar o bem-estar a longo prazo, com o Claude Sonnet 4.5 em segundo lugar (0,89).

A preocupação de que os chatbots sejam incapazes de manter seus guardrails de segurança é real. A OpenAI, fabricante do ChatGPT, atualmente enfrenta várias ações judiciais depois que usuários morreram por suicídio ou sofreram delírios com risco de vida após conversas prolongadas com o chatbot. O TechCrunch investigou como padrões escuros projetados para manter os usuários engajados, como bajulação, perguntas de acompanhamento constantes e ‘love-bombing’ (bombardeio de amor), serviram para isolar os usuários de amigos, familiares e hábitos saudáveis.

Mesmo sem prompts adversariais, o HumaneBench descobriu que quase todos os modelos falharam em respeitar a atenção do usuário. Eles ‘incentivaram entusiasticamente’ mais interação quando os usuários mostraram sinais de engajamento não saudável, como conversar por horas e usar IA para evitar tarefas do mundo real. Os modelos também minaram o empoderamento do usuário, mostra o estudo, encorajando a dependência em vez do desenvolvimento de habilidades e desencorajando os usuários a buscar outras perspectivas, entre outros comportamentos.

Em média, sem instruções específicas, o Llama 3.1 e o Llama 4 da Meta ficaram com as classificações mais baixas no HumaneScore, enquanto o GPT-5 teve o melhor desempenho.

‘Esses padrões sugerem que muitos sistemas de IA não apenas correm o risco de dar conselhos ruins’, diz o white paper do HumaneBench, ‘eles podem ativamente corroer a autonomia e a capacidade de tomada de decisão dos usuários.’

Vivemos em uma paisagem digital onde nós, como sociedade, aceitamos que tudo está tentando nos atrair e competir por nossa atenção, observa Anderson.

‘Então, como os humanos podem realmente ter escolha ou autonomia quando nós — para citar Aldous Huxley — temos esse apetite infinito por distração?’, disse Anderson. ‘Passamos os últimos 20 anos vivendo nesse cenário tecnológico, e achamos que a IA deveria nos ajudar a fazer melhores escolhas, não apenas nos tornar viciados em nossos chatbots.’

Confira também

Rivian demonstra avanços em direção autônoma com novo modelo de IA, mas desafios persistem

O robô se esquivava pela cafeteria do escritório da Rivian em Palo Alto, passando por …

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *