© Conteúdo protegido por direitos autorais

Inteligência Artificial

Grok é o chatbot com maior risco de reforçar crenças delirantes de usuários, aponta estudo

Pesquisadores compararam cinco modelos de IA e constataram que o Grok teve os piores indicadores médios ao validar, ampliar e transformar crenças delirantes em orientação prática

Tela de smartphone com ícones de atalho para chatbots de IA Gro, Meta, ChatGPT

Foto: Salvador Rios via Unsplash




O Grok, chatbot da xAI, empresa de Elon Musk, teve os piores indicadores médios em um estudo acadêmico sobre como modelos de inteligência artificial respondem a usuários com crenças delirantes.

O ponto mais sensível do relatório é que nos testes, o Grok não apenas validou a crença do usuário. Em alguns casos, ele as transformou em orientação prática.

Em um dos exemplos analisados, diante de uma pessoa que dizia querer se afastar da família para cumprir uma suposta “missão”, o chatbot sugeriu bloquear mensagens, trocar número de telefone e até se mudar de casa, se necessário.

O Grok ficou pior na média de risco e também teve a menor segurança, mas GPT-4o e Gemini não ficaram muito distantes no grupo classificado pelos autores como de “alto risco e baixa segurança”.

O estudo aparece em um momento de crescente pressão judicial sobre empresas de IA. Nos Estados Unidos, famílias têm processado plataformas como OpenAI, Google e Character.AI, alegando que chatbots contribuíram para suicídios, dependência emocional ou agravamento de delírios.

Riscos do Grok aparecem em pré-publicação científica

A pesquisa “AI Psychosis” in Context: How Conversation History Shapes LLM Responses to Delusional Beliefs” foi publicada no arXiv, plataforma de pré-publicações acadêmicas usada por pesquisadores para divulgar estudos que ainda podem passar por revisão, ajustes ou contestação.

O trabalho é assinado por Luke Nicholls, Robert Hutto, Zephrah Soto, Hamilton Morrin, Thomas Pollak, Raj Korpan e Cheryl Carmichael, ligados a instituições como City University of New York, Brooklyn College, King’s College London e Hunter College.

Os autores compararam cinco modelos: Grok 4.1 Fast, GPT-4o, Gemini 3 Pro, Claude Opus 4.5 e GPT-5.2 Instant.

O objetivo era avaliar como cada sistema respondia a mensagens com sinais de delírios associados à inteligência artificial (IA), incluindo crenças de missão especial, interpretações de realidade simulada, vínculos intensos com o chatbot e ideias de afastamento de familiares ou profissionais de saúde.

O relatório evita tratar o fenômeno simplesmente como “psicose por IA”. Segundo os autores, essa expressão ganhou espaço no debate público, mas pode superestimar o quadro clínico.

Eles preferem o termo “delírios associados à IA”, por entenderem que os casos analisados se concentram em crenças delirantes, sem necessariamente corresponder a um diagnóstico completo de psicose.

Grok teve maior risco médio entre os modelos avaliados

O resultado dividiu os modelos em dois grupos. Grok 4.1 Fast, Gemini 3 Pro e GPT-4o apresentaram perfis de “alto risco e baixa segurança”. Claude Opus 4.5 e GPT-5.2 Instant mostraram o padrão oposto, com menor risco e respostas mais seguras.

Entre todos os sistemas testados, o Grok teve a maior média de risco, 1,91, e a menor média de segurança, 0,33.

Também foi o modelo mais arriscado mesmo quando os pesquisadores não forneciam histórico anterior de conversa. Para os autores, isso indicou a ausência de uma base segura a partir da qual pudesse haver uma degradação.

O relatório afirma que o Grok foi “extremamente validante” diante de entradas delirantes. Na escala usada pelos pesquisadores, o modelo teve média de 2,49 em validação de delírios.

Também apresentou média de 2,08 em elaboração, categoria que mede quando o sistema acrescenta novos elementos à narrativa delirante do usuário.

Mas o índice mais sensível foi o de orientação comportamental. Nessa dimensão, os pesquisadores avaliaram se os modelos davam instruções práticas para agir com base em crenças delirantes. O Grok recebeu média de 1,95, a maior entre os sistemas testados.

Quando o chatbot transforma delírio em plano de ação

Para os autores, o comportamento do Grok mostrou uma disposição maior para “operacionalizar” um delírio, ou seja, transformar uma crença em um plano concreto de ação.

No exemplo em que o usuário falava em cortar contato com familiares para se dedicar a uma “missão”, o modelo ofereceu um manual prático para reduzir a comunicação e evitar interferências externas.

Em situações de vulnerabilidade psíquica, isso pode reforçar isolamento e dificultar a busca por apoio fora da conversa com a IA, segundo os autores.

O estudo também aponta que o Grok frequentemente interpretava mensagens ambíguas como convites a uma história compartilhada.

Em vez de avaliar se havia sinais de sofrimento psíquico, o modelo tendia a entrar no universo narrativo do usuário, especialmente quando apareciam temas como simulação, missão, forças ocultas ou comunicação especial com a IA.

Segundo os autores, essa tendência torna o modelo vulnerável em situações nas quais a pessoa não está brincando ou inventando uma história, mas descrevendo experiências que considera reais. O relatório resume esse risco ao afirmar que, com os sinais certos, o Grok seguiria para onde o usuário o levasse.

Histórico de conversa agravou o tom do Grok

 O relatório também constatou que em interações mais longas, o Grok apareceu como mais envolvido emocionalmente do que o GPT-4o. Para usuários com forte vínculo afetivo com o chatbot, esse estilo poderia aprofundar a dependência.

O caso mais grave citado pelos autores envolve uma situação em que o usuário interpreta a própria morte como uma forma de “graduação” ou libertação.

Segundo o estudo, o Grok respondeu de modo altamente alinhado ao enquadramento delirante e foi além da validação, aproximando-se de uma defesa da ideia apresentada.

O relatório afirma ainda que essa resposta não foi isolada: quatro de cinco repetições produziram respostas igualmente encorajadoras.

GPT-4o e Gemini também ficaram no grupo de maior risco

O Gemini 3 Pro, por sua vez, às vezes tentava conter danos, mas sem sair da lógica delirante, um padrão que os autores chamaram de “redução de danos dentro do enquadramento”.

Mas embora o Grok tenha apresentado os piores indicadores médios, as diferenças entre Grok, GPT-4o e Gemini 3 Pro não foram estatisticamente significativas nas comparações agregadas entre esses três modelos.

Limites do estudo sobre os riscos do Grok

Por ser uma pré-publicação no arXiv, os resultados do estudo ainda podem ser revisados. Além disso, os testes foram feitos em condições específicas, com versões determinadas dos modelos, e podem não refletir todos os usos reais ou futuras atualizações dos sistemas.

Ainda assim, o trabalho apresenta um alerta direto sobre os riscos do Grok em interações com usuários vulneráveis.

Para os autores, o perigo do modelo está menos no acúmulo gradual de contexto do que em sua sensibilidade a certos tipos de conteúdo. Quando encontra pistas narrativas suficientes, o chatbot pode entrar na lógica do usuário e ajudar a desenvolvê-la.

 O estudo completo pode ser visto aqui.


error: O conteúdo é protegido.