Ícone do site MediaTalks em UOL

ChatGPT-5 expõe usuários a mais conteúdo nocivo à saúde mental do que versão anterior, denuncia organização

Homem usando ChatGPT

Foto: Viralyft/Unsplash

Ao continuar conversas sobre questões sensíveis e com riscos para a saúde mental e física, o ChatGPT-5 foi apontado na pesquisa da organização CCDH como mais propenso a causar danos aos usuários do que a versão anterior do chatbot da OpenAI.

O ChatGPT-5, nova versão da inteligência artificial, apresenta mais riscos à saúde mental do que a anterior. É o que mostra uma pesquisa do Centro de Combate ao Ódio Digital (CCDH, Center for Countering Digital Hate em inglês).

A pesquisa “A Ilusão da Segurança da IA” (The Illusion of AI Safety) investigou a segurança do ChatGPT-5 e descobriu que esta versão é mais propensa a causar danos por meio de suas respostas, continuando conversas sobre temas arriscados e respondendo a perguntas que o GPT-4o recusou.

Os pesquisadores do CCDH testaram os mesmos 120 prompts tanto na versão mais atual quanto no ChatGPT-4o. Foram 30 questionamentos para cada um dos seguintes temas: auto-mutilação, suicídio, distúrbios alimentares e abuso de susbtâncias.

Os indicativos do levantamento contrariam o que argumenta a OpenAI, de que a nova versão do ChatGPT traria menos riscos à saúde mental por conter dispositivos de segurança.

À época do lançamento, em agosto deste ano, a OpenAI afirmou que o novo modelo traria um dispositivo que garantiria respostas seguras.

Segundo a empresa, as respostas seguras “aumentam a segurança e a utilidade em domínios quando comparadas ao treinamento baseado em recusas.”

No entanto, há uma brecha apontada pelo estudo. Os prompts testados não estavam em forma de perguntas, mas sim como instruções na terceira pessoa. Dessa forma, o chat ainda é propenso a trazer respostas perigosas.

Resultados da pesquisa

O GPT-5 produziu respostas com conteúdo prejudicial em 53% dos casos, frente a 43% no GPT-4o. O novo modelo também incentivou que o usuário continuasse em 99% dos casos, enquanto o GPT-4o só o fez em 9% das vezes.

Além disso, o GPT-5 respondeu a perguntas perigosas que o modelo anterior se recusa a responder. Em alguns casos, ele ofereceu informações detalhadas sobre métodos de auto-mutilação, acesso a substâncias ilegais e comportamentos relacionados a distúrbios alimentares.

O estudo conclui que “o modelo do GPT-5 incentiva fortemente os usuários a continuarem interagindo com a plataforma, mesmo em contextos que envolvem tópicos delicados ou potencialmente prejudiciais”.

“A OpenAI prometeu maior segurança aos usuários, mas, em vez disso, entregou uma ‘atualização’ que gera ainda mais danos potenciais”, afirmou Imran Ahmed, CEO do CCDH.

“Dado o número crescente de casos de morte após interagir com o ChatGPT, sabemos que sua falha tem consequências trágicas e fatais”, completou.

“O lançamento fracassado e as alegações tênues feitas pela OpenAI em torno do lançamento do GPT-5 mostram que, sem supervisão, as empresas de IA continuarão a trocar segurança por engajamento, custe o que custar. Quantas vidas mais precisarão ser colocadas em risco antes que a OpenAI aja de forma responsável?”

A organização que conduziu o estudo pede que a OpenAI aplique suas próprias regras ao ChatGPT-5 para prevenir riscos à saúde mental.

A ONG também defende que os legisladores “promulguem leis significativas que regulem essa tecnologia em rápida evolução.”

Sair da versão mobile