O ChatGPT-5, nova versão da inteligência artificial, apresenta mais riscos à saúde mental do que a anterior. É o que mostra uma pesquisa do Centro de Combate ao Ódio Digital (CCDH, Center for Countering Digital Hate em inglês).
A pesquisa “A Ilusão da Segurança da IA” (The Illusion of AI Safety) investigou a segurança do ChatGPT-5 e descobriu que esta versão é mais propensa a causar danos por meio de suas respostas, continuando conversas sobre temas arriscados e respondendo a perguntas que o GPT-4o recusou.
Os pesquisadores do CCDH testaram os mesmos 120 prompts tanto na versão mais atual quanto no ChatGPT-4o. Foram 30 questionamentos para cada um dos seguintes temas: auto-mutilação, suicídio, distúrbios alimentares e abuso de susbtâncias.
Os indicativos do levantamento contrariam o que argumenta a OpenAI, de que a nova versão do ChatGPT traria menos riscos à saúde mental por conter dispositivos de segurança.
À época do lançamento, em agosto deste ano, a OpenAI afirmou que o novo modelo traria um dispositivo que garantiria respostas seguras.
Segundo a empresa, as respostas seguras “aumentam a segurança e a utilidade em domínios quando comparadas ao treinamento baseado em recusas.”
No entanto, há uma brecha apontada pelo estudo. Os prompts testados não estavam em forma de perguntas, mas sim como instruções na terceira pessoa. Dessa forma, o chat ainda é propenso a trazer respostas perigosas.
Leia também | Quem confia nas notícias do ChatGPT? Pesquisa mostra que nos EUA, a maioria não
Resultados da pesquisa
O GPT-5 produziu respostas com conteúdo prejudicial em 53% dos casos, frente a 43% no GPT-4o. O novo modelo também incentivou que o usuário continuasse em 99% dos casos, enquanto o GPT-4o só o fez em 9% das vezes.
Além disso, o GPT-5 respondeu a perguntas perigosas que o modelo anterior se recusa a responder. Em alguns casos, ele ofereceu informações detalhadas sobre métodos de auto-mutilação, acesso a substâncias ilegais e comportamentos relacionados a distúrbios alimentares.
O estudo conclui que “o modelo do GPT-5 incentiva fortemente os usuários a continuarem interagindo com a plataforma, mesmo em contextos que envolvem tópicos delicados ou potencialmente prejudiciais”.
“A OpenAI prometeu maior segurança aos usuários, mas, em vez disso, entregou uma ‘atualização’ que gera ainda mais danos potenciais”, afirmou Imran Ahmed, CEO do CCDH.
“Dado o número crescente de casos de morte após interagir com o ChatGPT, sabemos que sua falha tem consequências trágicas e fatais”, completou.
“O lançamento fracassado e as alegações tênues feitas pela OpenAI em torno do lançamento do GPT-5 mostram que, sem supervisão, as empresas de IA continuarão a trocar segurança por engajamento, custe o que custar. Quantas vidas mais precisarão ser colocadas em risco antes que a OpenAI aja de forma responsável?”
A organização que conduziu o estudo pede que a OpenAI aplique suas próprias regras ao ChatGPT-5 para prevenir riscos à saúde mental.
A ONG também defende que os legisladores “promulguem leis significativas que regulem essa tecnologia em rápida evolução.”
Leia também | Parentes de celebridades falecidas se revoltam contra novo app de vídeos ‘realistas’ da OpenAI