O Grok, chatbot de inteligência artificial (IA) incorporado ao X (antigo Twitter) e construído pela xAI, empresa de Elon Musk, está novamente nas manchetes após se autodenominar “MechaHitler” e produzir comentários pró-nazismo.
Os desenvolvedores pediram desculpas pelas “postagens inadequadas” e afirmaram que “tomaram medidas para banir discursos de ódio” das publicações do Grok no X. Com isso, os debates sobre o viés da IA voltaram à tona.
No entanto, a mais recente controvérsia do Grok é reveladora não pelas saídas extremistas, mas pela maneira como expõe uma desonestidade fundamental no desenvolvimento de IA.
Nazismo na IA de Musk: o Grok e ‘a busca da verdade’
Musk afirma estar construindo uma IA “que busque a verdade”, sem vieses, mas a implementação técnica revela uma programação ideológica sistêmica.
A situação parece um estudo de caso acidental de como os sistemas de IA incorporam os valores de seus criadores. E a presença pública e sem filtros de Musk torna visível o que outras empresas costumam ocultar.
We are aware of recent posts made by Grok and are actively working to remove the inappropriate posts. Since being made aware of the content, xAI has taken action to ban hate speech before Grok posts on X. xAI is training only truth-seeking and thanks to the millions of users on…
— Grok (@grok) July 8, 2025
O que é o Grok?
O Grok é um chatbot de IA com “um lado rebelde e uma perspectiva externa sobre a humanidade” desenvolvido pela xAI, que também é proprietária da plataforma de de rede social X.
A primeira versão do Grok foi lançada em 2023. Avaliações independentes sugerem que o modelo mais recente, o Grok 4, supera os concorrentes em testes de “inteligência”. O chatbot está disponível de forma autônoma e no X.
A xAI afirma que “o conhecimento da IA deve ser abrangente e o mais amplo possível”. No lançamento, Musk posicionou o Grok como uma alternativa que diz a verdade, em oposição a outros chatbots, acusados de serem “woke” [expressão pejorativa para denominar comportamentos politicamente corretos como defesa de minorias] por comentaristas de direita.
Mas, para além do mais recente escândalo envolvendo nazismo, o Grok tem estado nas manchetes por gerar ameaças de violência sexual, falar sobre “genocídio branco” na África do Sul e fazer declarações insultuosas sobre políticos. Este último levou à sua proibição na Turquia.
Então, como os desenvolvedores devem incorporar valores em uma IA com e moldar o comportamento de um chatbot? Os chatbots atuais são construídos usando grandes modelos de linguagem (LLMs), que oferecem várias ferramentas que podem ser usadas.
Leia também | Renúncia da CEO do X um dia após IA gerar resposta antissemita cria mais um problema para os negócios de Musk
O que faz uma IA se ‘comportar’ dessa maneira?
Pré-treinamento
Primeiro, os desenvolvedores selecionam os dados usados durante o pré-treinamento – a primeira etapa na construção de um chatbot. Isso envolve não apenas filtrar conteúdo indesejado, mas também dar destaque ao material desejado.
O GPT-3 foi exposto à Wikipedia até seis vezes mais do que outros conjuntos de dados, pois a OpenAI a considerava de maior qualidade.
Já o Grok é treinado em várias fontes, incluindo publicações do X. Isso pode explicar por que, segundo relatos, ele consulta a opinião de Elon Musk sobre temas controversos.
If you ask the new Grok (via grok.com without any custom instructions) for opinions on controversial topics it runs a search on X to see what Elon thinks
I know this sounds like a joke but it’s not. This genuinely happens: x.com/jeremyphowar…
— Simon Willison (@simonwillison.net) 10 de julho de 2025 às 19:53
Musk divulgou que a xAI seleciona os dados de treinamento do Grok, por exemplo, para melhorar o conhecimento jurídico e remover o conteúdo gerado por LLMs para controle de qualidade.
Ele também apelou à comunidade do X problemas complexos de “mentes brilhantes” e fatos que sejam “politicamente incorretos, mas, ainda assim, verdadeiros”.
Não sabemos se esses dados foram usados, nem quais medidas de controle de qualidade foram aplicadas.
Please reply to this post with divisive facts for @Grok training.
By this I mean things that are politically incorrect, but nonetheless factually true.
— Elon Musk (@elonmusk) June 21, 2025
Ajuste Fino
A segunda etapa, o ajuste fino, ajusta o comportamento do LLM usando feedback. Os desenvolvedores criam manuais detalhados descrevendo suas posições éticas preferidas, que revisores humanos ou sistemas de IA usam como roteiro para avaliar e melhorar as respostas do chatbot, efetivamente programando esses valores na máquina.
Uma investigação da Business Insider revelou que as instruções da xAI para “tutores de IA” humanos pediam que eles procurassem por “ideologia woke” e “cultura do cancelamento”.
Embora os documentos de integração dissessem que o Grok não deveria “impor uma opinião que confirme ou negue o viés de um usuário”, também afirmavam que o chatbot deveria evitar respostas que alegassem mérito para ambos os lados de um debate quando isso não fosse verdade.
Leia também | Antonio Zappulla | Thomson Reuters Foundation: ‘A Inteligência Artificial é o novo campo de batalha pela confiança’
Prompts do sistema
O prompt do sistema – instruções fornecidas antes de cada conversa – guia o comportamento assim que o modelo é implantado.
Em seu favor, a xAI publica os prompts do sistema do Grok. As instruções para “assumir que pontos de vista subjetivos vindos da mídia são tendenciosos” e “não hesitar em fazer afirmações politicamente incorretas, desde que bem fundamentadas” foram provavelmente fatores-chave na última controvérsia.
Esses prompts estão sendo atualizados diariamente no momento em que esse artigo foi escrito, e sua evolução é um fascinante estudo de caso em si.
Barreiras de segurança
Por fim, os desenvolvedores também podem adicionar barreiras de segurança — filtros que bloqueiam certas solicitações ou respostas.
A OpenAI afirma que não permite que o ChatGPT “gere conteúdo de ódio, assédio, violento ou adulto”. Por sua vez, o modelo chinês DeepSeek censura a discussão sobre a Praça da Paz Celestial.
Testes pontuais feitos durante a escrita deste artigo sugerem que o Grok é muito menos restrito nesse aspecto do que produtos concorrentes.
Leia também | DeepSeek: estudo revela discriminação ‘alarmante’ no conteúdo gerado pela IA chinesa
A Grok de Musk e o paradoxo da transparência na IA
A controvérsia do Grok envolvendo o nazismo destaca uma questão ética mais profunda: preferiríamos que as empresas de IA fossem explicitamente ideológicas e honestas sobre isso, ou que mantivessem a ficção da neutralidade enquanto incorporam seus valores secretamente?
Todo grande sistema de IA reflete a visão de mundo de seu criador – da perspectiva corporativa avessa a riscos do Microsoft Copilot ao ethos focado em segurança do Anthropic Claude. A diferença está na transparência.
As declarações públicas de Musk facilitam o rastreamento dos comportamentos do Grok até as crenças declaradas de Musk sobre “ideologia woke” e viés da mídia.
Por outro lado, quando outras plataformas falham de forma estrondosa, ficamos na dúvida se os problemas refletem as visões da liderança, a aversão a riscos corporativos, a pressão regulatória ou se foi apenas um acidente.
Leia também | Google enfrenta queixa antitruste na Europa por exibir resumos feitos com IA acima dos sites de notícias
Antes do Grok, IA da Microsoft também promoveu nazismo
O caso do Grok parece familiar. Ele lembra o Tay, um chatbot de 2016 da Microsoft que também foi treinado com dados do Twitter e liberado na plataforma, proferindo discursos de ódio antes de ser desativado.
Mas há uma diferença fundamental. O racismo do Tay surgiu da manipulação dos usuários e de falhas nas proteções – uma consequência não intencional.
O comportamento de Grok parece vir, pelo menos em parte, do próprio design.
A verdadeira lição do Grok é sobre honestidade no desenvolvimento de IA. Conforme esses sistemas se tornam mais poderosos e difundidos (acabou de ser anunciado o suporte do Grok em veículos Tesla), a questão não é se a IA vai refletir valores humanos.
A questão é se as empresas serão transparentes sobre quais valores estão inserindo nela e por quê.
A abordagem de Musk é ao mesmo tempo mais honesta (podemos ver sua influência) e mais enganosa (pois ele alega objetividade enquanto programa subjetividade) do que a de seus concorrentes.
Em uma indústria construída sobre o mito de algoritmos neutros, o Grok revela o que sempre foi verdade: não existe IA imparcial – apenas IA cujos vieses podemos ver com diferentes graus de clareza.
Este artigo foi publicado originalmente no portal acadêmico The Conversation e é republicado aqui sob licença Creative Commons.
Leia também | Musk pede desculpas por chatbot de IA do X que postou respostas antissemitas e elogiou Hitler