Ícone do site MediaTalks em UOL

Vem aí a Grokipedia: entenda como vai funcionar a Wikipédia ‘sem viés’ anunciada por Musk

Elon Musk lançou o Grok, chatbot de IA que utiliza humor nas respostas

Elon Musk lançou o chatbot de IA Grok / foto: Tumisu/Pixabay

Elon Musk, dono do Twitter e da inteligência artificial Grok, anunciou o projeto da Grokpedia como um ‘aprimoramento massivo’ da Wikipédia, cujo conteúdo ele considera carregado de ideologias e visões políticas tendenciosas.

A empresa de inteligência artificial de Elon Musk, xAI, está prestes a lançar a versão beta inicial da Grokipedia, um novo projeto criado para rivalizar com a Wikipédia.

Musk descreveu a Grokipedia como uma resposta ao que ele considera o “viés político e ideológico” da Wikipédia.

Ele promete que a nova plataforma oferecerá informações mais precisas e contextualizadas, usando o chatbot da xAI, o Grok, para gerar e verificar o conteúdo.

Mas ele está certo? A questão sobre se a Wikipédia é ou não tendenciosa é debatida desde sua criação, em 2001.

Como é feito o conteúdo da Wikipédia

O conteúdo da Wikipédia é escrito e mantido por voluntários, que só podem citar materiais já existentes em outras fontes publicadas, uma vez que a plataforma proíbe pesquisas originais.

Essa regra, criada para garantir que os fatos possam ser verificados, significa que a cobertura da Wikipédia inevitavelmente reflete os vieses da mídia, do meio acadêmico e de outras instituições das quais obtém informação.

Isso não se limita ao viés político. Pesquisas demonstram repetidamente um desequilíbrio de gênero significativo entre os editores: cerca de 80% a 90% se identificam como homens na versão em inglês.

Como a maioria das fontes secundárias usadas pelos editores também foi, historicamente, escrita por homens, a Wikipédia tende a refletir uma visão mais estreita do mundo, um repositório do conhecimento masculino, e não um registro equilibrado do conhecimento humano.

O problema do voluntariado

O viés em plataformas colaborativas geralmente surge de quem participa, e não de políticas impostas de cima para baixo.

A participação voluntária introduz o que cientistas sociais chamam de viés de auto-seleção: pessoas que escolhem contribuir tendem a compartilhar motivações, valores e, muitas vezes, inclinações políticas semelhantes.

Assim como a Wikipédia depende dessa participação voluntária, o mesmo ocorre, por exemplo, com o Community Notes, o recurso de verificação de fatos da rede X (antigo Twitter), de Musk.

Uma análise do Community Notes, que realizei com colegas, mostra que sua fonte externa mais frequentemente citada, depois do próprio X, é, na verdade, a Wikipédia.

Outras fontes comumente usadas pelos autores das notas tendem a se concentrar em veículos de centro ou de esquerda.

Eles até utilizam a mesma lista de fontes aprovadas pela Wikipédia, justamente o cerne da crítica de Musk à enciclopédia online aberta. No entanto, ninguém acusa Musk de viés por isso.

A Wikipédia pelo menos continua sendo uma das poucas plataformas de grande escala que reconhece e documenta abertamente suas limitações.

A neutralidade é um de seus cinco princípios fundamentais. O viés existe, mas há também uma infraestrutura criada para torná-lo visível e corrigível.

Os artigos frequentemente incluem múltiplas perspectivas, documentam controvérsias e até dedicam seções a teorias da conspiração, como as que cercam os ataques de 11 de setembro.

As divergências são visíveis nos históricos de edição e nas páginas de discussão, e afirmações contestadas recebem avisos. A plataforma é imperfeita, mas auto-corrigível, construída sobre o pluralismo e o debate aberto.

A IA é imparcial?

Se a Wikipédia reflete as visões de mundo de seus editores humanos e de suas fontes, a inteligência artificial enfrenta o mesmo problema com seus dados.

Modelos de linguagem de grande porte (LLMs), como os usados pelo Grok da xAI, são treinados com enormes conjuntos de dados coletados da internet, incluindo redes sociais, livros, artigos de notícias e a própria Wikipédia.

Estudos mostram que esses modelos reproduzem vieses de gênero, políticos e raciais existentes nos dados de treinamento.

Musk afirma que o Grok foi projetado para combater essas distorções, mas o próprio Grok já foi acusado de viés. Um estudo no qual quatro dos principais LLMs foram questionados sobre 2.500 temas políticos mostrou que o Grok é mais neutro que seus concorrentes, mas ainda apresenta uma leve tendência à esquerda (os outros são mais à esquerda ainda).

Se o modelo por trás do Grokipedia depende dos mesmos dados e algoritmos, é difícil imaginar como uma enciclopédia movida por IA poderia evitar reproduzir exatamente os vieses que Musk atribui à Wikipédia.

Pior ainda, os LLMs podem agravar o problema. Eles funcionam de forma probabilística, prevendo a próxima palavra ou frase mais provável com base em padrões estatísticos, e não em deliberações humanas.

O resultado é o que pesquisadores chamam de ilusão de consenso: uma resposta com aparência de autoridade que esconde a incerteza ou a diversidade de opiniões por trás dela.

Assim, os LLMs tendem a homogeneizar a diversidade política e favorecer visões majoritárias em detrimento das minoritárias.

Esses sistemas correm o risco de transformar o conhecimento coletivo em uma narrativa fluida, porém rasa. Quando o viés é mascarado por uma redação polida, os leitores podem deixar de perceber que existem outras perspectivas possíveis.

Jogando o bebê fora com a água do banho

Dito tudo isso, a IA ainda pode fortalecer um projeto como a Wikipédia. Ferramentas de IA já ajudam a plataforma a detectar vandalismo, sugerir citações e identificar inconsistências em artigos.

Pesquisas recentes destacam como a automação pode melhorar a precisão, desde que usada de forma transparente e sob supervisão humana.

A IA também pode ajudar a transferir conhecimento entre diferentes versões linguísticas e aproximar a comunidade de editores.

Se bem implementada, pode tornar a Wikipédia mais inclusiva, eficiente e responsiva, sem comprometer seu espírito humano e colaborativo.

O que o X pode aprender com a Wikipédia

Da mesma forma que a Wikipédia pode aprender com a IA, o X poderia aprender com o modelo de construção de consenso da enciclopédia.

O Community Notes permite que usuários enviem e avaliem notas sobre postagens, mas seu design limita a discussão direta entre os colaboradores.

Outro estudo do qual participei mostrou que sistemas baseados em deliberação, inspirados nas páginas de discussão da Wikipédia, melhoram a precisão e a confiança entre participantes, mesmo quando a deliberação ocorre entre humanos e IA.

Incentivar o diálogo, em vez do atual sistema binário de aprovação ou reprovação, poderia tornar o Community Notes mais transparente, pluralista e resistente à polarização política.

Lucro e motivação

A diferença mais profunda entre a Wikipédia e o Grokipedia está em seu propósito, e talvez em seu modelo de negócios.

A Wikipédia é administrada pela organização sem fins lucrativos Wikimedia Foundation, e a maioria de seus voluntários é motivada principalmente pelo interesse público. Já a xAI, o X e o Grokipedia são empreendimentos comerciais.

Embora o lucro não seja inerentemente antiético, ele pode distorcer incentivos. Quando o X começou a vender o selo azul de verificação, a credibilidade virou uma mercadoria, e não mais um sinal de confiança.

Se o conhecimento for monetizado de maneira semelhante, o viés pode aumentar, moldado pelo que gera mais engajamento e receita.

O verdadeiro progresso não está em abandonar a colaboração humana, mas em melhorá-la.

Aqueles que percebem viés na Wikipédia, incluindo o próprio Musk, poderiam contribuir de forma muito mais significativa incentivando editores de origens políticas, culturais e demográficas diversas a participar, ou até participando pessoalmente para aprimorar os artigos existentes.

Em uma era cada vez mais moldada pela desinformação, transparência, diversidade e debate aberto continuam sendo nossas melhores ferramentas para nos aproximar da verdade.


Este artigo foi publicado originalmente no portal acadêmio The Conversation e é republicado aqui sob licença Creative Commons.


 

Sair da versão mobile