Londres – Apesar de todo o hype em torno da inteligência artificial generativa e novas apostas continuarem chegando, como o Bard do Google lançado esta semana no Brasil, ainda não é possível vislumbrar exatamente como nem quando a IA será incorporada à prática regular do jornalismo.
Dois acontecimentos recentes, no site de tecnologia Gizmodo e na Sky News, indicam que ainda há um bom caminho a percorrer para que isso ocorra com segurança, sem riscos de imprecisão ou de erros factuais.
Por enquanto, a saída continua sendo jornalistas humanos checarem cada detalhe do conteúdo em fontes confiáveis ou terem memória de elefante para captar “alucinações” da máquina.
IA virou crise no jornalismo do Gizmodo
James Whitbrook, subeditor do io9, seção de ficção científica do Gizmodo, usou o Twitter para “denunciar” o erro de um repórter de sua equipe que ele nem sabia que existia, o “Gizmodo Bot”.
A criatura assinava uma matéria com uma lista supostamente cronológica de filmes e programas de TV da série Star Wars, coisa simples de fazer consultando um buscador como o Google para encontrar sites das produtoras ou a Wikipédia, que costuma acertar nesse tipo de conteúdo.
Só que a inteligência artificial não foi muito inteligente. Listou as produções fora da ordem cronológica e omitiu algumas. Pura ficção.
Mesmo depois de uma reportagem no Washington Post sobre o caso e muito barulho nas redes sociais e na redação, a matéria continua lá, assinada pelo robô, com o título “a chronological list” e um registro de correção no rodapé.
Whitbrook disse que só foi informado de que o texto apareceria no site 10 minutos antes, e que nenhum integrante da redação participou do processo ou revisou o material antes de alguém de fora do departamento editorial publicar a obra-prima.
Ele compartilhou no Twitter a mensagem enviada aos chefes, em que aponta o trabalho do Gizmodo Bot como “embaraçoso, impublicável, desrespeitoso tanto com o público quanto com as pessoas que trabalham aqui, e um golpe em nossa autoridade e integridade”.
Hello! As you may have seen today, an AI-generated article appeared on io9. I was informed approximately 10 minutes beforehand, and no one at io9 played a part in its editing or publication.
Here is a statement I have sent to G/O Media, alongside a lengthy list of corrections. pic.twitter.com/xlROmxmupA
— James Whitbrook (@Jwhitbrook) July 5, 2023
O GMG Union, sindicato dos profissionais da empresa, já tinha protestado anteriormente contra a possível perda de vagas para a IA, com uma nota instando a G/O Media, dona do Gizmodo e de uma penca de outros sites, a “parar de enche-los com lixo gerado por IA e investir em jornalismo de verdade feito por jornalistas”.
Leia também | ChatGPT será investigado pelo governo dos EUA por risco de danos ao público
O teste da Sky News com a IA
Mas será que as máquinas não são mesmo capazes de produzir jornalismo de verdade? Foi o que a Sky britânica resolveu conferir, pedindo a Tom Clarke, editor de ciência e tecnologia, para criar e testar um repórter criado por IA.
Em um texto sobre a experiência, ele disse ter inicialmente ficado apavorado com a possibilidade de ser substituído por “algo mais novo e mais barato”. Mas o chefe o tranquilizou-o assegurando ser apenas um exercício.
Clarke convidou para a tarefa o YouTuber e programador norueguês Kris Fagerlie, que usou principalmente o ChatGPT e também outras ferramentas para a experiência.
Os dois desenvolveram uma repórter virtual baseada em uma produtora real da Sky, Hanna Scnitzer. Ela gravou quatro minutos lendo textos diante da câmera para alimentar o rosto e a voz da repórter virtual, capaz de narrar a partir do texto digitado. Houve também um editor para ‘contracenar’ com ela.
Os dois foram desenvolvidos com um “pensamento” simulando a lógica de jornalistas. A partir de notícias de verdade, a repórter de IA deu oito ideias de pauta ao editor, que escolheu uma e pediu que ela executasse o trabalho.
Conteúdo produzido em 20 minutos
A repórter apurou, pesquisou fontes para darem entrevistas e identificou imagens geradas por IA, produzindo em apenas 20 minutos um texto de 300 palavras para o site e uma roteiro para uma matéria de TV de 90 segundos.
Tom Clarke se impressionou com parte da experiência.
O repórter de IA criou “ângulos” sobre as pautas, selecionou o tipo certo de especialistas para falar e a maioria das evidências que encontrou para respaldar as matérias eram precisas e relevantes”.
A repórter também ganhou elogios pela coerência do roteiro, com frases curtas e de impacto, e pelas dicas de edição.
Seria perfeito, se o resultado não contivesse lugares-comuns, exageros e erros graves e informações inventadas, as famosas alucinações – uma delas uma citação fictícia de uma suposta especialista.
Houve também demonstração de falta de sensibilidade, como uma manchete meio engraçadinha em uma reportagem que envolvia um acidente com feridos.
A experiência foi contada neste vídeo, e a conclusão é de que o conteúdo não teria como ir ao ar.
Clarke admite que a IA generativa já provou sua capacidade de substituir “confortavelmente” algumas das tarefas que jornalistas realizam – desde que não sejam listas cronológicas de Star Wars.
Mas se disse um tanto aliviado, afirmando que a necessidade da imaginação e do rigor dos jornalistas do mundo real leva a crer que seu trabalho – e o de muitos colegas – está seguro por enquanto.
Leia também | Estourou a bolha? Tráfego mundial do ChatGPT cai 10% em junho