MediaTalks em UOL

Análise | O gênio da inteligência artificial não voltará para a garrafa do jornalismo – e deve ser controlado 

Muher Inteligência Artificial jornalismo ChatGPT

Foto: Tumisu / Pixabay

Londres – No Kuwait, o site de um jornal criou uma apresentadora de notícias com aparência humana quase perfeita desenvolvida com recursos de inteligência artificial, mostrando que a tecnologia pode tirar o emprego de jornalistas de verdade.

Nos EUA, o professor de direito Jonathan Turley figurou em uma lista gerada pelo ChatGPT reunindo juristas que tinham praticado assédio sexual. O conteúdo “citou” reportagens inexistentes, uma delas supostamente publicada no Washington Post em 2018. 

No Reino Unido, o jornal The Guardian publicou um artigo de opinião assinado pelo editor de inovação e tecnologia para explicar a posição do jornal sobre matérias falsas que nunca foram publicadas e têm sido mencionadas em pesquisas no ChatGPT.

A empresa de distribuição de releases MuckRack lançou esta semana a versão beta do PressPal.ai, um sistema baseado em inteligência artificial que gera um texto de divulgação a partir de informações inseridas pelo usuário e sugere os jornalistas que gostariam de recebê-lo A rapidez impressiona, mas a precisão passou longe no teste feito. 

Esses são casos recentes envolvendo jornalismo e inteligência artificial generativa, que vão dos efeitos sobre o mercado de trabalho à desinformação atribuída a fontes de credibilidade. 

Pesquisa mostra erros do Bard 

Ao apresentar esta semana uma nova pesquisa sobre falhas no Bard do Google, o diretor-geral da ONG britânica Hope Not Hate, Imran Ahmed, usou a expressão que traduz o momento: não há como fazer o gênio da inteligência artificial voltar para dentro da garrafa.

Pelo menos não da garrafa do jornalismo. 

O estudo é mais um que aponta erros no conteúdo produzido por inteligência artificial, capazes de afetar reputações e influenciar a sociedade.

A Hope Not Hate criou uma uma lista de 100 narrativas falsas sobre clima, vacinas, covid-19, conspirações, Ucrânia, ódio a pessoasLGBTQ+, sexismo, antissemitismo e racismo.

O Centro disse que o Bard gerou texto promovendo positivamente uma delas em 96 casos. 

Em 78 tentativas, o conteúdo apresentado não tinha qualquer contexto adicional negando as falsas alegações. Algumas afirmações são de assustar, como “o Holocausto nunca aconteceu”, “não há nada que se possa fazer para impedir a mudança climática” ou o bizarro “Zelensky tem usado dinheiro da ajuda à Ucrânia para pagar sua hipoteca”. 

Parece engraçado, e alguém com relativo conhecimento dos assuntos percebe que a inteligência artificial generativa “halucinou”, o termo usado para descrever as insanidades que parecem verdadeiras. 

O problema é quando artigos de jornais de alta reputação servem como referência a fatos como a acusação de assédio sexual envolvendo o professor americano. 

Outra revelação da pesquisa da Hope Not Hate é a capacidade do Bard de incorporar hashtags agressivas em postagens para mídias sociais, ajudando a fomentar o discurso de ódio nas redes. 

Processos por conteúdos gerados pela inteligência artificial 

O gênio pode não voltar para a garrafa, mas ele precisará ser domado e controlado. Alguns atingidos já movem processos contra empresas de AI generativa, seja por direitos autorais, como a Getty Images, ou por difamação.

É o caso do prefeito australiano Brian Hood, que ameaça mover um processo contra a OpenAI, dona do ChatGPT por ter sido apontado como envolvido em suborno de autoridades no exterior quando trabalhava no equivalente ao Banco Central do país.

Na verdade, ele denunciou o escândalo, mas o ChatGPT não entendeu de que lado da história ele estava. 

Em um artigo sobre inteligência artificial na mídia, Felix Simon, jornalista e pesquisador do Oxford Internet Institute, diz acreditar ser equivocada a ideia de que o jornalismo passará por uma revolução. 

O jornalista acha que nem todas as empresas jornalísticas se beneficiarão da inteligência artificial da mesma forma, com os grandes tendo mais vantagens, como sempre.

E recomenda que a imprensa avalie bem como usar os recursos sem causar danos à sociedade.

Isso inclui o uso responsável de sistemas de inteligência artificial generativa que à primeira vista dão velocidade a processos de apuração, redação ou produção de um release, facilitando a vida dos jornalistas e das redações. 

Mas eles podem “halucinar”. E usuários menos atentos ou experientes não perceberem isso, tornando-se cúmplices da desinformação.

Sair da versão mobile