Londres – No Kuwait, o site de um jornal criou uma apresentadora de notĂ­cias com aparĂȘncia humana quase perfeita desenvolvida com recursos de inteligĂȘncia artificial, mostrando que a tecnologia pode tirar o emprego de jornalistas de verdade.

Nos EUA, o professor de direito Jonathan Turley figurou em uma lista gerada pelo ChatGPT reunindo juristas que tinham praticado assĂ©dio sexual. O conteĂșdo “citou” reportagens inexistentes, uma delas supostamente publicada no Washington Post em 2018. 

No Reino Unido, o jornal The Guardian publicou um artigo de opiniĂŁo assinado pelo editor de inovação e tecnologia para explicar a posição do jornal sobre matĂ©rias falsas que nunca foram publicadas e tĂȘm sido mencionadas em pesquisas no ChatGPT.

A empresa de distribuição de releases MuckRack lançou esta semana a versĂŁo beta do PressPal.ai, um sistema baseado em inteligĂȘncia artificial que gera um texto de divulgação a partir de informaçÔes inseridas pelo usuĂĄrio e sugere os jornalistas que gostariam de recebĂȘ-lo A rapidez impressiona, mas a precisĂŁo passou longe no teste feito. 

Esses sĂŁo casos recentes envolvendo jornalismo e inteligĂȘncia artificial generativa, que vĂŁo dos efeitos sobre o mercado de trabalho Ă  desinformação atribuĂ­da a fontes de credibilidade. 

Pesquisa mostra erros do Bard 

Ao apresentar esta semana uma nova pesquisa sobre falhas no Bard do Google, o diretor-geral da ONG britĂąnica Hope Not Hate, Imran Ahmed, usou a expressĂŁo que traduz o momento: nĂŁo hĂĄ como fazer o gĂȘnio da inteligĂȘncia artificial voltar para dentro da garrafa.

Pelo menos nĂŁo da garrafa do jornalismo. 

O estudo Ă© mais um que aponta erros no conteĂșdo produzido por inteligĂȘncia artificial, capazes de afetar reputaçÔes e influenciar a sociedade.

A Hope Not Hate criou uma uma lista de 100 narrativas falsas sobre clima, vacinas, covid-19, conspiraçÔes, UcrĂąnia, Ăłdio a pessoasLGBTQ+, sexismo, antissemitismo e racismo.

O Centro disse que o Bard gerou texto promovendo positivamente uma delas em 96 casos. 

Em 78 tentativas, o conteĂșdo apresentado nĂŁo tinha qualquer contexto adicional negando as falsas alegaçÔes. Algumas afirmaçÔes sĂŁo de assustar, como “o Holocausto nunca aconteceu”, “nĂŁo hĂĄ nada que se possa fazer para impedir a mudança climĂĄtica” ou o bizarro “Zelensky tem usado dinheiro da ajuda Ă  UcrĂąnia para pagar sua hipoteca”. 

Parece engraçado, e alguĂ©m com relativo conhecimento dos assuntos percebe que a inteligĂȘncia artificial generativa “halucinou”, o termo usado para descrever as insanidades que parecem verdadeiras. 

O problema Ă© quando artigos de jornais de alta reputação servem como referĂȘncia a fatos como a acusação de assĂ©dio sexual envolvendo o professor americano. 

Outra revelação da pesquisa da Hope Not Hate Ă© a capacidade do Bard de incorporar hashtags agressivas em postagens para mĂ­dias sociais, ajudando a fomentar o discurso de Ăłdio nas redes. 

Processos por conteĂșdos gerados pela inteligĂȘncia artificial 

O gĂȘnio pode nĂŁo voltar para a garrafa, mas ele precisarĂĄ ser domado e controlado. Alguns atingidos jĂĄ movem processos contra empresas de AI generativa, seja por direitos autorais, como a Getty Images, ou por difamação.

É o caso do prefeito australiano Brian Hood, que ameaça mover um processo contra a OpenAI, dona do ChatGPT por ter sido apontado como envolvido em suborno de autoridades no exterior quando trabalhava no equivalente ao Banco Central do país.

Na verdade, ele denunciou o escĂąndalo, mas o ChatGPT nĂŁo entendeu de que lado da histĂłria ele estava. 

Em um artigo sobre inteligĂȘncia artificial na mĂ­dia, Felix Simon, jornalista e pesquisador do Oxford Internet Institute, diz acreditar ser equivocada a ideia de que o jornalismo passarĂĄ por uma revolução. 

O jornalista acha que nem todas as empresas jornalĂ­sticas se beneficiarĂŁo da inteligĂȘncia artificial da mesma forma, com os grandes tendo mais vantagens, como sempre.

E recomenda que a imprensa avalie bem como usar os recursos sem causar danos Ă  sociedade.

Isso inclui o uso responsĂĄvel de sistemas de inteligĂȘncia artificial generativa que Ă  primeira vista dĂŁo velocidade a processos de apuração, redação ou produção de um release, facilitando a vida dos jornalistas e das redaçÔes. 

Mas eles podem “halucinar”. E usuĂĄrios menos atentos ou experientes nĂŁo perceberem isso, tornando-se cĂșmplices da desinformação.