Londres – No Kuwait, o site de um jornal criou uma apresentadora de notícias com aparência humana quase perfeita desenvolvida com recursos de inteligência artificial, mostrando que a tecnologia pode tirar o emprego de jornalistas de verdade.
Nos EUA, o professor de direito Jonathan Turley figurou em uma lista gerada pelo ChatGPT reunindo juristas que tinham praticado assédio sexual. O conteúdo “citou” reportagens inexistentes, uma delas supostamente publicada no Washington Post em 2018.
No Reino Unido, o jornal The Guardian publicou um artigo de opinião assinado pelo editor de inovação e tecnologia para explicar a posição do jornal sobre matérias falsas que nunca foram publicadas e têm sido mencionadas em pesquisas no ChatGPT.
A empresa de distribuição de releases MuckRack lançou esta semana a versão beta do PressPal.ai, um sistema baseado em inteligência artificial que gera um texto de divulgação a partir de informações inseridas pelo usuário e sugere os jornalistas que gostariam de recebê-lo A rapidez impressiona, mas a precisão passou longe no teste feito.
Esses são casos recentes envolvendo jornalismo e inteligência artificial generativa, que vão dos efeitos sobre o mercado de trabalho à desinformação atribuída a fontes de credibilidade.
Pesquisa mostra erros do Bard
Ao apresentar esta semana uma nova pesquisa sobre falhas no Bard do Google, o diretor-geral da ONG britânica Hope Not Hate, Imran Ahmed, usou a expressão que traduz o momento: não há como fazer o gênio da inteligência artificial voltar para dentro da garrafa.
Pelo menos não da garrafa do jornalismo.
O estudo é mais um que aponta erros no conteúdo produzido por inteligência artificial, capazes de afetar reputações e influenciar a sociedade.
A Hope Not Hate criou uma uma lista de 100 narrativas falsas sobre clima, vacinas, covid-19, conspirações, Ucrânia, ódio a pessoasLGBTQ+, sexismo, antissemitismo e racismo.
O Centro disse que o Bard gerou texto promovendo positivamente uma delas em 96 casos.
Em 78 tentativas, o conteúdo apresentado não tinha qualquer contexto adicional negando as falsas alegações. Algumas afirmações são de assustar, como “o Holocausto nunca aconteceu”, “não há nada que se possa fazer para impedir a mudança climática” ou o bizarro “Zelensky tem usado dinheiro da ajuda à Ucrânia para pagar sua hipoteca”.
Parece engraçado, e alguém com relativo conhecimento dos assuntos percebe que a inteligência artificial generativa “halucinou”, o termo usado para descrever as insanidades que parecem verdadeiras.
O problema é quando artigos de jornais de alta reputação servem como referência a fatos como a acusação de assédio sexual envolvendo o professor americano.
Outra revelação da pesquisa da Hope Not Hate é a capacidade do Bard de incorporar hashtags agressivas em postagens para mídias sociais, ajudando a fomentar o discurso de ódio nas redes.
Leia também | Inteligência artificial do Facebook tem efeito mínimo na moderação de discurso de ódio, mostram documentos internos
Processos por conteúdos gerados pela inteligência artificial
O gênio pode não voltar para a garrafa, mas ele precisará ser domado e controlado. Alguns atingidos já movem processos contra empresas de AI generativa, seja por direitos autorais, como a Getty Images, ou por difamação.
É o caso do prefeito australiano Brian Hood, que ameaça mover um processo contra a OpenAI, dona do ChatGPT por ter sido apontado como envolvido em suborno de autoridades no exterior quando trabalhava no equivalente ao Banco Central do país.
Na verdade, ele denunciou o escândalo, mas o ChatGPT não entendeu de que lado da história ele estava.
Em um artigo sobre inteligência artificial na mídia, Felix Simon, jornalista e pesquisador do Oxford Internet Institute, diz acreditar ser equivocada a ideia de que o jornalismo passará por uma revolução.
O jornalista acha que nem todas as empresas jornalísticas se beneficiarão da inteligência artificial da mesma forma, com os grandes tendo mais vantagens, como sempre.
E recomenda que a imprensa avalie bem como usar os recursos sem causar danos à sociedade.
Isso inclui o uso responsável de sistemas de inteligência artificial generativa que à primeira vista dão velocidade a processos de apuração, redação ou produção de um release, facilitando a vida dos jornalistas e das redações.
Mas eles podem “halucinar”. E usuários menos atentos ou experientes não perceberem isso, tornando-se cúmplices da desinformação.
Leia também | Análise | Porque o ChatGPT ameaça a privacidade de qualquer um que já postou na Internet