Londres – No Kuwait, o site de um jornal criou uma apresentadora de notĂcias com aparĂȘncia humana quase perfeita desenvolvida com recursos de inteligĂȘncia artificial, mostrando que a tecnologia pode tirar o emprego de jornalistas de verdade.
Nos EUA, o professor de direito Jonathan Turley figurou em uma lista gerada pelo ChatGPT reunindo juristas que tinham praticado assĂ©dio sexual. O conteĂșdo âcitouâ reportagens inexistentes, uma delas supostamente publicada no Washington Post em 2018.
No Reino Unido, o jornal The Guardian publicou um artigo de opiniĂŁo assinado pelo editor de inovação e tecnologia para explicar a posição do jornal sobre matĂ©rias falsas que nunca foram publicadas e tĂȘm sido mencionadas em pesquisas no ChatGPT.
A empresa de distribuição de releases MuckRack lançou esta semana a versĂŁo beta do PressPal.ai, um sistema baseado em inteligĂȘncia artificial que gera um texto de divulgação a partir de informaçÔes inseridas pelo usuĂĄrio e sugere os jornalistas que gostariam de recebĂȘ-lo A rapidez impressiona, mas a precisĂŁo passou longe no teste feito.
Esses sĂŁo casos recentes envolvendo jornalismo e inteligĂȘncia artificial generativa, que vĂŁo dos efeitos sobre o mercado de trabalho Ă desinformação atribuĂda a fontes de credibilidade.
Pesquisa mostra erros do Bard
Ao apresentar esta semana uma nova pesquisa sobre falhas no Bard do Google, o diretor-geral da ONG britĂąnica Hope Not Hate, Imran Ahmed, usou a expressĂŁo que traduz o momento: nĂŁo hĂĄ como fazer o gĂȘnio da inteligĂȘncia artificial voltar para dentro da garrafa.
Pelo menos nĂŁo da garrafa do jornalismo.
O estudo Ă© mais um que aponta erros no conteĂșdo produzido por inteligĂȘncia artificial, capazes de afetar reputaçÔes e influenciar a sociedade.
A Hope Not Hate criou uma uma lista de 100 narrativas falsas sobre clima, vacinas, covid-19, conspiraçÔes, Ucrùnia, ódio a pessoasLGBTQ+, sexismo, antissemitismo e racismo.
O Centro disse que o Bard gerou texto promovendo positivamente uma delas em 96 casos.
Em 78 tentativas, o conteĂșdo apresentado nĂŁo tinha qualquer contexto adicional negando as falsas alegaçÔes. Algumas afirmaçÔes sĂŁo de assustar, como “o Holocausto nunca aconteceu”, “nĂŁo hĂĄ nada que se possa fazer para impedir a mudança climĂĄtica” ou o bizarro “Zelensky tem usado dinheiro da ajuda Ă UcrĂąnia para pagar sua hipoteca”.
Parece engraçado, e alguĂ©m com relativo conhecimento dos assuntos percebe que a inteligĂȘncia artificial generativa “halucinou”, o termo usado para descrever as insanidades que parecem verdadeiras.
O problema Ă© quando artigos de jornais de alta reputação servem como referĂȘncia a fatos como a acusação de assĂ©dio sexual envolvendo o professor americano.
Outra revelação da pesquisa da Hope Not Hate Ă© a capacidade do Bard de incorporar hashtags agressivas em postagens para mĂdias sociais, ajudando a fomentar o discurso de Ăłdio nas redes.
Leia tambĂ©m | InteligĂȘncia artificial do Facebook tem efeito mĂnimo na moderação de discurso de Ăłdio, mostram documentos internos
Processos por conteĂșdos gerados pela inteligĂȘncia artificial
O gĂȘnio pode nĂŁo voltar para a garrafa, mas ele precisarĂĄ ser domado e controlado. Alguns atingidos jĂĄ movem processos contra empresas de AI generativa, seja por direitos autorais, como a Getty Images, ou por difamação.
Ă o caso do prefeito australiano Brian Hood, que ameaça mover um processo contra a OpenAI, dona do ChatGPT por ter sido apontado como envolvido em suborno de autoridades no exterior quando trabalhava no equivalente ao Banco Central do paĂs.
Na verdade, ele denunciou o escĂąndalo, mas o ChatGPT nĂŁo entendeu de que lado da histĂłria ele estava.
Em um artigo sobre inteligĂȘncia artificial na mĂdia, Felix Simon, jornalista e pesquisador do Oxford Internet Institute, diz acreditar ser equivocada a ideia de que o jornalismo passarĂĄ por uma revolução.
O jornalista acha que nem todas as empresas jornalĂsticas se beneficiarĂŁo da inteligĂȘncia artificial da mesma forma, com os grandes tendo mais vantagens, como sempre.
E recomenda que a imprensa avalie bem como usar os recursos sem causar danos Ă sociedade.
Isso inclui o uso responsĂĄvel de sistemas de inteligĂȘncia artificial generativa que Ă primeira vista dĂŁo velocidade a processos de apuração, redação ou produção de um release, facilitando a vida dos jornalistas e das redaçÔes.
Mas eles podem “halucinar”. E usuĂĄrios menos atentos ou experientes nĂŁo perceberem isso, tornando-se cĂșmplices da desinformação.
Leia tambĂ©m | AnĂĄlise | Porque o ChatGPT ameaça a privacidade de qualquer um que jĂĄ postou na InternetÂ