Londres – A agência de notícias Associated Press publicou há duas semanas seu guia de regras para o uso da inteligência artificial, tentando disciplinar o que para muitas organizações pode ser incontrolável: como seus profissionais usarão a IA diante dos riscos corporativos desse uso.
Ameaças existem em qualquer empresa, mas na mídia estão relacionadas à razão de ser de um veículo de imprensa: informar de maneira precisa e confiável, sem propagar desinformação, teorias conspiratórias ou discriminação mesmo que involuntariamente.
O guia da AP veta a publicação de textos feitos pelo ChatGPT, embora a agência tenha assinado um contrato para ceder seu conteúdo a fim de treinar o chatbot da OpenIA. Vale usar para pesquisas, mas não para um texto final. O guia da agência diz que o material fornecido pela IA deve ser tratado como “de origem não verificada”. Leia-se: precisa apurar.
Regras para inteligência artificial em textos e imagens
As regras também proíbem o uso de imagens ou áudios modificados pela inteligência artificial, a não ser que sejam parte da notícia. E notícia sobre isso não falta.
Um exemplo é o caso do fotógrafo alemão que venceu um concurso internacional como uma imagem produzida por IA e recusou o prêmio como forma de chamar a atenção para a necessidade de regras em prêmios de fotografia.
Leia também | Fotógrafo cria polêmica ao devolver prêmio por foto gerada com inteligência artificial
Até publicações de tecnologia estão cautelosas. A exemplo da AP, a Wired também definiu que os chatbots não podem ser usados para escrever um texto final − exceto quando o fato de ser gerado por IA for parte da história. Ainda assim, possíveis erros devem ser sinalizados.
A revista proibiu o uso da IA generativa para edição, alegando que, embora a redução de um texto pelo chatbot possa parecer menos problemática, “há armadilhas”.
Os riscos listados são a possibilidade de introdução de erros factuais ou mudanças de significado e, o principal: “a edição é um julgamento do que é mais original, relevante ou divertido no texto, e isso a IA não pode fazer”, diz o guia da Wired.
Mas nem todos estão adotando políticas tão específicas. O The Guardian, por exemplo, publicou em junho um texto assinado pela editora-chefe Katharine Viner e pela CEO Anna Bateson com três princípios sobre como a IA generativa será ou não usada: para o benefício dos leitores, para o benefício da missão do veículo e com respeito para quem cria e produz conteúdo − referindo-se ao problema dos direitos autorais.
O Guardian admite que as ferramentas são “interessantes, mas atualmente não são confiáveis”. E salienta que não há espaço para falta de confiabilidade em seu jornalismo.
O documento descreve riscos e a intenção de só usar as ferramentas de IA editorialmente “onde elas contribuam para criação e distribuição de jornalismo original”. Entretanto, não proíbe o uso em determinadas circunstâncias, como fizeram a AP e a Wired.
Leia também | ChatGPT, Bard e jornalismo: especialistas analisam a IA na mídia e riscos como desemprego e ‘alucinações’
Proibições de IA difíceis de fiscalizar
Essas proibições podem ser difíceis de fiscalizar, sobretudo com muitos profissionais de imprensa hoje trabalhando remotamente. Várias redações mantiveram os esquemas de home office adotados durante a pandemia, ainda que parcialmente.
Quem tem mais idade deve lembrar que nos primórdios das redes sociais algumas empresas proibiam funcionários de ter contas ou de postar assuntos relacionados ao trabalho ou compartilhar opiniões políticas que pudessem ser associadas à organização.
Ainda há manuais com essas recomendações, mas punir um funcionário que postou algo hoje em dia é visto como violação da liberdade de expressão. O ex-jogador de futebol Gary Lineker, comentarista da BBC, é um exemplo. Ele foi suspenso por um tweet criticando o governo e a rede foi criticada pela atitude.
Leia também | BBC cede a pressões e reintegra apresentador Gary Lineker – e ele volta a tuitar sobre refugiados
Com a IA pode acontecer o mesmo. No entanto, ter regras para o uso da inteligência artificial é mais do que urgente para empresas de qualquer tipo, e principalmente para as que lidam com informação como matéria-prima, incluindo veículos de mídia e agências de relações públicas, fornecedores de serviços e departamentos de comunicação de empresas.
Entrevistado pela correspondente Eloá Orazem para a edição especial do MediaTalks sobre ESG e inteligência artificial, o pesquisador Nils Köbis, do Max Planck Institute, fala do risco que mais o preocupa na adoção da IA em larga escala: o de delegarmos decisões à tecnologia, que pode não saber diferenciar bem e mal − ou verdade e mentira. Ou um bom texto e um mau texto, o que também não faz bem ao jornalismo.
Leia também | Edição especial analisa impactos da IA sobre a reputação das empresas e as transformações na mídia e na comunicação