Londres –  A agĂȘncia de notĂ­cias Associated Press publicou hĂĄ duas semanas seu guia de regras para o uso da inteligĂȘncia artificial, tentando disciplinar o que para muitas organizaçÔes pode ser incontrolĂĄvel: como seus profissionais usarĂŁo a IA diante dos riscos corporativos desse uso.

Ameaças existem em qualquer empresa, mas na mĂ­dia estĂŁo relacionadas Ă  razĂŁo de ser de um veĂ­culo de imprensa: informar de maneira precisa e confiĂĄvel, sem propagar desinformação, teorias conspiratĂłrias ou discriminação mesmo que involuntariamente. 

O guia da AP veta a publicação de textos feitos pelo ChatGPT, embora a agĂȘncia tenha assinado um contrato para ceder seu conteĂșdo a fim de treinar o chatbot da OpenIA. Vale usar para pesquisas, mas nĂŁo para um texto final. O guia da agĂȘncia diz que o material fornecido pela IA deve ser tratado como “de origem nĂŁo verificada”. Leia-se: precisa apurar.

Regras para inteligĂȘncia artificial em textos e imagens 

As regras tambĂ©m proĂ­bem o uso de imagens ou ĂĄudios modificados pela inteligĂȘncia artificial, a nĂŁo ser que sejam parte da notĂ­cia. E notĂ­cia sobre isso nĂŁo falta.

Um exemplo Ă© o caso do fotĂłgrafo alemĂŁo que venceu um concurso internacional como uma imagem produzida por IA e recusou o prĂȘmio como forma de chamar a atenção para a necessidade de regras em prĂȘmios de fotografia.

AtĂ© publicaçÔes de tecnologia estĂŁo cautelosas. A exemplo da AP, a Wired tambĂ©m definiu que os chatbots nĂŁo podem ser usados para escrever um texto final − exceto quando o fato de ser gerado por IA for parte da histĂłria. Ainda assim, possĂ­veis erros devem ser sinalizados.

A revista proibiu o uso da IA generativa para edição, alegando que, embora a redução de um texto pelo chatbot possa parecer menos problemática, “há armadilhas”.

Os riscos listados sĂŁo a possibilidade de introdução de erros factuais ou mudanças de significado e, o principal: “a edição Ă© um julgamento do que Ă© mais original, relevante ou divertido no texto, e isso a IA nĂŁo pode fazer”, diz o guia da Wired.

Mas nem todos estĂŁo adotando polĂ­ticas tĂŁo especĂ­ficas. O The Guardian, por exemplo, publicou em junho um texto assinado pela editora-chefe Katharine Viner e pela CEO Anna Bateson com trĂȘs princĂ­pios sobre como a IA generativa serĂĄ ou nĂŁo usada: para o benefĂ­cio dos leitores, para o benefĂ­cio da missĂŁo do veĂ­culo e com respeito para quem cria e produz conteĂșdo − referindo-se ao problema dos direitos autorais.

O Guardian admite que as ferramentas são “interessantes, mas atualmente não são confiáveis”. E salienta que não há espaço para falta de confiabilidade em seu jornalismo.

O documento descreve riscos e a intenção de só usar as ferramentas de IA editorialmente “onde elas contribuam para criação e distribuição de jornalismo original”. Entretanto, não proíbe o uso em determinadas circunstñncias, como fizeram a AP e a Wired.

ProibiçÔes de IA difíceis de fiscalizar

Essas proibiçÔes podem ser difíceis de fiscalizar, sobretudo com muitos profissionais de imprensa hoje trabalhando remotamente. Vårias redaçÔes mantiveram os esquemas de home office adotados durante a pandemia, ainda que parcialmente.

Quem tem mais idade deve lembrar que nos primórdios das redes sociais algumas empresas proibiam funcionårios de ter contas ou de postar assuntos relacionados ao trabalho ou compartilhar opiniÔes políticas que pudessem ser associadas à organização.

Ainda hå manuais com essas recomendaçÔes, mas punir um funcionårio que postou algo hoje em dia é visto como violação da liberdade de expressão. O ex-jogador de futebol Gary Lineker, comentarista da BBC, é um exemplo. Ele foi suspenso por um tweet criticando o governo e a rede foi criticada pela atitude.

Com a IA pode acontecer o mesmo. No entanto, ter regras para o uso da inteligĂȘncia artificial Ă© mais do que urgente para empresas de qualquer tipo, e principalmente para as que lidam com informação como matĂ©ria-prima, incluindo veĂ­culos de mĂ­dia e agĂȘncias de relaçÔes pĂșblicas, fornecedores de serviços e departamentos de comunicação de empresas.

Entrevistado pela correspondente EloĂĄ Orazem para a edição especial do MediaTalks sobre ESG e inteligĂȘncia artificial, o pesquisador Nils Köbis, do Max Planck Institute, fala do risco que mais o preocupa na adoção da IA em larga escala: o de delegarmos decisĂ”es Ă  tecnologia, que pode nĂŁo saber diferenciar bem e mal − ou verdade e mentira. Ou um bom texto e um mau texto, o que tambĂ©m nĂŁo faz bem ao jornalismo.