Londres – A agĂȘncia de notĂcias Associated Press publicou hĂĄ duas semanas seu guia de regras para o uso da inteligĂȘncia artificial, tentando disciplinar o que para muitas organizaçÔes pode ser incontrolĂĄvel: como seus profissionais usarĂŁo a IA diante dos riscos corporativos desse uso.
Ameaças existem em qualquer empresa, mas na mĂdia estĂŁo relacionadas Ă razĂŁo de ser de um veĂculo de imprensa: informar de maneira precisa e confiĂĄvel, sem propagar desinformação, teorias conspiratĂłrias ou discriminação mesmo que involuntariamente.
O guia da AP veta a publicação de textos feitos pelo ChatGPT, embora a agĂȘncia tenha assinado um contrato para ceder seu conteĂșdo a fim de treinar o chatbot da OpenIA. Vale usar para pesquisas, mas nĂŁo para um texto final. O guia da agĂȘncia diz que o material fornecido pela IA deve ser tratado como âde origem nĂŁo verificadaâ. Leia-se: precisa apurar.
Regras para inteligĂȘncia artificial em textos e imagens
As regras tambĂ©m proĂbem o uso de imagens ou ĂĄudios modificados pela inteligĂȘncia artificial, a nĂŁo ser que sejam parte da notĂcia. E notĂcia sobre isso nĂŁo falta.
Um exemplo Ă© o caso do fotĂłgrafo alemĂŁo que venceu um concurso internacional como uma imagem produzida por IA e recusou o prĂȘmio como forma de chamar a atenção para a necessidade de regras em prĂȘmios de fotografia.
Leia tambĂ©m | FotĂłgrafo cria polĂȘmica ao devolver prĂȘmio por foto gerada com inteligĂȘncia artificialÂ
AtĂ© publicaçÔes de tecnologia estĂŁo cautelosas. A exemplo da AP, a Wired tambĂ©m definiu que os chatbots nĂŁo podem ser usados para escrever um texto final â exceto quando o fato de ser gerado por IA for parte da histĂłria. Ainda assim, possĂveis erros devem ser sinalizados.
A revista proibiu o uso da IA generativa para edição, alegando que, embora a redução de um texto pelo chatbot possa parecer menos problemĂĄtica, âhĂĄ armadilhasâ.
Os riscos listados sĂŁo a possibilidade de introdução de erros factuais ou mudanças de significado e, o principal: âa edição Ă© um julgamento do que Ă© mais original, relevante ou divertido no texto, e isso a IA nĂŁo pode fazerâ, diz o guia da Wired.
Mas nem todos estĂŁo adotando polĂticas tĂŁo especĂficas. O The Guardian, por exemplo, publicou em junho um texto assinado pela editora-chefe Katharine Viner e pela CEO Anna Bateson com trĂȘs princĂpios sobre como a IA generativa serĂĄ ou nĂŁo usada: para o benefĂcio dos leitores, para o benefĂcio da missĂŁo do veĂculo e com respeito para quem cria e produz conteĂșdo â referindo-se ao problema dos direitos autorais.
O Guardian admite que as ferramentas sĂŁo âinteressantes, mas atualmente nĂŁo sĂŁo confiĂĄveisâ. E salienta que nĂŁo hĂĄ espaço para falta de confiabilidade em seu jornalismo.
O documento descreve riscos e a intenção de sĂł usar as ferramentas de IA editorialmente âonde elas contribuam para criação e distribuição de jornalismo originalâ. Entretanto, nĂŁo proĂbe o uso em determinadas circunstĂąncias, como fizeram a AP e a Wired.
Leia tambĂ©m | ChatGPT, Bard e jornalismo: especialistas analisam a IA na mĂdia e riscos como desemprego e ‘alucinaçÔes’
ProibiçÔes de IA difĂceis de fiscalizar
Essas proibiçÔes podem ser difĂceis de fiscalizar, sobretudo com muitos profissionais de imprensa hoje trabalhando remotamente. VĂĄrias redaçÔes mantiveram os esquemas de home office adotados durante a pandemia, ainda que parcialmente.
Quem tem mais idade deve lembrar que nos primĂłrdios das redes sociais algumas empresas proibiam funcionĂĄrios de ter contas ou de postar assuntos relacionados ao trabalho ou compartilhar opiniĂ”es polĂticas que pudessem ser associadas Ă organização.
Ainda hå manuais com essas recomendaçÔes, mas punir um funcionårio que postou algo hoje em dia é visto como violação da liberdade de expressão. O ex-jogador de futebol Gary Lineker, comentarista da BBC, é um exemplo. Ele foi suspenso por um tweet criticando o governo e a rede foi criticada pela atitude.
Leia tambĂ©m | BBC cede a pressĂ”es e reintegra apresentador Gary Lineker – e ele volta a tuitar sobre refugiados
Com a IA pode acontecer o mesmo. No entanto, ter regras para o uso da inteligĂȘncia artificial Ă© mais do que urgente para empresas de qualquer tipo, e principalmente para as que lidam com informação como matĂ©ria-prima, incluindo veĂculos de mĂdia e agĂȘncias de relaçÔes pĂșblicas, fornecedores de serviços e departamentos de comunicação de empresas.
Entrevistado pela correspondente EloĂĄ Orazem para a edição especial do MediaTalks sobre ESG e inteligĂȘncia artificial, o pesquisador Nils Köbis, do Max Planck Institute, fala do risco que mais o preocupa na adoção da IA em larga escala: o de delegarmos decisĂ”es Ă tecnologia, que pode nĂŁo saber diferenciar bem e mal â ou verdade e mentira. Ou um bom texto e um mau texto, o que tambĂ©m nĂŁo faz bem ao jornalismo.
Leia tambĂ©m | Edição especial analisa impactos da IA sobre a reputação das empresas e as transformaçÔes na mĂdia e na comunicação