MediaTalks em UOL

Argentina: Manual para uso da IA em empresa de RP e mais desafios para checadores da América Latina

Foto: Peace,Love, Happiness / Pixabay

Marcia Carmo

Buenos Aires – Uma reportagem do portal iProfesional indicou que os setores mais afetados na adoção da IA na Argentina são os de finanças, indústria, comércio, serviços públicos e saúde. O assunto é abordado quase diariamente pela imprensa local, com destaque para os riscos da inteligência artificial.

Em uma entrevista recente ao jornal La Nación, o especialista Héctor Geffner, com doutorado em IA pela Universidade da Califórnia (UCLA) e radicado na Alemanha, apontou que o problema é que muitas vezes as ferramentas de inteligência artificial “não entendem as coisas básicas”, dando margem para interpretações equivocadas”.

Esse risco faz parte das preocupações de agências de relações públicas e de checadores de dados.

Riscos da inteligência artificial

A empresa Identia, de Buenos Aires, com clientes nos setores público e privado, criou um manual para o “bom uso” das ferramentas de inteligência artificial entre seus funcionários.

Um dos sócios, Santiago Peixoto, disse ao MediaTalks que a inteligência artificial pode contribuir para aumentar a produtividade, mas que é preciso prestar atenção na ética e na confiabilidade das informações.

Ele observa que trabalhar com estas ferramentas, e especialmente o ChatGPT, está sendo mais fácil para os mais jovens.

“Na hora de fazer um release ou um plano de comunicação, podemos dar os principais tópicos e o ChatGPT ou o Bard nos devolvem o texto. Mas é preciso atenção com a confiabilidade das informações”.

Em entrevista ao MediaTalks, o diretor executivo da ONG argentina Chequeado, Pablo M. Fernández, disse que o ChatGPT “acendeu uma luz amarela” para os riscos das informações falsas e sem fontes confiáveis.

Pablo Fernández, Diretor da ONG Chequeado

A Chequeado foi uma das pioneiras na checagem de dados. Ela criou em 2014 a rede Latam Chequea, que engloba os ‘chequeadores’ da América Latina, incluindo o Brasil.

A ONG não é inimiga da IA, que usa desde 2016 em seu trabalho de verificação de fatos. Agora, o desafio é ainda maior, a partir do uso mais intensivo da inteligência artificial por diferentes setores.

“São muitas ferramentas de inteligência artificial, que podem ser usadas por qualquer pessoa, e com o perigo da propagação de informações não verdadeiras. É muito preocupante que o tema da desinformação não esteja na agenda dos criadores das novas ferramentas de IA”, lamentou Fernández.

“Sabemos que não podemos confiar nestas ferramentas e seus próprios criadores dizem isso. O problema é que sistemas como o ChatGPT transmitem muita confiança a quem os utiliza”.

Erros nas respostas

Num artigo recente no La Nación, o diretor da ONG observou que ao perguntar ao ChatGPT sobre Messi, a resposta apresentou vários dados corretos, mas também a informação errônea de que ele jogou num time da Arábia Saudita, o que logo depois foi corrigido.

“E ao perguntar sobre empresas de checagem da região, o ChatGPT citou a Chequeado, mas se referindo a uma empresa de outro continente que não faz checagens”.

Nos últimos anos, contou Fernández, dois fatos provocaram o aumento de pedidos de checagem de informações no país: a seca histórica na Argentina que aumentou o interesse pela mudança climática, e a pandemia do coronavírus.

O diretor da Chequeado disse não ter elementos para apontar um aumento na demanda por verificação de fatos na América Latina provocada pela disseminação da IA generativa.

Mas afirma que o setor de checagem já está atento ao que pode vir por aí devido ao conteúdo nem sempre confiável fornecido por essas ferramentas.


Este artigo faz parte do Especial ‘Os desafios da ESG na era da Inteligência Artificial

Leia aqui a edição completa.

 

 

 

Sair da versão mobile