Marcia Carmo, jornalista Argentina
Marcia Carmo

Buenos Aires – Uma reportagem do portal iProfesional indicou que os setores mais afetados na adoção da IA na Argentina sĂŁo os de finanças, indĂșstria, comĂ©rcio, serviços pĂșblicos e saĂșde. O assunto Ă© abordado quase diariamente pela imprensa local, com destaque para os riscos da inteligĂȘncia artificial.

Em uma entrevista recente ao jornal La NaciĂłn, o especialista HĂ©ctor Geffner, com doutorado em IA pela Universidade da CalifĂłrnia (UCLA) e radicado na Alemanha, apontou que o problema Ă© que muitas vezes as ferramentas de inteligĂȘncia artificial “nĂŁo entendem as coisas bĂĄsicas”, dando margem para interpretaçÔes equivocadas”.

Esse risco faz parte das preocupaçÔes de agĂȘncias de relaçÔes pĂșblicas e de checadores de dados.

Riscos da inteligĂȘncia artificial

A empresa Identia, de Buenos Aires, com clientes nos setores pĂșblico e privado, criou um manual para o “bom uso” das ferramentas de inteligĂȘncia artificial entre seus funcionĂĄrios.

Um dos sĂłcios, Santiago Peixoto, disse ao MediaTalks que a inteligĂȘncia artificial pode contribuir para aumentar a produtividade, mas que Ă© preciso prestar atenção na Ă©tica e na confiabilidade das informaçÔes.

Ele observa que trabalhar com estas ferramentas, e especialmente o ChatGPT, estĂĄ sendo mais fĂĄcil para os mais jovens.

“Na hora de fazer um release ou um plano de comunicação, podemos dar os principais tĂłpicos e o ChatGPT ou o Bard nos devolvem o texto. Mas Ă© preciso atenção com a confiabilidade das informaçÔes”.

Em entrevista ao MediaTalks, o diretor executivo da ONG argentina Chequeado, Pablo M. FernĂĄndez, disse que o ChatGPT “acendeu uma luz amarela” para os riscos das informaçÔes falsas e sem fontes confiĂĄveis.

Pablo M. FernĂĄndez, Diretor da ONG Chequeado, Argentina
Pablo FernĂĄndez, Diretor da ONG Chequeado

A Chequeado foi uma das pioneiras na checagem de dados. Ela criou em 2014 a rede Latam Chequea, que engloba os ‘chequeadores’ da AmĂ©rica Latina, incluindo o Brasil.

A ONG nĂŁo Ă© inimiga da IA, que usa desde 2016 em seu trabalho de verificação de fatos. Agora, o desafio Ă© ainda maior, a partir do uso mais intensivo da inteligĂȘncia artificial por diferentes setores.

“SĂŁo muitas ferramentas de inteligĂȘncia artificial, que podem ser usadas por qualquer pessoa, e com o perigo da propagação de informaçÔes nĂŁo verdadeiras. É muito preocupante que o tema da desinformação nĂŁo esteja na agenda dos criadores das novas ferramentas de IA”, lamentou FernĂĄndez.

“Sabemos que nĂŁo podemos confiar nestas ferramentas e seus prĂłprios criadores dizem isso. O problema Ă© que sistemas como o ChatGPT transmitem muita confiança a quem os utiliza”.

Erros nas respostas

Num artigo recente no La Nación, o diretor da ONG observou que ao perguntar ao ChatGPT sobre Messi, a resposta apresentou vårios dados corretos, mas também a informação errÎnea de que ele jogou num time da Aråbia Saudita, o que logo depois foi corrigido.

“E ao perguntar sobre empresas de checagem da regiĂŁo, o ChatGPT citou a Chequeado, mas se referindo a uma empresa de outro continente que nĂŁo faz checagens”.

Nos Ășltimos anos, contou FernĂĄndez, dois fatos provocaram o aumento de pedidos de checagem de informaçÔes no paĂ­s: a seca histĂłrica na Argentina que aumentou o interesse pela mudança climĂĄtica, e a pandemia do coronavĂ­rus.

O diretor da Chequeado disse não ter elementos para apontar um aumento na demanda por verificação de fatos na América Latina provocada pela disseminação da IA generativa.

Mas afirma que o setor de checagem jĂĄ estĂĄ atento ao que pode vir por aĂ­ devido ao conteĂșdo nem sempre confiĂĄvel fornecido por essas ferramentas.


Edição especial MediaTalks sobre InteligĂȘncia ArtificialEste artigo faz parte do Especial ‘Os desafios da ESG na era da InteligĂȘncia Artificial‘

Leia aqui a edição completa.

Edição Especial ESG e InteligĂȘncia Artificial MediaTalks