Buenos Aires – Uma reportagem do portal iProfesional indicou que os setores mais afetados na adoção da IA na Argentina sĂŁo os de finanças, indĂșstria, comĂ©rcio, serviços pĂșblicos e saĂșde. O assunto Ă© abordado quase diariamente pela imprensa local, com destaque para os riscos da inteligĂȘncia artificial.
Em uma entrevista recente ao jornal La NaciĂłn, o especialista HĂ©ctor Geffner, com doutorado em IA pela Universidade da CalifĂłrnia (UCLA) e radicado na Alemanha, apontou que o problema Ă© que muitas vezes as ferramentas de inteligĂȘncia artificial ânĂŁo entendem as coisas bĂĄsicasâ, dando margem para interpretaçÔes equivocadas”.
Esse risco faz parte das preocupaçÔes de agĂȘncias de relaçÔes pĂșblicas e de checadores de dados.
Riscos da inteligĂȘncia artificial
A empresa Identia, de Buenos Aires, com clientes nos setores pĂșblico e privado, criou um manual para o âbom usoâ das ferramentas de inteligĂȘncia artificial entre seus funcionĂĄrios.
Um dos sĂłcios, Santiago Peixoto, disse ao MediaTalks que a inteligĂȘncia artificial pode contribuir para aumentar a produtividade, mas que Ă© preciso prestar atenção na Ă©tica e na confiabilidade das informaçÔes.
Ele observa que trabalhar com estas ferramentas, e especialmente o ChatGPT, estĂĄ sendo mais fĂĄcil para os mais jovens.
âNa hora de fazer um release ou um plano de comunicação, podemos dar os principais tĂłpicos e o ChatGPT ou o Bard nos devolvem o texto. Mas Ă© preciso atenção com a confiabilidade das informaçÔes”.
Em entrevista ao MediaTalks, o diretor executivo da ONG argentina Chequeado, Pablo M. FernĂĄndez, disse que o ChatGPT âacendeu uma luz amarelaâ para os riscos das informaçÔes falsas e sem fontes confiĂĄveis.
A Chequeado foi uma das pioneiras na checagem de dados. Ela criou em 2014 a rede Latam Chequea, que engloba os âchequeadoresâ da AmĂ©rica Latina, incluindo o Brasil.
A ONG nĂŁo Ă© inimiga da IA, que usa desde 2016 em seu trabalho de verificação de fatos. Agora, o desafio Ă© ainda maior, a partir do uso mais intensivo da inteligĂȘncia artificial por diferentes setores.
âSĂŁo muitas ferramentas de inteligĂȘncia artificial, que podem ser usadas por qualquer pessoa, e com o perigo da propagação de informaçÔes nĂŁo verdadeiras. Ă muito preocupante que o tema da desinformação nĂŁo esteja na agenda dos criadores das novas ferramentas de IAâ, lamentou FernĂĄndez.
âSabemos que nĂŁo podemos confiar nestas ferramentas e seus prĂłprios criadores dizem isso. O problema Ă© que sistemas como o ChatGPT transmitem muita confiança a quem os utilizaâ.
Erros nas respostas
Num artigo recente no La Nación, o diretor da ONG observou que ao perguntar ao ChatGPT sobre Messi, a resposta apresentou vårios dados corretos, mas também a informação errÎnea de que ele jogou num time da Aråbia Saudita, o que logo depois foi corrigido.
“E ao perguntar sobre empresas de checagem da regiĂŁo, o ChatGPT citou a Chequeado, mas se referindo a uma empresa de outro continente que nĂŁo faz checagens”.
Nos Ășltimos anos, contou FernĂĄndez, dois fatos provocaram o aumento de pedidos de checagem de informaçÔes no paĂs: a seca histĂłrica na Argentina que aumentou o interesse pela mudança climĂĄtica, e a pandemia do coronavĂrus.
Leia também | IA do Google: resposta errada do novo chatbot derruba açÔes e expÔe risco de desinformação
O diretor da Chequeado disse não ter elementos para apontar um aumento na demanda por verificação de fatos na América Latina provocada pela disseminação da IA generativa.
Mas afirma que o setor de checagem jĂĄ estĂĄ atento ao que pode vir por aĂ devido ao conteĂșdo nem sempre confiĂĄvel fornecido por essas ferramentas.
Este artigo faz parte do Especial âOs desafios da ESG na era da InteligĂȘncia Artificialâ
Leia aqui a edição completa.