Londres  – Há exagero nos alertas sobre riscos de o uso extensivo da inteligência artificial (IA) generativa ampliar a desinformação? Para Felix M.Simon, pesquisador do Oxford Internet Institute, a resposta é sim.

Ele é o autor principal de um artigo que acaba de ser publicado na revista técnica Harvard Kennedy School Misinformation Review, defendendo que os efeitos serão, na melhor das hipóteses, modestos.

Simon diz ter tomado como referência estudos recentes de comunicação e também de ciência cognitiva e ciência política para “desafiar a opinião dos principais investigadores de IA de que a facilidade de criar conteúdos realistas, mas falsos e enganosos, levará a resultados potencialmente catastróficos, influenciando crenças e comportamentos e a democracia de forma ampla”.

‘Ceticismo saudável’ no debate sobre desinformação e IA 

O pesquisador ressalta que o objetivo do trabalho não é descartar inteiramente as preocupações em torno da inteligência artificial generativa, mas sim evitar que o debate seja motivado pelo que chama de “pânicos morais”, injetando algum “ceticismo saudável” nas conversas e em projetos de regulamentação.

Um de seus argumentos é que o aumento da oferta da desinformação facilitada pela IA generativa não significa necessariamente que as pessoas a consumirão mais ou acreditarão mais em informações manipuladas. E o motivo não é infundado:

“A maior parte das pessoas já está pelo menos minimamente exposta a esses conteúdos, e a desinformação já “funciona” sem necessidade de mais realismo”. 

Simon também duvida dos efeitos da entrega de desinformação direcionada a usuários usando ferramentas de IA.

Ele afirma que evidências científicas sugerem que a personalização da desinformação tem efeitos limitados na maioria dos destinatários, uma vez que as pessoas não prestam mais tanta atenção nessas mensagens.

Líderes globais e o medo da IA

O estudo foi publicado uma semana antes da realização de uma cúpula de líderes globais convocada pelo governo do Reino Unido para debater o futuro da inteligência artificial sob a perspectiva da segurança pública, nos dias 1º e 2 de novembro.

A iniciativa teve um componente político: a tentativa do primeiro-ministro britânico Rishi Sunak de consolidar o país como “líder global em segurança de IA” é claramente uma forma de lustrar a castigada imagem da atual administração com um tema hype.

Só que os EUA saíram na frente: dois dias antes da abertura da cúpula de Sunak − com a presença de menos líderes globais do que ele esperava −, Joe Biden assinou um abrangente decreto com exigências para as empresas de IA e propostas de regulamentação para guiar os passos futuros, tanto no Congresso americano quanto em outros países, que podem se inspirar no modelo.

A decisão dos EUA de se anteciparem também é política. Em vez de unir forças, Biden fez um voo solo que esvazia as pretensões de liderança do primeiro-ministro britânico no debate sobre a IA segura.

Enquanto isso, a ONU tenta se posicionar como instrumento para uma regulamentação internacional. 

Nem todos estão alarmados com a inteligência artificial 

Outra coisa que os movimentos dois dois países têm em comum é o tom alarmista. Uma das justificativas de Biden para o decreto é o medo dos deepfakes.

Na apresentação das medidas, ele se disse assustado depois de assistir a um vídeo falso de si mesmo, que classificou de mind blowing (estarrecedor, em tradução livre).

Nem todos compartilham da visão alarmista. A organização não-governamental The Citizens criou uma conferência paralela, The People’s Summit for AI Safety, em oposição ao que mais de 100 entidades que assinaram um manifesto conjunto classificaram como “evento a portas fechadas dominado pelas Big Techs e focado em riscos especulativos”.

A revista de tecnologia Wired tachou a cúpula do governo britânico de “bagunça obcecada pela desgraça”, ecoando a opinião do pesquisador Felix M.Simon sobre os exageros, que se encaixam bem em narrativas com fins políticos.

O problema é que isso não ajuda a encontrar caminhos para explorar os benefícios da IA generativa em várias áreas, incluindo no ecossistema de informação, neutralizando-se os riscos potenciais.

“O tempo dirá se as manchetes alarmistas sobre a IA generativa serão justificadas ou não. Mas, independentemente do resultado, a discussão sobre o impacto da tecnologia na desinformação seria mais produtiva se fosse mais plural e baseada em evidências, especialmente no contexto das regulamentações em curso”, disse o pesquisador de Oxford.

 O estudo completo pode ser lido aqui.