Os avanços em Inteligência Artificial (IA) oferecem riscos de que o ambiente digital se torne ainda pior na propagação da desinformação, uma ameaça que já vêm atingindo até a própria entidade, alertou a subsecretária-geral de comunicação global da ONU, Melissa Fleming, em apresentação aos membros do Conselho de Segurança da entidade nesta terça-feira (19). 

Ela disse que a desinformação direcionada já está afetando os esforços de paz e segurança da ONU. Em muitas partes do mundo, as operações de paz, humanitárias e políticas da organização se tornam objeto de narrativas falsas, e até doações são prejudicadas. 

Segundo Melissa Fleming, isso põe em perigo o pessoal das Nações Unidas e os civis que têm a tarefa de ajudar e proteger. Ela destacou quatro frentes em que a desinformação por IA tornou-se alvo de preocupação: os ataques direcionados, os vídeos deepfake, a manipulação de eleições e as campanhas contra a ciência.

Reunião do Conselho de Segurança debateu rumos da inteligência artificial  

A subsecretária-geral participou da uma reunião convocada pelos Emirados Árabes Unidos e pela Albânia sobre “Impactos da Inteligência Artificial no Discurso de Ódio e na Desinformação”. 

As ferramentas de Inteligência Artificial generativa permitem que “grandes volumes de desinformação convincente, em texto, áudio e vídeo, sejam produzidos em escala, por custos baixos e pouca intervenção humana”, disse Melissa Fleming. 

Ela salientou que os algoritmos são programados para priorizar engajamento e ampliar postagens que geram revolta, o que frequentemente resulta na propagação de discurso de ódio, o que limita o alcance das informações confiáveis, incluindo as produzidas pela ONU.

A subsecretária observou que os riscos não são novos, já que a IA  vem sendo usada há muito tempo por agentes da desinformação para distribuir conteúdo através de “robôs” nas redes sociais, circular narrativas disruptivas ou atacar indivíduos.

Os 4 riscos da IA para o trabalho da ONU 

A chefe de Comunicação Global destacou quatro áreas de preocupação sobre como a inteligência artificial “está se tornando uma arma cada vez mais potente nas guerras de informação”.

Ataques direcionados

Narrativas falsas relacionadas às  operações de paz, humanitárias e políticas da organização colocam em risco tanto os profissionais da ONU quanto as populações locais.

Mais de 70% das forças de manutenção da paz da ONU que responderam a uma pesquisa recente afirmaram que a desinformação já afetou grave ou severamente a sua capacidade de implementar os seus mandatos.

“Aqueles que trabalham para manter a paz, prestar ajuda humanitária e denunciar atrocidades estão se tornando alvos de histórias distorcidas. Isto pode minar as suas missões, colocando as populações e os doadores contra eles”, disse a subsecretária de comunicação global. 

Imagens falsas: Os Deepfakes

Outro ponto de preocupação sobre a IA generativa é a criação de imagens falsas, denominadas deepfakes. Segundo Fleming, muitos grupos que trabalham na deteção de material de abuso sexual infantil estão vendo a utilização da IA ​​para criar imagens fictícias e fotorrealistas de abuso de crianças com fins lucrativos.

Cada vez mais, são identificadas a mistura de imagens de abuso sexual geradas por IA com rostos de crianças reais.

A tecnologia deepfake também está sendo usada de forma alarmante para gerar imagens pornográficas não consensuais de mulheres e meninas. Muitas vezes os alvos são mulheres na política ou no jornalismo e ativistas.

No contexto da crise do Oriente Médio, a subsecretária-geral alertou sobre como as ferramentas de IA têm sido utilizadas para exacerbar os estereótipos antissemitas e islamofóbicos existentes, polarizando ainda mais as populações, inclusive através de imagens manipuladas pela IA.

Manipulação de eleições 

A terceira preocupação é o uso do potencial da IA para manipulação de eleitores. Este é um tema central no “super-ano eleitoral” de 2024, quando mais de 2 bilhões de pessoas irão às urnas.

A chefe de comunicação destacou os riscos da tecnologia sendo usada para influenciar a opinião pública e criar maiorias fictícias online, dando uma falsa impressão de apoio a um candidato ou a uma questão em detrimento de outra.

A desinformação pode se basear inclusive em falsificações profundas e clonagem de vozes de candidatos políticos, além de servir ao assédio sistemático de adversários ou jornalistas.

Campanhas anti-ciência

Por último, Melissa apontou como as ferramentas de IA generativa também tornam mais fácil e barato propagar conteúdo que questione a ciência estabelecida e desperte suspeitas nas instituições públicas.

Isto ameaça intensificar as campanhas de desinformação para inviabilizar e atrasar a ação climática, amplificando informações falsas sobre aquecimento global e energias renováveis.

Ela citou um relatório recente que concluiu que, desde maio, o número de sites de notícias gerados por IA, que operam em vários idiomas com pouca ou nenhuma supervisão humana, aumentou de 49 para quase 600.

Alguns desses sites são preenchidos com milhares de novos artigos por dia. Frequentemente, eles imitam sites de notícias familiares e divulgam histórias completamente inventadas.

Ecossistemas de informação saudáveis com a IA

Para Melissa, “isso é particularmente desestabilizador em zonas de conflito e ambientes tensos”.

Ela ressaltou que os desenvolvedores de IA generativa “devem colocar as pessoas antes dos lucros” e encontrar soluções antes de fazer experimentos com a tecnologia na vida real.

A chefe de Comunicação Global elogiou passos iniciais como colocar marca d’água e impressão digital em fotos e vídeos gerados por IA e pediu investimentos robusto em IA generativa que abranja a segurança e a privacidade desde a concepção.

“O mundo precisa de ecossistemas de informação saudáveis, se quisermos sociedades informadas, estáveis ​​e unidas”, disse.