Na última segunda-feira (30 de outubro) o presidente dos EUA, Joe Biden, anunciou um decreto abrangente e ambicioso sobre inteligência artificial (IA) – catapultando os EUA para a dianteira nas conversas sobre a regulamentação da tecnologia.
Com isso, os EUA vão ultrapassar outros países na corrida para dominar a inteligência artificial. A Europa já liderou o caminho com a sua Lei da IA, que foi aprovada pelo Parlamento Europeu em junho de 2023, mas que só entrará em pleno vigor em 2025.
O decreto presidencial é um conjunto de iniciativas para regulamentar a IA – algumas boas e outras parecendo um tanto incompletas.
O ambicioso decreto de inteligência artificial de Biden
Seu objetivo é abordar danos que vão desde os imediatos, como os deepfakes gerados pela IA, até os secundários, como a perda de empregos, e aqueles a longo prazo, como a ameaça existencial muito contestada que a IA pode representar para os seres humanos.
O Congresso dos EUA está demorando a aprovar regulamentações significativas para grandes empresas de tecnologia. Este decreto presidencial é provavelmente uma tentativa de contornar um Congresso que muitas vezes ficou em posição de impasse, bem como de iniciar alguma ação.
Por exemplo: o decreto de inteligência artificial insta o Congresso a aprovar uma legislação bipartidária sobre privacidade de dados. Apoio bipartidário no clima político atual dos EUA? Boa sorte com isso, Senhor Presidente.
Leia também | Brasil é o 23º em liberdade na internet entre 70 nações; relatório alerta para ‘poder repressivo’ da IA
As áreas cobertas pelo decreto de IA
Os dispositivos do decreto de inteligência artificial dos EUA serão implementados em um período compreendido entre três meses e um ano.
O texto cobre oito áreas: padrões de segurança e proteção para IA; proteção de privacidade; equidade e direitos civis; direitos do consumidor; empregos; inovação e concorrência; liderança internacional e governança da IA.
Por um lado, o decreto cobre muitas preocupações levantadas por acadêmicos e pelo público. Uma de suas diretrizes é emitir orientações oficiais sobre como o conteúdo gerado por IA pode receber marca d’água para reduzir o risco de deepfakes.
Também exige que as empresas que desenvolvem modelos de IA provem que eles são seguros antes de serem implementados para uso mais amplo. O presidente Biden disse :
“Isso significa que as empresas devem informar o governo sobre os sistemas de IA em grande escala que estão desenvolvendo e compartilhar resultados de testes independentes rigorosos para provar que não representam nenhum risco para a segurança nacional ou para a segurança do povo americano”.
O uso potencialmente desastroso da IA na guerra
Ao mesmo tempo, o decreto não aborda uma série de questões urgentes. Por exemplo: não trata diretamente sobre como lidar com robôs assassinos de IA, um tema incômodo que esteve em discussão nas últimas duas semanas na Assembleia Geral das Nações Unidas .
Esta preocupação não deve ser ignorada. O Pentágono está desenvolvendo drones autônomos de baixo custo como parte de seu recentemente anunciado programa Replicator.
Da mesma forma, a Ucrânia desenvolveu drones de ataque alimentados por IA que podem identificar e atacar as forças russas sem intervenção humana .
Poderíamos acabar num mundo onde as máquinas decidem quem vive ou morre? O decreto de inteligência artificial do governo dos EUA apenas pede que os militares utilizem a IA de forma ética, mas não determina o que isso significa.
E que tal proteger as eleições de armas de persuasão em massa alimentadas por IA? Vários meios de comunicação relataram como as recentes eleições na Eslováquia podem ter sido influenciadas por deepfakes .
Muitos especialistas, inclusive eu, também estão preocupados com o uso indevido da IA nas próximas eleições presidenciais dos EUA. A menos que sejam implementados controles rigorosos, corremos o risco de viver numa época em que nada do que vemos ou ouvimos online é confiável.
Se isto parece um exagero, considere que o Partido Republicano dos EUA já lançou um anúncio de campanha que parece inteiramente gerado por IA.
Leia também | Chefão da OpenAI defende regulamentação do ChatGPT e outras IAs no Congresso dos EUA
Oportunidades perdidas
Muitas das iniciativas do decreto de inteligência artificial dos EUA poderiam e deveriam ser replicadas em outros lugares, incluindo a Austrália.
Nós também deveríamos, conforme exige a ordem, fornecer orientação aos proprietários, programas governamentais e prestadores de serviços governamentais sobre como garantir que os algoritmos de IA não sejam usados para discriminar indivíduos.
Devemos ainda, conforme exige o decreto, abordar a discriminação algorítmica no sistema de justiça criminal, onde a IA é cada vez mais utilizada em contextos de alto risco, incluindo para sentenças, liberdade condicional, libertação e detenção antes do julgamento, avaliações de risco, vigilância e policiamento preventivo, para listar alguns.
A IA também tem sido usada de forma controversa para tais aplicações na Austrália, como no Plano de Gestão de Suspeitos usado para monitorar jovens em Nova Gales do Sul .
Leia também | ‘Padrinho’ da IA, Pentágono, Musk, Sting, Bob Woodward: por que tantos temem a inteligência artificial?
Inteligência artificial e os danos potenciais
Talvez o aspecto mais controverso do decreto de inteligência artificial dos EUA seja a abordagen sobre os danos potenciais dos mais poderosos modelos de IA classificados como “de fronteira”.
Alguns especialistas acreditam que estes modelos – que estão sendo desenvolvidos por empresas como Open AI, Google e Anthropic – representam uma ameaça existencial para a humanidade.
Outros, nos quais eu me incluo, acreditam que tais preocupações são exageradas e podem desviar a atenção de danos mais imediatos, como a desinformação e a desigualdade, que já prejudicam a sociedade.
O decreto de Biden invoca poderes de guerra extraordinários (especificamente a Lei de Produção de Defesa de 1950 introduzida durante a Guerra da Coreia) para exigir que as empresas notifiquem o governo federal quando treinarem tais modelos de fronteira.
Também exige que eles compartilhem os resultados dos testes de segurança da “equipe vermelha”, em que hackers internos usam ataques para investigar bugs e vulnerabilidades de um software.
Penso que será difícil, e talvez impossível, policiar o desenvolvimento de modelos de fronteira. As diretivas acima referidas não impedirão as empresas de desenvolverem tais modelos no estrangeiro, onde o governo dos EUA tem poder limitado.
Leia também | ‘Fascinados e assustados’: pesquisa nos EUA mapeia impressões de profissionais de RP sobre a inteligência artificial
A comunidade de código aberto também pode desenvolvê-los de forma distribuída – o que torna o mundo da tecnologia “sem fronteiras”. O decreto de inteligência artificial dos EUA provavelmente terá mais impacto sobre o próprio governo e sobre como ele utiliza a IA, em vez de afetar as empresas.
No entanto, é uma ação bem-vinda. A Cúpula de Segurança de IA do primeiro-ministro do Reino Unido, Rishi Sunak, também realizada na última semana, ganhou ares de festival de conversa diplomática em comparação com o decreto.
Isso deixa alguém com inveja do poder presidencial para fazer as coisas.
Sobre o autor
Toby Walsh é professor de Ciência de Inteligência Artificial na Universidade de Nova Gales do Sul em Sydney, Austrália. Ele é membro da Academia Australiana de Ciências e autor do livro “Machines Behaving Badly”, que explora os desafios éticos da IA, como as armas autônomas. A sua defesa neste espaço levou-o a ser banido da Rússia.
Este artigo foi publicado originalmente no portal acadêmico Conversation e é republicado aqui sob licença Creative Comuns .
Leia também | IA, ‘nepo baby’, ultraprocessados, semaglutida: veja as palavras do ano escolhidas pelo dicionário Collins