Toby Walsh Ă© professor de IA na UNSW em Sydney e escreveu artigo sobre o decreto sobre regulamentação da inteligĂȘncia artificial nos EUA
Toby Walsh

Na Ășltima segunda-feira (30 de outubro) o presidente dos EUA, Joe Biden, anunciou um decreto abrangente e ambicioso sobre inteligĂȘncia artificial (IA) – catapultando os EUA para a dianteira nas conversas sobre a regulamentação da tecnologia. 

Com isso, os EUA vĂŁo ultrapassar outros paĂ­ses na corrida para dominar a inteligĂȘncia artificial. A Europa jĂĄ liderou o caminho com a sua Lei da IA, que foi aprovada pelo Parlamento Europeu em junho de 2023, mas que sĂł entrarĂĄ em pleno vigor em 2025.

O decreto presidencial Ă© um conjunto de iniciativas para regulamentar a IA – algumas boas e outras parecendo um tanto incompletas.

O ambicioso decreto de inteligĂȘncia artificial de Biden

Seu objetivo é abordar danos que vão desde os imediatos, como os deepfakes gerados pela IA, até os secundårios, como a perda de empregos, e aqueles a longo prazo, como a ameaça existencial muito contestada que a IA pode representar para os seres humanos.

O Congresso dos EUA estĂĄ demorando a aprovar regulamentaçÔes significativas para grandes empresas de tecnologia. Este decreto presidencial Ă© provavelmente uma tentativa de contornar um Congresso que muitas vezes ficou em posição de impasse, bem como de iniciar alguma ação.

Por exemplo: o decreto de inteligĂȘncia artificial insta o Congresso a aprovar uma legislação bipartidĂĄria sobre privacidade de dados. Apoio bipartidĂĄrio no clima polĂ­tico atual dos EUA? Boa sorte com isso, Senhor Presidente.

As ĂĄreas cobertas pelo decreto de IA

Os dispositivos do decreto de inteligĂȘncia artificial dos EUA serĂŁo implementados em um perĂ­odo compreendido entre trĂȘs meses e um ano.

O texto cobre oito ĂĄreas: padrĂ”es de segurança e proteção para IA; proteção de privacidade; equidade e direitos civis; direitos do consumidor; empregos; inovação e concorrĂȘncia; liderança internacional e governança da IA.

Por um lado, o decreto cobre muitas preocupaçÔes levantadas por acadĂȘmicos e pelo pĂșblico. Uma de suas diretrizes Ă© emitir orientaçÔes oficiais sobre como o conteĂșdo gerado por IA pode receber marca d’ĂĄgua para reduzir o risco de deepfakes.

Também exige que as empresas que desenvolvem modelos de IA provem que eles são seguros antes de serem implementados para uso mais amplo. O presidente Biden disse :

“Isso significa que as empresas devem informar o governo sobre os sistemas de IA em grande escala que estão desenvolvendo e compartilhar resultados de testes independentes rigorosos para provar que não representam nenhum risco para a segurança nacional ou para a segurança do povo americano”.

O uso potencialmente desastroso da IA na guerra

Ao mesmo tempo, o decreto nĂŁo aborda uma sĂ©rie de questĂ”es urgentes. Por exemplo: nĂŁo trata diretamente sobre como lidar com robĂŽs assassinos de IA, um tema incĂŽmodo que esteve em discussĂŁo nas Ășltimas duas semanas na Assembleia Geral das NaçÔes Unidas .

Esta preocupação não deve ser ignorada. O Pentågono estå desenvolvendo drones autÎnomos de baixo custo como parte de seu recentemente anunciado programa Replicator.

Da mesma forma, a Ucrùnia desenvolveu drones de ataque alimentados por IA que podem identificar e atacar as forças russas sem intervenção humana .

PoderĂ­amos acabar num mundo onde as mĂĄquinas decidem quem vive ou morre? O decreto de inteligĂȘncia artificial do governo dos EUA  apenas pede que os militares utilizem a IA de forma Ă©tica, mas nĂŁo determina o que isso significa.

E que tal proteger as eleiçÔes de armas de persuasão em massa alimentadas por IA? Vårios meios de comunicação relataram como as recentes eleiçÔes na Eslovåquia podem ter sido influenciadas por deepfakes .

Muitos especialistas, inclusive eu, tambĂ©m estĂŁo preocupados com o uso indevido da IA nas prĂłximas eleiçÔes presidenciais dos EUA. A menos que sejam implementados controles rigorosos, corremos o risco de viver numa Ă©poca em que nada do que vemos ou ouvimos online Ă© confiĂĄvel.

Se isto parece um exagero, considere que o Partido Republicano dos EUA jĂĄ lançou um anĂșncio de campanha que parece inteiramente gerado por IA.

Oportunidades perdidas

Muitas das iniciativas do decreto de inteligĂȘncia artificial dos EUA poderiam e deveriam ser replicadas em outros lugares, incluindo a AustrĂĄlia.

Nós também deveríamos, conforme exige a ordem, fornecer orientação aos proprietårios, programas governamentais e prestadores de serviços governamentais sobre como garantir que os algoritmos de IA não sejam usados para discriminar indivíduos.

Devemos ainda, conforme exige o decreto, abordar a discriminação algorítmica no sistema de justiça criminal, onde a IA é cada vez mais utilizada em contextos de alto risco, incluindo para sentenças, liberdade condicional, libertação e detenção antes do julgamento, avaliaçÔes de risco, vigilùncia e policiamento preventivo, para listar alguns.

A IA também tem sido usada de forma controversa para tais aplicaçÔes na Austrålia, como no Plano de Gestão de Suspeitos usado para monitorar jovens em Nova Gales do Sul .

InteligĂȘncia artificial e os danos potenciais

Talvez o aspecto mais controverso do decreto de inteligĂȘncia artificial dos EUA seja a abordagen sobre os danos potenciais dos mais poderosos modelos de IA classificados como “de fronteira”.

Alguns especialistas acreditam que estes modelos – que estão sendo desenvolvidos por empresas como Open AI, Google e Anthropic – representam uma ameaça existencial para a humanidade.

Outros, nos quais eu me incluo, acreditam que tais preocupaçÔes são exageradas e podem desviar a atenção de danos mais imediatos, como a desinformação e a desigualdade, que jå prejudicam a sociedade.

O decreto de Biden invoca poderes de guerra extraordinårios (especificamente a Lei de Produção de Defesa de 1950 introduzida durante a Guerra da Coreia) para exigir que as empresas notifiquem o governo federal quando treinarem tais modelos de fronteira.

TambĂ©m exige que eles compartilhem os resultados dos testes de segurança da “equipe vermelha”, em que hackers internos usam ataques para investigar bugs e vulnerabilidades de um software.

Penso que serĂĄ difĂ­cil, e talvez impossĂ­vel, policiar o desenvolvimento de modelos de fronteira. As diretivas acima referidas nĂŁo impedirĂŁo as empresas de desenvolverem tais modelos no estrangeiro, onde o governo dos EUA tem poder limitado.

A comunidade de cĂłdigo aberto tambĂ©m pode desenvolvĂȘ-los de forma distribuĂ­da – o que torna o mundo da tecnologia “sem fronteiras”. O decreto de inteligĂȘncia artificial dos EUA provavelmente terĂĄ mais impacto sobre o prĂłprio governo e sobre como ele utiliza a IA, em vez de afetar as empresas.

No entanto, Ă© uma ação bem-vinda. A CĂșpula de Segurança de IA do primeiro-ministro do Reino Unido, Rishi Sunak, tambĂ©m realizada na Ășltima semana, ganhou ares de festival de conversa diplomĂĄtica em comparação com o decreto.

Isso deixa alguém com inveja do poder presidencial para fazer as coisas.


Sobre o autor

Toby Walsh Ă© professor de CiĂȘncia de InteligĂȘncia Artificial na Universidade de Nova Gales do Sul em Sydney, AustrĂĄlia. Ele Ă© membro da Academia Australiana de CiĂȘncias e autor do livro “Machines Behaving Badly”, que explora os desafios Ă©ticos da IA, como as armas autĂŽnomas. A sua defesa neste espaço levou-o a ser banido da RĂșssia.


Este artigo foi publicado originalmente no portal acadĂȘmico Conversation e Ă© republicado aqui sob licença Creative Comuns .