Na Ășltima segunda-feira (30 de outubro) o presidente dos EUA, Joe Biden, anunciou um decreto abrangente e ambicioso sobre inteligĂȘncia artificial (IA) â catapultando os EUA para a dianteira nas conversas sobre a regulamentação da tecnologia.
Com isso, os EUA vĂŁo ultrapassar outros paĂses na corrida para dominar a inteligĂȘncia artificial. A Europa jĂĄ liderou o caminho com a sua Lei da IA, que foi aprovada pelo Parlamento Europeu em junho de 2023, mas que sĂł entrarĂĄ em pleno vigor em 2025.
O decreto presidencial Ă© um conjunto de iniciativas para regulamentar a IA â algumas boas e outras parecendo um tanto incompletas.
O ambicioso decreto de inteligĂȘncia artificial de Biden
Seu objetivo é abordar danos que vão desde os imediatos, como os deepfakes gerados pela IA, até os secundårios, como a perda de empregos, e aqueles a longo prazo, como a ameaça existencial muito contestada que a IA pode representar para os seres humanos.
O Congresso dos EUA estå demorando a aprovar regulamentaçÔes significativas para grandes empresas de tecnologia. Este decreto presidencial é provavelmente uma tentativa de contornar um Congresso que muitas vezes ficou em posição de impasse, bem como de iniciar alguma ação.
Por exemplo: o decreto de inteligĂȘncia artificial insta o Congresso a aprovar uma legislação bipartidĂĄria sobre privacidade de dados. Apoio bipartidĂĄrio no clima polĂtico atual dos EUA? Boa sorte com isso, Senhor Presidente.
Leia tambĂ©m | Brasil Ă© o 23Âș em liberdade na internet entre 70 naçÔes; relatĂłrio alerta para ‘poder repressivo’ da IA
As ĂĄreas cobertas pelo decreto de IA
Os dispositivos do decreto de inteligĂȘncia artificial dos EUA serĂŁo implementados em um perĂodo compreendido entre trĂȘs meses e um ano.
O texto cobre oito ĂĄreas: padrĂ”es de segurança e proteção para IA; proteção de privacidade; equidade e direitos civis; direitos do consumidor; empregos; inovação e concorrĂȘncia; liderança internacional e governança da IA.
Por um lado, o decreto cobre muitas preocupaçÔes levantadas por acadĂȘmicos e pelo pĂșblico. Uma de suas diretrizes Ă© emitir orientaçÔes oficiais sobre como o conteĂșdo gerado por IA pode receber marca d’ĂĄgua para reduzir o risco de deepfakes.
Também exige que as empresas que desenvolvem modelos de IA provem que eles são seguros antes de serem implementados para uso mais amplo. O presidente Biden disse :
âIsso significa que as empresas devem informar o governo sobre os sistemas de IA em grande escala que estĂŁo desenvolvendo e compartilhar resultados de testes independentes rigorosos para provar que nĂŁo representam nenhum risco para a segurança nacional ou para a segurança do povo americanoâ.
O uso potencialmente desastroso da IA na guerra
Ao mesmo tempo, o decreto nĂŁo aborda uma sĂ©rie de questĂ”es urgentes. Por exemplo: nĂŁo trata diretamente sobre como lidar com robĂŽs assassinos de IA, um tema incĂŽmodo que esteve em discussĂŁo nas Ășltimas duas semanas na Assembleia Geral das NaçÔes Unidas .
Esta preocupação não deve ser ignorada. O Pentågono estå desenvolvendo drones autÎnomos de baixo custo como parte de seu recentemente anunciado programa Replicator.
Da mesma forma, a Ucrùnia desenvolveu drones de ataque alimentados por IA que podem identificar e atacar as forças russas sem intervenção humana .
PoderĂamos acabar num mundo onde as mĂĄquinas decidem quem vive ou morre? O decreto de inteligĂȘncia artificial do governo dos EUA apenas pede que os militares utilizem a IA de forma Ă©tica, mas nĂŁo determina o que isso significa.
E que tal proteger as eleiçÔes de armas de persuasão em massa alimentadas por IA? Vårios meios de comunicação relataram como as recentes eleiçÔes na Eslovåquia podem ter sido influenciadas por deepfakes .
Muitos especialistas, inclusive eu, também estão preocupados com o uso indevido da IA nas próximas eleiçÔes presidenciais dos EUA. A menos que sejam implementados controles rigorosos, corremos o risco de viver numa época em que nada do que vemos ou ouvimos online é confiåvel.
Se isto parece um exagero, considere que o Partido Republicano dos EUA jĂĄ lançou um anĂșncio de campanha que parece inteiramente gerado por IA.
Leia também | Chefão da OpenAI defende regulamentação do ChatGPT e outras IAs no Congresso dos EUA
Oportunidades perdidas
Muitas das iniciativas do decreto de inteligĂȘncia artificial dos EUA poderiam e deveriam ser replicadas em outros lugares, incluindo a AustrĂĄlia.
NĂłs tambĂ©m deverĂamos, conforme exige a ordem, fornecer orientação aos proprietĂĄrios, programas governamentais e prestadores de serviços governamentais sobre como garantir que os algoritmos de IA nĂŁo sejam usados para discriminar indivĂduos.
Devemos ainda, conforme exige o decreto, abordar a discriminação algorĂtmica no sistema de justiça criminal, onde a IA Ă© cada vez mais utilizada em contextos de alto risco, incluindo para sentenças, liberdade condicional, libertação e detenção antes do julgamento, avaliaçÔes de risco, vigilĂąncia e policiamento preventivo, para listar alguns.
A IA também tem sido usada de forma controversa para tais aplicaçÔes na Austrålia, como no Plano de Gestão de Suspeitos usado para monitorar jovens em Nova Gales do Sul .
Leia tambĂ©m | ‘Padrinho’ da IA, PentĂĄgono, Musk, Sting, Bob Woodward: por que tantos temem a inteligĂȘncia artificial?
InteligĂȘncia artificial e os danos potenciais
Talvez o aspecto mais controverso do decreto de inteligĂȘncia artificial dos EUA seja a abordagen sobre os danos potenciais dos mais poderosos modelos de IA classificados como “de fronteiraâ.
Alguns especialistas acreditam que estes modelos â que estĂŁo sendo desenvolvidos por empresas como Open AI, Google e Anthropic â representam uma ameaça existencial para a humanidade.
Outros, nos quais eu me incluo, acreditam que tais preocupaçÔes são exageradas e podem desviar a atenção de danos mais imediatos, como a desinformação e a desigualdade, que jå prejudicam a sociedade.
O decreto de Biden invoca poderes de guerra extraordinårios (especificamente a Lei de Produção de Defesa de 1950 introduzida durante a Guerra da Coreia) para exigir que as empresas notifiquem o governo federal quando treinarem tais modelos de fronteira.
TambĂ©m exige que eles compartilhem os resultados dos testes de segurança da âequipe vermelhaâ, em que hackers internos usam ataques para investigar bugs e vulnerabilidades de um software.
Penso que serĂĄ difĂcil, e talvez impossĂvel, policiar o desenvolvimento de modelos de fronteira. As diretivas acima referidas nĂŁo impedirĂŁo as empresas de desenvolverem tais modelos no estrangeiro, onde o governo dos EUA tem poder limitado.
Leia tambĂ©m | ‘Fascinados e assustados’: pesquisa nos EUA mapeia impressĂ”es de profissionais de RP sobre a inteligĂȘncia artificial
A comunidade de cĂłdigo aberto tambĂ©m pode desenvolvĂȘ-los de forma distribuĂda â o que torna o mundo da tecnologia âsem fronteirasâ. O decreto de inteligĂȘncia artificial dos EUA provavelmente terĂĄ mais impacto sobre o prĂłprio governo e sobre como ele utiliza a IA, em vez de afetar as empresas.
No entanto, Ă© uma ação bem-vinda. A CĂșpula de Segurança de IA do primeiro-ministro do Reino Unido, Rishi Sunak, tambĂ©m realizada na Ășltima semana, ganhou ares de festival de conversa diplomĂĄtica em comparação com o decreto.
Isso deixa alguém com inveja do poder presidencial para fazer as coisas.
Sobre o autor
Toby Walsh Ă© professor de CiĂȘncia de InteligĂȘncia Artificial na Universidade de Nova Gales do Sul em Sydney, AustrĂĄlia. Ele Ă© membro da Academia Australiana de CiĂȘncias e autor do livro âMachines Behaving Badlyâ, que explora os desafios Ă©ticos da IA, como as armas autĂŽnomas. A sua defesa neste espaço levou-o a ser banido da RĂșssia.
Este artigo foi publicado originalmente no portal acadĂȘmico Conversation e Ă© republicado aqui sob licença Creative Comuns .
Leia tambĂ©m | IA, ‘nepo baby’, ultraprocessados, semaglutida: veja as palavras do ano escolhidas pelo dicionĂĄrio Collins