MediaTalks em UOL

OpenAI propõe autoridade global para fiscalizar IA inspirada na Agência Internacional de Energia Atômica

Imagem de homem olhando mapa mundi feita com inteligência artificial, que na visão dos líderes da OpenAI deve ser regulamentada globalmente

Foto: Cliff Hang/Pixabay

Os líderes da OpenAI, empresa proprietária da ferramenta  ChatGPT, publicaram uma carta aberta no site da companhia pedindo pela regulamentação da inteligência artificial antes que seja “tarde demais”, e sugerindo um modelo semelhante ao adotado para supervisionar o uso da energia atômica pelos países. 

Os executivos Sam Altman — que depôs no Congresso dos EUA semana passada sobre o mesmo tema — Greg Brockman e Ilya Sutskever alertaram que IAs generativas podem se tornar superinteligências em todos os campos “nos próximos 10 anos”.

No texto intitulado “Governança da Superinteligência”, eles dizem: “Devemos mitigar os riscos da tecnologia de IA hoje também, mas a superinteligência exigirá tratamento e coordenação especiais.”.

Regulamentação em escala mundial

Os executivos da OpenAI comparam a inteligência artificial a outras tecnologias disruptivas, como energia nuclear e biotecnologia: ambas têm tanto potencial positivo quanto destrutivo e, por isso, devem ser alvo de regulamentação internacional coordenada em conjunto pelos países. 

“Em termos de potenciais vantagens e desvantagens, a superinteligência será mais poderosa do que outras tecnologias com as quais a humanidade teve que lidar no passado.

Podemos ter um futuro dramaticamente mais próspero; mas temos que gerenciar o risco para chegar lá. Dada a possibilidade de risco existencial, não podemos apenas ser reativos”.

A Agência Internacional de Energia Atômica (IAEA, na sigla em inglês), citada no documento como exemplo,  foi criada em 1957  com o objetivo de promover o uso seguro, protegido e pacífico da energia nuclear.

Na visão dos líderes da OpenAI, essa autoridade internacional inspirada na IAEA deveria ter poderes para inspecionar sistemas, exigir auditorias, testar o alinhamento a padrões e estabelecer restrições nos graus de implantação e níveis de segurança, entre outras atividades. 

“Como primeiro passo, as empresas poderiam concordar voluntariamente em começar a implementar elementos que tal agência poderia um dia exigir. Como segundo etapa, países individuais poderiam adotá-los”.

Para a OpenAI seria importante que a agência internacional se concentrasse na redução do risco existencial e não em questões que devem ser deixadas para países definirem individualmente, como estabelecer o que uma IA deve ser autorizada a dizer.

O documento não chega a especificar as possíveis formas de disrupção causadas pela tecnologia. No entanto, a carta aberta do Future of Life Institute, que pede uma pausa no desenvolvimento de tecnologias além do GTP-4 (modelo de linguagem por detrás do ChatGPT), lista:

  • Sobrecarga de desinformação e notícias falsas nas redes;
  • Automação e desemprego em todos os níveis de trabalho;
  • Desenvolvimento de mentes não humanas que tornam o pensamento humano obsoleto;
  • Perda de controle da civilização.

Por fim, os executivos falam da necessidade de uma capacidade técnica que seja capaz de garantir que uma superinteligência seja segura. No entanto, essa é uma pergunta aberta, ainda em estudo.

População deve participar da regulamentação da inteligência artificial

Para a OpenAI, o nível de regulamentação da IA não deve impedir que empresas e projetos de código aberto desenvolvam modelos abaixo de um limite de capacidade significativo, sem mecanismos onerosos como licenças ou auditorias. 

“Os sistemas com os quais estamos preocupados terão poder além de qualquer tecnologia já criada, e nós devemos ter cuidado para não enfraquecer o foco neles ao aplicar padrões similares para tecnologias muito abaixo deste nível.”

Mas defendem que a governança dos sistemas mais poderosos, bem como as decisões sobre sua implantação, devem ter uma forte supervisão pública.

“Acreditamos que as pessoas ao redor do mundo devem decidir democraticamente sobre os limites e padrões para os sistemas de inteligência artificial […] 

Dentro desses limites, os usuários individuais devem ter muito controle sobre como a IA que eles usam se comporta.”

Os autores do texto observam que seria arriscado e difícil parar o avanço da superinteligência, devido às suas vantagens, custo menor e número cada vez maior de atores da sociedade trabalhando nela. “Por isso, temos que acertar”, dizem os lideres da OpenAI. 

Sair da versão mobile