Os lĂ­deres da OpenAI, empresa proprietĂĄria da ferramenta  ChatGPT, publicaram uma carta aberta no site da companhia pedindo pela regulamentação da inteligĂȘncia artificial antes que seja “tarde demais”, e sugerindo um modelo semelhante ao adotado para supervisionar o uso da energia atĂŽmica pelos paĂ­ses. 

Os executivos Sam Altman — que depĂŽs no Congresso dos EUA semana passada sobre o mesmo tema — Greg Brockman e Ilya Sutskever alertaram que IAs generativas podem se tornar superinteligĂȘncias em todos os campos “nos prĂłximos 10 anos”.

No texto intitulado “Governança da SuperinteligĂȘncia”, eles dizem: “Devemos mitigar os riscos da tecnologia de IA hoje tambĂ©m, mas a superinteligĂȘncia exigirĂĄ tratamento e coordenação especiais.”.

Regulamentação em escala mundial

Os executivos da OpenAI comparam a inteligĂȘncia artificial a outras tecnologias disruptivas, como energia nuclear e biotecnologia: ambas tĂȘm tanto potencial positivo quanto destrutivo e, por isso, devem ser alvo de regulamentação internacional coordenada em conjunto pelos paĂ­ses. 

“Em termos de potenciais vantagens e desvantagens, a superinteligĂȘncia serĂĄ mais poderosa do que outras tecnologias com as quais a humanidade teve que lidar no passado.

Podemos ter um futuro dramaticamente mais prĂłspero; mas temos que gerenciar o risco para chegar lĂĄ. Dada a possibilidade de risco existencial, nĂŁo podemos apenas ser reativos”.

A AgĂȘncia Internacional de Energia AtĂŽmica (IAEA, na sigla em inglĂȘs), citada no documento como exemplo,  foi criada em 1957  com o objetivo de promover o uso seguro, protegido e pacĂ­fico da energia nuclear.

Na visĂŁo dos lĂ­deres da OpenAI, essa autoridade internacional inspirada na IAEA deveria ter poderes para inspecionar sistemas, exigir auditorias, testar o alinhamento a padrĂ”es e estabelecer restriçÔes nos graus de implantação e nĂ­veis de segurança, entre outras atividades. 

“Como primeiro passo, as empresas poderiam concordar voluntariamente em começar a implementar elementos que tal agĂȘncia poderia um dia exigir. Como segundo etapa, paĂ­ses individuais poderiam adotĂĄ-los”.

Para a OpenAI seria importante que a agĂȘncia internacional se concentrasse na redução do risco existencial e nĂŁo em questĂ”es que devem ser deixadas para paĂ­ses definirem individualmente, como estabelecer o que uma IA deve ser autorizada a dizer.

O documento não chega a especificar as possíveis formas de disrupção causadas pela tecnologia. No entanto, a carta aberta do Future of Life Institute, que pede uma pausa no desenvolvimento de tecnologias além do GTP-4 (modelo de linguagem por detrås do ChatGPT), lista:

  • Sobrecarga de desinformação e notĂ­cias falsas nas redes;
  • Automação e desemprego em todos os nĂ­veis de trabalho;
  • Desenvolvimento de mentes nĂŁo humanas que tornam o pensamento humano obsoleto;
  • Perda de controle da civilização.

Por fim, os executivos falam da necessidade de uma capacidade tĂ©cnica que seja capaz de garantir que uma superinteligĂȘncia seja segura. No entanto, essa Ă© uma pergunta aberta, ainda em estudo.

População deve participar da regulamentação da inteligĂȘncia artificial

Para a OpenAI, o nĂ­vel de regulamentação da IA nĂŁo deve impedir que empresas e projetos de cĂłdigo aberto desenvolvam modelos abaixo de um limite de capacidade significativo, sem mecanismos onerosos como licenças ou auditorias. 

“Os sistemas com os quais estamos preocupados terĂŁo poder alĂ©m de qualquer tecnologia jĂĄ criada, e nĂłs devemos ter cuidado para nĂŁo enfraquecer o foco neles ao aplicar padrĂ”es similares para tecnologias muito abaixo deste nĂ­vel.”

Mas defendem que a governança dos sistemas mais poderosos, bem como as decisĂ”es sobre sua implantação, devem ter uma forte supervisĂŁo pĂșblica.

“Acreditamos que as pessoas ao redor do mundo devem decidir democraticamente sobre os limites e padrĂ”es para os sistemas de inteligĂȘncia artificial […] 

Dentro desses limites, os usuĂĄrios individuais devem ter muito controle sobre como a IA que eles usam se comporta.”

Os autores do texto observam que seria arriscado e difĂ­cil parar o avanço da superinteligĂȘncia, devido Ă s suas vantagens, custo menor e nĂșmero cada vez maior de atores da sociedade trabalhando nela. “Por isso, temos que acertar”, dizem os lideres da OpenAI.