Os lĂderes da OpenAI, empresa proprietĂĄria da ferramenta ChatGPT, publicaram uma carta aberta no site da companhia pedindo pela regulamentação da inteligĂȘncia artificial antes que seja “tarde demais”, e sugerindo um modelo semelhante ao adotado para supervisionar o uso da energia atĂŽmica pelos paĂses.
Os executivos Sam Altman â que depĂŽs no Congresso dos EUA semana passada sobre o mesmo tema â Greg Brockman e Ilya Sutskever alertaram que IAs generativas podem se tornar superinteligĂȘncias em todos os campos “nos prĂłximos 10 anos”.
No texto intitulado “Governança da SuperinteligĂȘncia”, eles dizem: “Devemos mitigar os riscos da tecnologia de IA hoje tambĂ©m, mas a superinteligĂȘncia exigirĂĄ tratamento e coordenação especiais.”.
Regulamentação em escala mundial
Os executivos da OpenAI comparam a inteligĂȘncia artificial a outras tecnologias disruptivas, como energia nuclear e biotecnologia: ambas tĂȘm tanto potencial positivo quanto destrutivo e, por isso, devem ser alvo de regulamentação internacional coordenada em conjunto pelos paĂses.
“Em termos de potenciais vantagens e desvantagens, a superinteligĂȘncia serĂĄ mais poderosa do que outras tecnologias com as quais a humanidade teve que lidar no passado.
Podemos ter um futuro dramaticamente mais prĂłspero; mas temos que gerenciar o risco para chegar lĂĄ. Dada a possibilidade de risco existencial, nĂŁo podemos apenas ser reativos”.
A AgĂȘncia Internacional de Energia AtĂŽmica (IAEA, na sigla em inglĂȘs), citada no documento como exemplo, foi criada em 1957 com o objetivo de promover o uso seguro, protegido e pacĂfico da energia nuclear.
Leia tambĂ©m | Ameaça nuclear, desinformação, clima: como a guerra na UcrĂąnia influenciou a nova hora do RelĂłgio do JuĂzo Final
Na visĂŁo dos lĂderes da OpenAI, essa autoridade internacional inspirada na IAEA deveria ter poderes para inspecionar sistemas, exigir auditorias, testar o alinhamento a padrĂ”es e estabelecer restriçÔes nos graus de implantação e nĂveis de segurança, entre outras atividades.
“Como primeiro passo, as empresas poderiam concordar voluntariamente em começar a implementar elementos que tal agĂȘncia poderia um dia exigir. Como segundo etapa, paĂses individuais poderiam adotĂĄ-los”.
Para a OpenAI seria importante que a agĂȘncia internacional se concentrasse na redução do risco existencial e nĂŁo em questĂ”es que devem ser deixadas para paĂses definirem individualmente, como estabelecer o que uma IA deve ser autorizada a dizer.
O documento nĂŁo chega a especificar as possĂveis formas de disrupção causadas pela tecnologia. No entanto, a carta aberta do Future of Life Institute, que pede uma pausa no desenvolvimento de tecnologias alĂ©m do GTP-4 (modelo de linguagem por detrĂĄs do ChatGPT), lista:
- Sobrecarga de desinformação e notĂcias falsas nas redes;
- Automação e desemprego em todos os nĂveis de trabalho;
- Desenvolvimento de mentes nĂŁo humanas que tornam o pensamento humano obsoleto;
- Perda de controle da civilização.
Leia tambĂ©m | ‘Padrinho’ da IA, PentĂĄgono, Musk, Sting, Bob Woodward: por que tantos temem a inteligĂȘncia artificial?
Por fim, os executivos falam da necessidade de uma capacidade tĂ©cnica que seja capaz de garantir que uma superinteligĂȘncia seja segura. No entanto, essa Ă© uma pergunta aberta, ainda em estudo.
População deve participar da regulamentação da inteligĂȘncia artificial
Para a OpenAI, o nĂvel de regulamentação da IA nĂŁo deve impedir que empresas e projetos de cĂłdigo aberto desenvolvam modelos abaixo de um limite de capacidade significativo, sem mecanismos onerosos como licenças ou auditorias.
“Os sistemas com os quais estamos preocupados terĂŁo poder alĂ©m de qualquer tecnologia jĂĄ criada, e nĂłs devemos ter cuidado para nĂŁo enfraquecer o foco neles ao aplicar padrĂ”es similares para tecnologias muito abaixo deste nĂvel.”
Mas defendem que a governança dos sistemas mais poderosos, bem como as decisĂ”es sobre sua implantação, devem ter uma forte supervisĂŁo pĂșblica.
“Acreditamos que as pessoas ao redor do mundo devem decidir democraticamente sobre os limites e padrĂ”es para os sistemas de inteligĂȘncia artificial […]
Dentro desses limites, os usuĂĄrios individuais devem ter muito controle sobre como a IA que eles usam se comporta.”
Os autores do texto observam que seria arriscado e difĂcil parar o avanço da superinteligĂȘncia, devido Ă s suas vantagens, custo menor e nĂșmero cada vez maior de atores da sociedade trabalhando nela. “Por isso, temos que acertar”, dizem os lideres da OpenAI.
Leia também | Apple é a mais nova corporação a vetar uso do ChatGPT; veja quem mais jå bloqueou a IA da moda