Londres – Ao mesmo tempo em que se mostrou favorável à regulamentação da inteligência artificial em depoimento no Congresso dos EUA e defendeu uma agência internacional para fiscalizar a IA, o CEO da OpenAI, dona do ChatGPT, causou choque no mercado nesta quarta-feira (24) ao sinalizar a possibilidade de deixar a União Europeia devido à legislação local.
Em palestra no University College de Londres, Sam Altmam expressou dúvidas sobre se a empresa conseguirá cumprir as normas de IA da União Europeia, que entrarão em vigor em 2024.
“Se não conseguirmos, deixaremos de operar”, disse o executivo de 38 anos. A Itália já suspendeu temporariamente o ChatGPT, voltando a autorizar o uso depois de ajustes de práticas operacionais.
O impacto da inteligência artificial em áreas como privacidade, desinformação e direitos autorais vem sendo alvo de alertas de especialistas e atores da sociedade que podem ser afetados pelo rápido avanço da tecnologia.
As legislações não estão avançando na mesma velocidade, deixando aberta a possibilidade de mau uso, como a criação de imagens falsas.
Uma delas viralizou esta semana, provocando queda no mercado de capitais dos EUA.
Leia também | IA: Imagem fake de explosão no Pentágono tuitada em conta ‘verificada’ viraliza e faz Bolsa cair
A legislação da Europa para ferramentas como o ChatGPT da OpenAI
O ponto nevrálgico para Altman é a que os populares modelos de LLM (large language modelos) da OpenAI podem ser rotulados como “alto risco” pela estrutura regulatória da UE, que está sendo formulada atualmente.
As entidades de IA de alto risco incluem aquelas que atuam na infraestrutura, certificam segurança de produtos, validam pontuações de crédito e analisam documentos de viagem, entre outras atividades de grande impacto na sociedade e na vida dos cidadãos.
Se os LLMs da OpenAI forem rotulados como “alto risco”, regras muito mais rigorosas – e onerosas financeiramente – serão aplicadas a eles.
A Comissão Europeia diz que o regulamento incluiria a supervisão da qualidade dos dados usados para treinar os modelos e um registro da atividade para garantir a rastreabilidade dos resultados.
Um dos principais aspectos do projeto de regulamentação é a exigência de que as empresas que implantam ferramentas de IA generativas, incluindo o ChatGPT da OpenAI, divulguem qualquer material protegido por direitos autorais usado no desenvolvimento de seus sistemas.
No debate em Londres, o CEO da OpenAI disse que a empresa vai tentar cumprir. Mas observou que “há limites técnicos para o que é possível fazer”.
Leia também | ‘Padrinho’ da IA, Pentágono, Musk, Sting, Bob Woodward: por que tantos temem a inteligência artificial?
CEO da OpenAI rodando o mundo
A visita de Sam Altmann a Londres faz parte de um ‘tour’ que inclui visitas ao Rio de Janeiro e a Toronto, Lagos, Lisboa e Paris.
No mesmo dia em que falou no University College, Sam Altmann participou de uma reunião na sede do governo britânico com o primeiro-ministro Rishi Sunak e os líderes do Google DeepMind e da Anthropic, Demis Hassabis e Dario Amodei.
Em nota, o governo informou que o objetivo do encontro foi discutir ações conjuntas para garantir o desenvolvimento da inteligência artificial segura e responsável e como estabelecer a abordagem correta de governança
O comunicado diz que a conversa abordou os riscos da tecnologia, desde desinformação e segurança nacional até ameaças existenciais, medidas de segurança, ações voluntárias que as companhias de inteligência artificial estão considerando para gerenciar os riscos e os possíveis caminhos para a colaboração internacional.
O Reino Unido não faz mais parte da União Europeia, adotando legislações próprias. Segundo a nota, os líderes das empresas de tecnologia concordam em trabalhar com o governo do Reino Unido para garantir que a abordagem responda à velocidade das inovações nessa tecnologia, tanto no Reino Unido quanto em todo o mundo.
Leia também | OpenAI propõe autoridade global para fiscalizar IA inspirada na Agência Internacional de Energia Atômica