Em março de 2023, a Itália se tornou o primeiro país ocidental a proibir o ChatGPT.

A Autoridade Italiana de Proteção de Dados, Garante per la protezione dei dati personali (GPDP), relatou preocupações sobre a proteção de dados pessoais ao tomar esta decisão.

A entidade deu à OpenAI , empresa californiana que criou o ChatGPT , até o final de abril para cumprir suas exigências. Segundo a Garante, o ChatGPT coleta dados de maneira incompatível com a lei de proteção de dados.

Outro motivo apontado foi a falta de verificação de idade pela plataforma, o que poderia expor as crianças a conteúdos nocivos. Por isso recorreu a um procedimento de emergência para suspender temporariamente o tratamento de dados pessoais por parte da OpenAI.

Notícias sobre a proibição temporária do ChatGPT se espalharam pelo mundo , levantando preocupações sobre as consequências de decisões como essa no desenvolvimento de novos aplicativos de inteligência artificial (IA).

A proibição do ChatGPT

A mudança também coincidiu com um apelo de especialistas e empresários – incluindo o cofundador da OpenAI, Elon Musk – para colocar limites no desenvolvimento de aplicativos baseados em IA até que os riscos pudessem ser melhor avaliados.

A proibição temporária do ChatGPT pode oferecer algumas lições importantes sobre a proporcionalidade e a eficácia dos bloqueios de tecnologias em desenvolvimento sobre a coordenação dos países membros da União Europeia e como equilibrar o acesso aos serviços com a necessidade de proteger as crianças de acessar conteúdos nocivos.

A ordem, emitida em 30 de março, foi assinada por Pasquale Stanzione, presidente da Autoridade Italiana de Proteção de Dados. Seguiu-se uma notificação sobre uma violação de dados dos usuários do ChatGPT que havia sido relatada dez dias antes.

Processamento de dados e verificação de idade

A Garante justificou brevemente as suas medidas sublinhando a falta de informação disponível para os usuários e titulares dos dados sobre como eles são tratados pela OpenAI .

A entidade também citou o processamento em larga escala de dados pessoais para treinar sistemas generativos como o ChatGPT .

A OpenAI afirma que o ChatGPT é fornecido apenas para usuários com mais de 13 anos. No entanto, isso não satisfez a Autoridade de Proteção de Dados da Itália, que estava preocupada com a falta de verificação de idade.

A reação da OpenAI foi, primeiro, bloquear o acesso ao ChatGPT na Itália e, segundo, demonstrar a sua disponibilidade para colaborar com a Garante no cumprimento da ordem temporária.

O acordo envolveria a implementação de medidas pela OpenAI, incluindo o fornecimento de uma política de privacidade, oferecendo aos usuários a possibilidade de exercer direitos individuais sobre proteção de dados e fornecendo informações sobre a base legal da empresa para o processamento de dados pessoais.

Assim a Garante suspendeu a ordem temporária e solicitou que a OpenAI implementasse essas medidas até o final de abril de 2023 .

Sobre a lei de inteligência artificial

No entanto, o caso destaca pelo menos três lições fundamentais: a falta de coordenação da União Europeia na regulamentação desta tecnologia, a eficácia e proporcionalidade desta medida e a proteção das crianças.

Primeiro, é necessário mais coordenação da UE em torno da questão geral da tecnologia de IA. A Lei de IA proposta pela UE é apenas um passo em direção a uma estrutura harmonizada para garantir o desenvolvimento de tecnologias de IA alinhadas com os valores europeus.

E como a proibição do ChapGDT na Itália mostrou, o modelo regulatório da UE pode potencialmente se tornar fragmentado se as autoridades nacionais seguirem suas próprias direções.

Em particular, a conexão entre IA e proteção de dados capacita as autoridades nacionais a reagir ao desenvolvimento de novas tecnologias de IA. Também sublinha a necessidade de maior coordenação entre os Estados Membros europeus em matéria de regulamentação de todos os tipos.

Planejar, não proibir

Em segundo lugar, as medidas adotadas pela Autoridade Italiana de Proteção de Dados levantam questões sobre eficácia e proporcionalidade.

Em relação à eficácia, vale a pena notar que houve relatos de um aumento de 400% nos downloads de VPN na Itália, potencialmente permitindo que os usuários contornassem a proibição, após a notícia de sua introdução.

Na questão da proporcionalidade, uma proibição geral do ChatGPT não parece equilibrar os interesses constitucionais conflitantes em jogo. A medida temporária não se refere a forma como tem em conta a proteção de outros interesses, como a liberdade de acesso dos usuários ao ChatGPT.

Mesmo que a proibição seja temporária, a situação pode ter se beneficiado do envolvimento em um estágio anterior de outros membros do conselho da Autoridade Italiana de Proteção de Dados.

Uma troca preliminar com a OpenAI poderia ter evitado totalmente o bloqueio do ChtatGPT. Esse curso de ação poderia ter antecipado a implementação de outras medidas para cumprir a proteção de dados.

As melhores formas de proteger as crianças

Por fim, a decisão levanta questões sobre as melhores formas de proteger as crianças de qualquer conteúdo nocivo criado por esses aplicativos.

A introdução de um sistema de verificação de idade ou alertas sobre conteúdo nocivo poderia ter sido tema de discussão, caso as partes estivessem envolvidas em um diálogo contínuo.

Este caso oferece um exemplo de como as proibições gerais impostas a novas aplicações tecnológicas são geralmente o resultado de reações rápidas que não envolvem uma avaliação profunda da eficácia e proporcionalidade da medida.

Mesmo se alguém argumentar que a decisão tende a proteger os direitos fundamentais, principalmente na proteção de dados e defesa para as crianças, isso leva a mais incerteza.

Uma abordagem preventiva e colaborativa com a OpenAI teria minimizado o risco deste serviço ser bloqueado na Itália.

A discussão contínua entre a OpenAI e as autoridades da Itália é crítica.


Sobre os autores

Oreste Pollicino – Professor titular de Direito Constitucional e diretor da LLM em direito das tecnologias da internet na Universidade Bocconi. Ele é agente (Honest Broker) nomeado pela Comissão Europeia para a negociação do Código Europeu de Práticas de Desinformação.

Giovanni De Gregorio – Presidente PLMJ de Direito e Tecnologia da Católica Global School of Law e da Católica Lisbon School of Law, é membro acadêmico da Universidade Bocconi e membro da Católica Research Centre for the Future of Law.


Este artigo foi publicado originalmente no The Conversation e republicado no MediaTalks sob licença Creative Commons. Todos os direitos reservados à publicação e aos autores.