Em resumo
- Itália regula IA com foco em segurança, supervisão humana e proteção de menores.
- Lei prevê punições severas para abusos e incentivo à inovação. com fundo de €1 bilhão.
A nova lei italiana sobre inteligência artificial estabelece um marco legal robusto, com foco em responsabilidade digital, proteção de grupos vulneráveis e incentivo à inovação tecnológica, posicionando o país na vanguarda da regulação europeia.
A Itália se tornou o primeiro país da União Europeia a regulamentar o uso da inteligência artificial (IA), por meio de uma nova lei aprovada pelo Parlamento do país e que já está automaticamente em vigor.
A votação favorável à nova lei, realizada na noite de quarta-feira (17) ocorre meses após a aprovação do EU AI Act (Lei de Inteligência Artificial da União Europeia), regulamento europeu que entrará em vigor de forma gradual até 2026, mas que ainda depende de regulamentação interna de cada Estado-membro.
Ao não esperar a entrada em vigor plena do EU AI Act, o governo italiano sinaliza que pretende liderar o debate sobre como equilibrar inovação tecnológica e proteção social, incluindo na sua legislação particularidades que não estão explicitamente previstas no texto europeu.
A nova lei servirá como legislação nacional complementar ,cobrindo a aplicação da IA nas áreas de saúde, educação, justiça, administração pública e trabalho. Ela foi apresentada pelo governo italiano como voltada para uso “centrado no ser humano” (human-centric).
O modelo italiano, alinhado ao EU AI Act, pode influenciar a sua implementação em outros países, ao combinar regulação punitiva – incluindo medidas duras como penas de até cinco anos de prisão para deepfakes nocivos – com o apoio à inovação e ao desenvolvimento da tecnologia.
Este é um ponto nevrálgico em vários países. Um deles é o Reino Unido, onde estrelas do mundo artístico se rebelaram contra a proposta do governo do primeiro-ministro Keir Starmer de flexibilizar a proteção de direitos autorais.
Leia também | Elton John ameaça processar governo britânico contra projeto de lei de IA: ‘roubo em larga escala’
Principais tópicos da nova lei de inteligência artificial da Itália
A legislação italiana sobre o tema é a mais detalhada da União Europeia até agora, ao combinar princípios éticos com medidas punitivas claras.
Entre os pontos centrais, a nova lei estabelece:
- Proteção de menores: crianças com menos de 14 anos só poderão acessar sistemas de IA com consentimento dos pais.
- Criminalização de Deepfakes e fraudes com IA: a criação ou difusão de conteúdo enganoso gerado por IA que cause dano pode resultar em penas de 1 a 5 anos de prisão. Crimes como fraudes ou roubos de identidade cometidos com o uso de IA terão punições agravadas.
- Reconhecimento de Direitos autorais: obras feitas com auxílio de IA terão proteção de direitos autorais desde que haja esforço intelectual humano genuíno envolvido na sua criação.
- Mineração de dados: O uso de textos ou dados com IA só será permitido para conteúdos que não sejam protegidos por copyright ou para pesquisas científicas autorizadas.
- Supervisão humana: Haverá exigência de supervisão humana em várias aplicações, inclusive no trabalho. Empregadores deverão informar os trabalhadores quando usarem IA em processos internos.
- Inovação financiada: o governo reservou até €1 bilhão de um fundo estatal de capital de risco para apoiar empresas que atuem em IA, segurança cibernética e telecomunicações. Embora expressivo em termos nacionais, o valor é apontado como modesto quando comparado com os investimentos de potências como os Estados Unidos e a China no setor.
A norma designa a Agência Nacional de Segurança Cibernética (ACN) e a Agência para a Itália Digital (AgID) como autoridades competentes: a primeira com poderes de inspeção sobre segurança de sistemas, a segunda sobre gerenciamento de notificações e promoção de casos de uso seguro.
A lei prevê ainda uma Estratégia Nacional de IA, atualizada a cada dois anos, e um monitoramento anual no Parlamento.
Desafios da Itália para fazer a lei de inteligência artificial sair do papel
A grande questão é se a Itália terá fôlego para sustentar esse protagonismo.
O modelo italiano acerta ao atacar pontos sensíveis que preocupam a opinião pública — deepfakes, fraudes digitais e o acesso de menores. Num momento em que vídeos manipulados podem abalar eleições e reputações em minutos, uma resposta legal a essas questões atende a demandas de organizações não-governamentais e acadêmicos preocupados com os efeitos da IA sobre a sociedade.
Mas isso levanta a questão do equilíbrio entre a proteção de direitos que a nova regulamentação busca garantir (como o de privacidade e de propriedade intelectual) e o cuidado para que as regras não se tornem tão rígidas a ponto de sufocar a inovação,
Startups e laboratórios de pesquisas e usos experimentais podem se ver limitados por normas complexas e por uma fiscalização que, na prática, não seja capaz de acompanhar a velocidade da inovação, segundo comentários de analistas na mídia italiana.
Alguns deles apontam que a capacidade de fiscalização — especialmente em áreas como deepfakes, consentimento de menores, uso de IA no trabalho e supervisão humana real — dependerá de investimentos em estrutura técnica e recursos humanos.
Outro desafio levantado é quanto à harmonização com a lei europeia. Embora alinhada com o EU AI Act, a regulamentação italiana precisará garantir que não haja lacunas nem sobreposição confusa entre a competência nacional e a da UE.
Comparação da lei italiana com o modelo europeu: mais proteção a menores
No âmbito europeu, a lei italiana vai além do EU AI Act em pontos sensíveis, e é considerada mais protetiva ao adicionar sanções penais específicas e cláusulas referentes à defesa de menores, tornando-se pioneira na aplicação prática da regulação.
Elaborado ao longo de 2024-2025, mas com implementação em fases até 2026, o regulamento europeu se destaca por ser o primeiro marco regulatório abrangente de IA aplicado a uma região do mundo, e foca nos seguintes pontos:
-
- Classificação por risco (baixo, médio, alto, proibido).
- Proibição de sistemas de crédito social (social scoring)
- Regras duras para IA em saúde, justiça, polícia.
- Transparência em chatbots, deepfakes e conteúdo sintético.
A principal crítica ao modelo europeu é sua complexidade, percebido como um entrave à inovação e ao desenvolvimento de startups.
Leia também | Além das redes: proteções anunciadas pelo ChatGPT refletem associação da IA com suicídio de jovens