MediaTalks em UOL

Europa aprova projeto de lei para IA baseado em classificação de riscos; veja como vai funcionar

Homem de terno segurando tela mostrando o futuro do uso da inteligência artificial

Foto: Tung Nguyen / Pixabay

Nello Cristianini

A palavra “risco” tem sido frequentemente encontrada na mesma frase que “inteligência artificial”.

Embora seja encorajador ver os líderes mundiais levarem em consideração os problemas potenciais da IA, juntamente com seus benefícios industriais e estratégicos, devemos lembrar que nem todos os riscos são iguais.

No dia 14 de junho, o Parlamento Europeu aprovou sua proposta para a Lei da IA , que está sendo elaborada há dois anos, com a ambição de moldar os padrões globais na regulamentação da inteligência artificial.

Depois de uma fase final de negociações para conciliar diferentes propostas produzidas pelo Parlamento Europeu , Comissão e Conselho , a lei deverá ser aprovada antes do final do ano.

Será a primeira legislação do mundo dedicada a regular a inteligência artificial em quase todos os setores da sociedade, embora a área de Defesa tenha ficado isenta. 

Regulamentação da inteligência artificial

De todas as maneiras de abordar a regulamentação da inteligência artificial, vale a pena assinalar que essa legislação é totalmente enquadrada na noção de risco.

Não é a IA em si que está sendo regulamentada, mas sim a maneira como ela é usada em áreas específicas da sociedade, cada uma das quais envolvendo diferentes problemas potenciais.

As quatro categorias de risco, sujeitas a diferentes obrigações legais, são: inaceitável, alto, limitado e mínimo.

Os sistemas considerados como uma ameaça aos direitos fundamentais ou valores da UE foram classificados como tendo um “risco inaceitável” e serão proibidos.

Um exemplo desse risco seriam os sistemas de IA usados para “policiamento preventivo”.

Esse é o uso da inteligência artificial para fazer avaliações de risco de indivíduos com base em informações pessoais, a fim de antecipar se eles provavelmente cometerão crimes.

Um caso mais controverso é o uso da tecnologia de reconhecimento facial em feeds de câmeras de rua ao vivo.

Isso também foi adicionado à lista de riscos inaceitáveis e só seria permitido após a prática de um crime, e com autorização judicial .

Os  sistemas classificados como “alto risco” estarão sujeitos a obrigações de divulgação e deverão ser registrados em um banco de dados especial.

Eles também estarão sujeitos a vários requisitos de monitoramento ou auditoria.

As aplicações que devem ser classificados como de alto risco incluem inteligência artificial que pode controlar o acesso a serviços de educação, emprego, financiamento, saúde e outras áreas críticas.

O uso de IA nessas áreas não é visto como indesejável, mas a supervisão é essencial devido ao seu potencial de afetar negativamente a segurança ou os direitos fundamentais.

A ideia é que possamos confiar que qualquer software que tome decisões sobre nossa hipoteca será cuidadosamente verificado quanto à conformidade com as leis europeias para garantir que não sejamos discriminados com base em características como sexo ou origem étnica – pelo menos se vivermos na UE.

Os sistemas de inteligência artificial de “risco limitado” estarão sujeitos a requisitos mínimos de transparência.

Da mesma forma, os operadores de sistemas de IA generativos – por exemplo, bots que produzem texto ou imagens – terão que divulgar que os usuários estão interagindo com uma máquina.

Risco de extinção?

Durante sua longa jornada tramitando por instituições europeias, iniciada em 2019, a legislação tornou-se cada vez mais específica e explícita sobre os riscos potenciais da implantação da IA em situações sensíveis – juntamente como eles podem ser monitorados e mitigados.

Muito mais trabalho precisa ser feito, mas a ideia é clara: precisamos ser específicos se quisermos fazer as coisas.

Por outro lado, vimos recentemente petições pedindo mitigação de um suposto “risco de extinção” representado pela inteligência artificial, sem fornecer mais detalhes.

Vários políticos ecoaram essas opiniões. Esse risco genérico e de longo prazo é bem diferente do que molda o AI Act, porque não fornece nenhum detalhe sobre o que devemos procurar, nem o que devemos fazer agora para nos proteger contra ele.

Se “risco” é o “dano esperado” que pode advir de alguma coisa, faríamos bem em nos concentrar em cenários possíveis que são tanto prejudiciais quanto prováveis, porque estes carregam o maior risco.

Eventos muito improváveis, como a colisão de um asteróide, não devem ter prioridade sobre os mais prováveis, como os efeitos da poluição.

Lei da IA protege sem impedir inovação

Nesse sentido, o projeto de lei que acaba de ser aprovado pelo Parlamento da UE tem menos brilho, mas mais conteúdo do que alguns dos recentes alertas sobre IA.

Ele tenta caminhar na linha tênue entre proteger direitos e valores, sem impedir a inovação e abordar especificamente os perigos e soluções. Embora longe de ser perfeito, pelo menos fornece ações concretas.

A próxima etapa na jornada desta legislação serão os trílogos – diálogos de três vias – em que propostas do Parlamento, da Comissão e do Conselho serão fundidos em um texto final.

Compromissos são esperados para ocorrer nesta fase. A lei resultante será votada provavelmente no final de 2023, antes do início da campanha para as próximas eleições europeias.

Depois de dois ou três anos, seus dispositivos deverão ter entrado em vigor, qualquer empresa que opere na UE terá que cumpri-los.

Essa longa linha do tempo apresenta algumas questões próprias, porque não sabemos como a IA, ou o mundo, será em 2027.

Lembremos que a presidente da Comissão Europeia, Ursula von der Leyen, propôs este regulamento pela primeira vez em 2019, pouco antes de uma pandemia, uma guerra e uma crise energética.

Isso também foi antes de o ChatGPT fazer com que os políticos e a mídia falassem regularmente sobre um risco existencial da inteligência artificial.

No entanto, o ato é escrito de forma suficientemente geral que pode ajudá-lo a permanecer relevante por um bom tempo. Possivelmente influenciará como pesquisadores e empresas abordam a IA fora da Europa.

O que está claro, no entanto, é que toda tecnologia apresenta riscos e, em vez de esperar que algo negativo aconteça, as instituições acadêmicas e de formulação de políticas estão tentando pensar no futuro sobre as consequências da pesquisa.

Comparado com a forma como adotamos tecnologias anteriores – como os combustíveis fósseis – isso representa um certo progresso.


Sobre o autor

Nello Cristianini é professor de Inteligência Artificial na Universidade de Bath, PhD pela Universidade de Bristol, mestre pela Royal Holloway, University of London e graduado em Física  pela University of Trieste.


Este artigo foi publicado originalmente no portal The Conversation e é republicado aqui sob licença Creative Commons.


Sair da versão mobile