Nello Cristianini professor de IA da University of Bath
Nello Cristianini

A palavra “risco” tem sido frequentemente encontrada na mesma frase que “inteligĂȘncia artificial”.

Embora seja encorajador ver os líderes mundiais levarem em consideração os problemas potenciais da IA, juntamente com seus benefícios industriais e estratégicos, devemos lembrar que nem todos os riscos são iguais.

No dia 14 de junho, o Parlamento Europeu aprovou sua proposta para a Lei da IA , que estĂĄ sendo elaborada hĂĄ dois anos, com a ambição de moldar os padrĂ”es globais na regulamentação da inteligĂȘncia artificial.

Depois de uma fase final de negociaçÔes para conciliar diferentes propostas produzidas pelo Parlamento Europeu , Comissão e Conselho , a lei deverå ser aprovada antes do final do ano.

SerĂĄ a primeira legislação do mundo dedicada a regular a inteligĂȘncia artificial em quase todos os setores da sociedade, embora a ĂĄrea de Defesa tenha ficado isenta. 

Regulamentação da inteligĂȘncia artificial

De todas as maneiras de abordar a regulamentação da inteligĂȘncia artificial, vale a pena assinalar que essa legislação Ă© totalmente enquadrada na noção de risco.

NĂŁo Ă© a IA em si que estĂĄ sendo regulamentada, mas sim a maneira como ela Ă© usada em ĂĄreas especĂ­ficas da sociedade, cada uma das quais envolvendo diferentes problemas potenciais.

As quatro categorias de risco, sujeitas a diferentes obrigaçÔes legais, são: inaceitåvel, alto, limitado e mínimo.

Os sistemas considerados como uma ameaça aos direitos fundamentais ou valores da UE foram classificados como tendo um “risco inaceitável” e serão proibidos.

Um exemplo desse risco seriam os sistemas de IA usados para “policiamento preventivo”.

Esse Ă© o uso da inteligĂȘncia artificial para fazer avaliaçÔes de risco de indivĂ­duos com base em informaçÔes pessoais, a fim de antecipar se eles provavelmente cometerĂŁo crimes.

Um caso mais controverso Ă© o uso da tecnologia de reconhecimento facial em feeds de cĂąmeras de rua ao vivo.

Isso também foi adicionado à lista de riscos inaceitåveis e só seria permitido após a pråtica de um crime, e com autorização judicial .

Os  sistemas classificados como “alto risco” estarĂŁo sujeitos a obrigaçÔes de divulgação e deverĂŁo ser registrados em um banco de dados especial.

Eles também estarão sujeitos a vårios requisitos de monitoramento ou auditoria.

As aplicaçÔes que devem ser classificados como de alto risco incluem inteligĂȘncia artificial que pode controlar o acesso a serviços de educação, emprego, financiamento, saĂșde e outras ĂĄreas crĂ­ticas.

O uso de IA nessas åreas não é visto como indesejåvel, mas a supervisão é essencial devido ao seu potencial de afetar negativamente a segurança ou os direitos fundamentais.

A ideia Ă© que possamos confiar que qualquer software que tome decisĂ”es sobre nossa hipoteca serĂĄ cuidadosamente verificado quanto Ă  conformidade com as leis europeias para garantir que nĂŁo sejamos discriminados com base em caracterĂ­sticas como sexo ou origem Ă©tnica – pelo menos se vivermos na UE.

Os sistemas de inteligĂȘncia artificial de “risco limitado” estarĂŁo sujeitos a requisitos mĂ­nimos de transparĂȘncia.

Da mesma forma, os operadores de sistemas de IA generativos – por exemplo, bots que produzem texto ou imagens – terão que divulgar que os usuários estão interagindo com uma máquina.

Risco de extinção?

Durante sua longa jornada tramitando por instituiçÔes europeias, iniciada em 2019, a legislação tornou-se cada vez mais especĂ­fica e explĂ­cita sobre os riscos potenciais da implantação da IA em situaçÔes sensĂ­veis – juntamente como eles podem ser monitorados e mitigados.

Muito mais trabalho precisa ser feito, mas a ideia Ă© clara: precisamos ser especĂ­ficos se quisermos fazer as coisas.

Por outro lado, vimos recentemente petiçÔes pedindo mitigação de um suposto “risco de extinção” representado pela inteligĂȘncia artificial, sem fornecer mais detalhes.

Vårios políticos ecoaram essas opiniÔes. Esse risco genérico e de longo prazo é bem diferente do que molda o AI Act, porque não fornece nenhum detalhe sobre o que devemos procurar, nem o que devemos fazer agora para nos proteger contra ele.

Se “risco” Ă© o “dano esperado” que pode advir de alguma coisa, farĂ­amos bem em nos concentrar em cenĂĄrios possĂ­veis que sĂŁo tanto prejudiciais quanto provĂĄveis, porque estes carregam o maior risco.

Eventos muito improvåveis, como a colisão de um asteróide, não devem ter prioridade sobre os mais provåveis, como os efeitos da poluição.

Lei da IA protege sem impedir inovação

Nesse sentido, o projeto de lei que acaba de ser aprovado pelo Parlamento da UE tem menos brilho, mas mais conteĂșdo do que alguns dos recentes alertas sobre IA.

Ele tenta caminhar na linha tĂȘnue entre proteger direitos e valores, sem impedir a inovação e abordar especificamente os perigos e soluçÔes. Embora longe de ser perfeito, pelo menos fornece açÔes concretas.

A prĂłxima etapa na jornada desta legislação serĂŁo os trĂ­logos – diĂĄlogos de trĂȘs vias – em que propostas do Parlamento, da ComissĂŁo e do Conselho serĂŁo fundidos em um texto final.

Compromissos são esperados para ocorrer nesta fase. A lei resultante serå votada provavelmente no final de 2023, antes do início da campanha para as próximas eleiçÔes europeias.

Depois de dois ou trĂȘs anos, seus dispositivos deverĂŁo ter entrado em vigor, qualquer empresa que opere na UE terĂĄ que cumpri-los.

Essa longa linha do tempo apresenta algumas questÔes próprias, porque não sabemos como a IA, ou o mundo, serå em 2027.

Lembremos que a presidente da Comissão Europeia, Ursula von der Leyen, propÎs este regulamento pela primeira vez em 2019, pouco antes de uma pandemia, uma guerra e uma crise energética.

Isso tambĂ©m foi antes de o ChatGPT fazer com que os polĂ­ticos e a mĂ­dia falassem regularmente sobre um risco existencial da inteligĂȘncia artificial.

No entanto, o ato Ă© escrito de forma suficientemente geral que pode ajudĂĄ-lo a permanecer relevante por um bom tempo. Possivelmente influenciarĂĄ como pesquisadores e empresas abordam a IA fora da Europa.

O que estĂĄ claro, no entanto, Ă© que toda tecnologia apresenta riscos e, em vez de esperar que algo negativo aconteça, as instituiçÔes acadĂȘmicas e de formulação de polĂ­ticas estĂŁo tentando pensar no futuro sobre as consequĂȘncias da pesquisa.

Comparado com a forma como adotamos tecnologias anteriores – como os combustíveis fósseis – isso representa um certo progresso.


Sobre o autor

Nello Cristianini Ă© professor de InteligĂȘncia Artificial na Universidade de Bath, PhD pela Universidade de Bristol, mestre pela Royal Holloway, University of London e graduado em FĂ­sica  pela University of Trieste.


Este artigo foi publicado originalmente no portal The Conversation e é republicado aqui sob licença Creative Commons.