A palavra âriscoâ tem sido frequentemente encontrada na mesma frase que âinteligĂȘncia artificialâ.
Embora seja encorajador ver os lĂderes mundiais levarem em consideração os problemas potenciais da IA, juntamente com seus benefĂcios industriais e estratĂ©gicos, devemos lembrar que nem todos os riscos sĂŁo iguais.
No dia 14 de junho, o Parlamento Europeu aprovou sua proposta para a Lei da IA , que estĂĄ sendo elaborada hĂĄ dois anos, com a ambição de moldar os padrĂ”es globais na regulamentação da inteligĂȘncia artificial.
Depois de uma fase final de negociaçÔes para conciliar diferentes propostas produzidas pelo Parlamento Europeu , Comissão e Conselho , a lei deverå ser aprovada antes do final do ano.
SerĂĄ a primeira legislação do mundo dedicada a regular a inteligĂȘncia artificial em quase todos os setores da sociedade, embora a ĂĄrea de Defesa tenha ficado isenta.
Regulamentação da inteligĂȘncia artificial
De todas as maneiras de abordar a regulamentação da inteligĂȘncia artificial, vale a pena assinalar que essa legislação Ă© totalmente enquadrada na noção de risco.
NĂŁo Ă© a IA em si que estĂĄ sendo regulamentada, mas sim a maneira como ela Ă© usada em ĂĄreas especĂficas da sociedade, cada uma das quais envolvendo diferentes problemas potenciais.
As quatro categorias de risco, sujeitas a diferentes obrigaçÔes legais, sĂŁo: inaceitĂĄvel, alto, limitado e mĂnimo.
Leia tambĂ©m | ‘Padrinho’ da IA, PentĂĄgono, Musk, Sting, Bob Woodward: por que tantos temem a inteligĂȘncia artificial?
Os sistemas considerados como uma ameaça aos direitos fundamentais ou valores da UE foram classificados como tendo um ârisco inaceitĂĄvelâ e serĂŁo proibidos.
Um exemplo desse risco seriam os sistemas de IA usados para âpoliciamento preventivo”.
Esse Ă© o uso da inteligĂȘncia artificial para fazer avaliaçÔes de risco de indivĂduos com base em informaçÔes pessoais, a fim de antecipar se eles provavelmente cometerĂŁo crimes.
Um caso mais controverso Ă© o uso da tecnologia de reconhecimento facial em feeds de cĂąmeras de rua ao vivo.
Isso também foi adicionado à lista de riscos inaceitåveis e só seria permitido após a pråtica de um crime, e com autorização judicial .
Os sistemas classificados como âalto riscoâ estarĂŁo sujeitos a obrigaçÔes de divulgação e deverĂŁo ser registrados em um banco de dados especial.
Eles também estarão sujeitos a vårios requisitos de monitoramento ou auditoria.
Leia tambĂ©m | A IA pode extinguir a humanidade? Pesquisador britĂąnico questiona ‘sensação genĂ©rica de alarme’
As aplicaçÔes que devem ser classificados como de alto risco incluem inteligĂȘncia artificial que pode controlar o acesso a serviços de educação, emprego, financiamento, saĂșde e outras ĂĄreas crĂticas.
O uso de IA nessas åreas não é visto como indesejåvel, mas a supervisão é essencial devido ao seu potencial de afetar negativamente a segurança ou os direitos fundamentais.
A ideia Ă© que possamos confiar que qualquer software que tome decisĂ”es sobre nossa hipoteca serĂĄ cuidadosamente verificado quanto Ă conformidade com as leis europeias para garantir que nĂŁo sejamos discriminados com base em caracterĂsticas como sexo ou origem Ă©tnica – pelo menos se vivermos na UE.
Os sistemas de inteligĂȘncia artificial de ârisco limitadoâ estarĂŁo sujeitos a requisitos mĂnimos de transparĂȘncia.
Da mesma forma, os operadores de sistemas de IA generativos â por exemplo, bots que produzem texto ou imagens â terĂŁo que divulgar que os usuĂĄrios estĂŁo interagindo com uma mĂĄquina.
Leia também | ChatGPT: o que a proibição temporåria na Itålia ensina sobre proteção a direitos na internet
Risco de extinção?
Durante sua longa jornada tramitando por instituiçÔes europeias, iniciada em 2019, a legislação tornou-se cada vez mais especĂfica e explĂcita sobre os riscos potenciais da implantação da IA em situaçÔes sensĂveis â juntamente como eles podem ser monitorados e mitigados.
Muito mais trabalho precisa ser feito, mas a ideia Ă© clara: precisamos ser especĂficos se quisermos fazer as coisas.
Por outro lado, vimos recentemente petiçÔes pedindo mitigação de um suposto ârisco de extinçãoâ representado pela inteligĂȘncia artificial, sem fornecer mais detalhes.
VĂĄrios polĂticos ecoaram essas opiniĂ”es. Esse risco genĂ©rico e de longo prazo Ă© bem diferente do que molda o AI Act, porque nĂŁo fornece nenhum detalhe sobre o que devemos procurar, nem o que devemos fazer agora para nos proteger contra ele.
Se âriscoâ Ă© o âdano esperadoâ que pode advir de alguma coisa, farĂamos bem em nos concentrar em cenĂĄrios possĂveis que sĂŁo tanto prejudiciais quanto provĂĄveis, porque estes carregam o maior risco.
Eventos muito improvåveis, como a colisão de um asteróide, não devem ter prioridade sobre os mais provåveis, como os efeitos da poluição.
Leia tambĂ©m | IA: Imagem fake de explosĂŁo no PentĂĄgono tuitada em conta ‘verificada’ viraliza e faz Bolsa cair
Lei da IA protege sem impedir inovação
Nesse sentido, o projeto de lei que acaba de ser aprovado pelo Parlamento da UE tem menos brilho, mas mais conteĂșdo do que alguns dos recentes alertas sobre IA.
Ele tenta caminhar na linha tĂȘnue entre proteger direitos e valores, sem impedir a inovação e abordar especificamente os perigos e soluçÔes. Embora longe de ser perfeito, pelo menos fornece açÔes concretas.
A prĂłxima etapa na jornada desta legislação serĂŁo os trĂlogos â diĂĄlogos de trĂȘs vias â em que propostas do Parlamento, da ComissĂŁo e do Conselho serĂŁo fundidos em um texto final.
Compromissos sĂŁo esperados para ocorrer nesta fase. A lei resultante serĂĄ votada provavelmente no final de 2023, antes do inĂcio da campanha para as prĂłximas eleiçÔes europeias.
Depois de dois ou trĂȘs anos, seus dispositivos deverĂŁo ter entrado em vigor, qualquer empresa que opere na UE terĂĄ que cumpri-los.
Leia tambĂ©m | CEO do ChatGPT admite deixar UniĂŁo Europeia se ‘nĂŁo conseguir’ cumprir regulamentação da IA
Essa longa linha do tempo apresenta algumas questÔes próprias, porque não sabemos como a IA, ou o mundo, serå em 2027.
Lembremos que a presidente da Comissão Europeia, Ursula von der Leyen, propÎs este regulamento pela primeira vez em 2019, pouco antes de uma pandemia, uma guerra e uma crise energética.
Isso tambĂ©m foi antes de o ChatGPT fazer com que os polĂticos e a mĂdia falassem regularmente sobre um risco existencial da inteligĂȘncia artificial.
No entanto, o ato Ă© escrito de forma suficientemente geral que pode ajudĂĄ-lo a permanecer relevante por um bom tempo. Possivelmente influenciarĂĄ como pesquisadores e empresas abordam a IA fora da Europa.
O que estĂĄ claro, no entanto, Ă© que toda tecnologia apresenta riscos e, em vez de esperar que algo negativo aconteça, as instituiçÔes acadĂȘmicas e de formulação de polĂticas estĂŁo tentando pensar no futuro sobre as consequĂȘncias da pesquisa.
Comparado com a forma como adotamos tecnologias anteriores â como os combustĂveis fĂłsseis â isso representa um certo progresso.
Sobre o autor
Nello Cristianini Ă© professor de InteligĂȘncia Artificial na Universidade de Bath, PhD pela Universidade de Bristol, mestre pela Royal Holloway, University of London e graduado em FĂsica pela University of Trieste.
Este artigo foi publicado originalmente no portal The Conversation e é republicado aqui sob licença Creative Commons.
Leia tambĂ©m | AnĂĄlise | O gĂȘnio da inteligĂȘncia artificial nĂŁo voltarĂĄ para a garrafa do jornalismo – e deve ser controladoÂ