Esta semana, um grupo de pesquisadores de Inteligência Artificial (IA), todos reconhecidos, assinou uma declaração composta por 22 palavras: “Mitigar o risco de extinção representado pela Inteligência Artificial deve ser uma prioridade global tanto quanto as pandemias e a guerra nuclear”.
Como professor de IA, também sou a favor de reduzir qualquer risco e estou preparado para trabalhar nisso pessoalmente. Mas qualquer declaração redigida dessa maneira está destinada a criar alarme.
Portanto, seus autores devem ser mais específicos e esclarecer suas preocupações.
Conforme definido pela Enciclopédia Britânica, a declaração se refere à “extinção ou extermínio de uma espécie”.
Conheço muitos dos signatários da declaração, que estão entre os cientistas mais respeitados da área, e eles certamente têm boas intenções. No entanto, eles não nos deram nenhum cenário tangível de como um evento tão extremo poderia ocorrer.
Não é a primeira vez que estamos nessa posição. Em 22 de março deste ano, uma petição assinada por um outro grupo de empreendedores e pesquisadores solicitou uma pausa de seis meses na implantação da IA .
Na petição, publicada no site do Future of Life Institute, eles alertaram para “riscos profundos para a sociedade e a humanidade, como mostrado por extensa pesquisa e reconhecido pelos principais laboratórios de IA”. E acompanharam o alerta com uma série de perguntas retóricas:
- Devemos deixar as máquinas inundar nossos canais de informação com propaganda e falsidade?
- Devemos automatizar todos os trabalhos, incluindo os que são satisfatórios?
- Devemos desenvolver mentes não humanas que possam nos superar, ser mais inteligentes e nos substituir?
- Devemos arriscar a perda do controle de nossa civilização?
Leia também | ‘Padrinho’ da IA, Pentágono, Musk, Sting, Bob Woodward: por que tantos temem a inteligência artificial?
Alerta do risco de extinção pela IA é ‘genérico’
Certamente é verdade que, juntamente com muitos benefícios, essa tecnologia embute riscos que precisamos levar a sério. Mas nenhuma das perguntas listadas parece delinear um caminho específico para a extinção.
Isso significa que ficamos com uma sensação genérica de alarme, sem quaisquer ações possíveis que possamos tomar.
O site do Centro de Segurança da IA, onde a declaração mais recente apareceu, descreve oito amplas categorias de risco em uma seção separada.
Elas incluem o uso da IA como armamento, a manipulação do sistema de notícias, a possibilidade de os seres humanos se tornarem incapazes de se autogovernar, a facilitação de regimes opressivos e assim por diante.
Exceto pela militarização, não está claro como os outros riscos da IA mencionados – ainda que terríveis – poderiam levar à extinção de nossa espécie, e o ônus de explicar isso recai sobre aqueles que disparam o alerta.
O uso militar da IA é uma preocupação real, é claro, mas o que se entende por isso também deve ser esclarecido.
Leia também | Fotógrafo cria polêmica ao devolver prêmio por foto gerada com inteligência artificial
A principal preocupação do Centro de Segurança de IA parece ser o uso da tecnologia para projetar armas químicas. Isso deve ser evitado a todo custo – mas as armas químicas já estão proibidas.
A extinção é um evento muito específico que exige explicações muito específicas.
Em 16 de maio, em sua audiência no Senado dos EUA, Sam Altman, CEO da OpenAI, desenvolvedora do ChatGPT, foi duas vezes instado a prever o pior cenário que pode ser causado pela inteligência artificial. Ele respondeu de forma vaga:
“Meus piores medos são que nós – a tecnologia, a indústria – causemos danos significativos ao mundo… É por isso que começamos a empresa [para evitar esse futuro]… Eu acho que se essa tecnologia der errado, ela pode dar muito errado.”
Defendendo fortemente uma posição de sermos bem cuidadosos, e tenho dito isso publicamente nos últimos dez anos.
Mas é importante manter um senso de proporção – particularmente ao se alertar para a extinção de uma espécie de oito bilhões de indivíduos.
A IA pode criar problemas sociais que realmente devem ser evitados. Como cientistas, temos o dever de entendê-los e depois fazer o nosso melhor para evitá-los. Mas o primeiro passo é identificá-los e descrevê-los – e sermos bem específicos.
Nello Cristianini é Professor de Inteligência Artificial na Universidade de Bath e autor de “The Shortcut – Why Intelligent Machines Do Not Think Like Us”.
Este artigo foi republicado do portal acadêmico The Conversation sob licença Creative Commons.
Leia também | Análise | O gênio da inteligência artificial não voltará para a garrafa do jornalismo – e deve ser controlado