Eloá Orazem, correspondente EUA
Eloá Orazem

Los Angeles – Casos de pessoas que obedeceram cegamente às instruções de uma máquina ilustram bem o que pode acontecer quando damos mais prioridade à tecnologia do que aos nossos sentidos e instintos, alerta Nils Köbis, pesquisador do Max Planck Institute e um dos fundadores da Rede Interdisciplinar de Pesquisa da Corrupção, que estuda a influência da IA no comportamento ético. 

Especializado em ética na era digital, ele aponta os riscos crescentes para pessoas e empresas:

“É provável que tenhamos cada vez mais situações como um juiz recebendo recomendação de um algoritmo sobre uma sentença e deliberando de acordo com o que diz a máquina, acreditando na perfeição da programação”, exemplifica. 

IA, ética e algoritmos

Por isso, ele chama a atenção para a necessidade de olhar com mais atenção a maneira como incorporamos os algoritmos e os conselhos que recebemos da IA, porque se seguirmos cegamente as diretrizes podemos dar com os burros n’água – literalmente, como no caso dos usuários do Google Maps que caíram em rios achando que havia uma ponte no local indicado pelo serviço. 

Köbis revela que seu interesse pelo assunto começou a partir de uma pesquisa sobre as raízes colaborativas da corrupção, uma vez que trabalhos publicados até então levavam em consideração apenas decisões tomadas em condição de isolamento.

O ‘papel social’ das máquinas

“No mundo real, o comportamento ético geral é colocado à prova em um ambiente social, em que somos influenciados por amigos e pessoas próximas. Se um colega nos oferece algo, mesmo que seja algo suspeito, somos inclinados a aceitar.

Minha pesquisa teve como objetivo explorar forças sociais que influenciam o nosso comportamento ético – e como as máquinas podem impactar isso, porque as ferramentas de IA estão desempenhando um papel cada vez mais social nas nossas vidas. Elas nos recomendam de filmes a relacionamentos.

Não seria errado dizer que muitas das nossas ações sociais passam hoje pela inteligência artificial. Assim, comecei a me perguntar: se nossas decisões são afetadas pela IA, poderia o nosso comportamento ético ser alterado ou influenciado por ela?”

Quatro influências da IA no comportamento ético

“No estudo, definimos quatro impactos importantes da IA sobre o comportamento ético. O primeiro é sua atuação como modelo. Podemos imitar comportamentos sob influência dos algoritmos sem nos darmos conta de que houve ação da inteligência artificial.

O segundo papel é o de conselheiro. Todos os dias recebemos conselhos de aplicativos baseados em IA. O cientista-chefe da Amazon projeta que a Alexa, que já é usada por 100 milhões de pessoas, se tornará uma conselheira de fato, deixando de ser uma mera assistente pessoal.

Isso pode levar a situações como a de dar palpites sobre um dilema na vida pessoal ou profissional do usuário priorizando o benefício individual, como ‘traia o seu parceiro’ ou ‘minta sobre isso’ – e incentivando comportamentos não éticos.”

Parceria ativa e delegação

“O terceiro papel é o de “parceira ativa”. Mal usada, a IA pode se tornar uma ótima parceira de crime, porque não rejeitaria um comando antiético, não delataria o cúmplice e nem o chantagearia por isso.

O último papel identificado é o que mais me preocupa: a delegação. Frequentemente terceirizamos ao algoritmo algumas de nossas tarefas. Isso pode ser prejudicial no caso de uma empresa deixar a cargo da ferramenta a definição de preços de um produto.

O empresário pode achar bom ou fazer vista grossa para qualquer comportamento antiético do mecanismo para ter mais lucros”.

O risco de a IA não separar o bem do mal

“Existe esse risco, e por isso acho que os algoritmos precisam ser bem monitorados, para que tenhamos certeza de que eles foram programados para fazer, de fato, o que se propõem.

Se um algoritmo tem como missão maximizar o lucro ao analisar as ligações de call center, ele pode entender que enganar os clientes pode ser a melhor estratégia para isso, e, dependendo de sua programação, não se sentiria impedido de recomendar uma estratégia antiética para alcançar os objetivos.

O maior problema é o fato de que, na maioria dos casos, o comportamento antiético não é a intenção.

Os algoritmos não estão sendo programados para serem corruptos, mas isso surge como uma espécie de efeito colateral”.


Edição especial MediaTalks sobre Inteligência ArtificialEste artigo faz parte do Especial ‘Os desafios da ESG na era da Inteligência Artificial

Leia aqui a edição completa.

Edição Especial ESG e Inteligência Artificial MediaTalks