Los Angeles – Casos de pessoas que obedeceram cegamente às instruções de uma máquina ilustram bem o que pode acontecer quando damos mais prioridade à tecnologia do que aos nossos sentidos e instintos, alerta Nils Köbis, pesquisador do Max Planck Institute e um dos fundadores da Rede Interdisciplinar de Pesquisa da Corrupção, que estuda a influência da IA no comportamento ético.
Especializado em ética na era digital, ele aponta os riscos crescentes para pessoas e empresas:
“É provável que tenhamos cada vez mais situações como um juiz recebendo recomendação de um algoritmo sobre uma sentença e deliberando de acordo com o que diz a máquina, acreditando na perfeição da programação”, exemplifica.
IA, ética e algoritmos
Por isso, ele chama a atenção para a necessidade de olhar com mais atenção a maneira como incorporamos os algoritmos e os conselhos que recebemos da IA, porque se seguirmos cegamente as diretrizes podemos dar com os burros n’água – literalmente, como no caso dos usuários do Google Maps que caíram em rios achando que havia uma ponte no local indicado pelo serviço.
Köbis revela que seu interesse pelo assunto começou a partir de uma pesquisa sobre as raízes colaborativas da corrupção, uma vez que trabalhos publicados até então levavam em consideração apenas decisões tomadas em condição de isolamento.
O ‘papel social’ das máquinas
“No mundo real, o comportamento ético geral é colocado à prova em um ambiente social, em que somos influenciados por amigos e pessoas próximas. Se um colega nos oferece algo, mesmo que seja algo suspeito, somos inclinados a aceitar.
Minha pesquisa teve como objetivo explorar forças sociais que influenciam o nosso comportamento ético – e como as máquinas podem impactar isso, porque as ferramentas de IA estão desempenhando um papel cada vez mais social nas nossas vidas. Elas nos recomendam de filmes a relacionamentos.
Não seria errado dizer que muitas das nossas ações sociais passam hoje pela inteligência artificial. Assim, comecei a me perguntar: se nossas decisões são afetadas pela IA, poderia o nosso comportamento ético ser alterado ou influenciado por ela?”
Quatro influências da IA no comportamento ético
“No estudo, definimos quatro impactos importantes da IA sobre o comportamento ético. O primeiro é sua atuação como modelo. Podemos imitar comportamentos sob influência dos algoritmos sem nos darmos conta de que houve ação da inteligência artificial.
O segundo papel é o de conselheiro. Todos os dias recebemos conselhos de aplicativos baseados em IA. O cientista-chefe da Amazon projeta que a Alexa, que já é usada por 100 milhões de pessoas, se tornará uma conselheira de fato, deixando de ser uma mera assistente pessoal.
Isso pode levar a situações como a de dar palpites sobre um dilema na vida pessoal ou profissional do usuário priorizando o benefício individual, como ‘traia o seu parceiro’ ou ‘minta sobre isso’ – e incentivando comportamentos não éticos.”
Parceria ativa e delegação
“O terceiro papel é o de “parceira ativa”. Mal usada, a IA pode se tornar uma ótima parceira de crime, porque não rejeitaria um comando antiético, não delataria o cúmplice e nem o chantagearia por isso.
O último papel identificado é o que mais me preocupa: a delegação. Frequentemente terceirizamos ao algoritmo algumas de nossas tarefas. Isso pode ser prejudicial no caso de uma empresa deixar a cargo da ferramenta a definição de preços de um produto.
O empresário pode achar bom ou fazer vista grossa para qualquer comportamento antiético do mecanismo para ter mais lucros”.
O risco de a IA não separar o bem do mal
“Existe esse risco, e por isso acho que os algoritmos precisam ser bem monitorados, para que tenhamos certeza de que eles foram programados para fazer, de fato, o que se propõem.
Se um algoritmo tem como missão maximizar o lucro ao analisar as ligações de call center, ele pode entender que enganar os clientes pode ser a melhor estratégia para isso, e, dependendo de sua programação, não se sentiria impedido de recomendar uma estratégia antiética para alcançar os objetivos.
O maior problema é o fato de que, na maioria dos casos, o comportamento antiético não é a intenção.
Os algoritmos não estão sendo programados para serem corruptos, mas isso surge como uma espécie de efeito colateral”.
Leia aqui a edição completa.