EloĂĄ Orazem, correspondente EUA
EloĂĄ Orazem

Los Angeles – Casos de pessoas que obedeceram cegamente Ă s instruçÔes de uma mĂĄquina ilustram bem o que pode acontecer quando damos mais prioridade Ă  tecnologia do que aos nossos sentidos e instintos, alerta Nils Köbis, pesquisador do Max Planck Institute e um dos fundadores da Rede Interdisciplinar de Pesquisa da Corrupção, que estuda a influĂȘncia da IA no comportamento Ă©tico. 

Especializado em Ă©tica na era digital, ele aponta os riscos crescentes para pessoas e empresas:

“É provĂĄvel que tenhamos cada vez mais situaçÔes como um juiz recebendo recomendação de um algoritmo sobre uma sentença e deliberando de acordo com o que diz a mĂĄquina, acreditando na perfeição da programação”, exemplifica. 

IA, Ă©tica e algoritmos

Por isso, ele chama a atenção para a necessidade de olhar com mais atenção a maneira como incorporamos os algoritmos e os conselhos que recebemos da IA, porque se seguirmos cegamente as diretrizes podemos dar com os burros n’ĂĄgua – literalmente, como no caso dos usuĂĄrios do Google Maps que caĂ­ram em rios achando que havia uma ponte no local indicado pelo serviço. 

Köbis revela que seu interesse pelo assunto começou a partir de uma pesquisa sobre as raízes colaborativas da corrupção, uma vez que trabalhos publicados até então levavam em consideração apenas decisÔes tomadas em condição de isolamento.

O ‘papel social’ das máquinas

“No mundo real, o comportamento Ă©tico geral Ă© colocado Ă  prova em um ambiente social, em que somos influenciados por amigos e pessoas prĂłximas. Se um colega nos oferece algo, mesmo que seja algo suspeito, somos inclinados a aceitar.

Minha pesquisa teve como objetivo explorar forças sociais que influenciam o nosso comportamento Ă©tico – e como as mĂĄquinas podem impactar isso, porque as ferramentas de IA estĂŁo desempenhando um papel cada vez mais social nas nossas vidas. Elas nos recomendam de filmes a relacionamentos.

NĂŁo seria errado dizer que muitas das nossas açÔes sociais passam hoje pela inteligĂȘncia artificial. Assim, comecei a me perguntar: se nossas decisĂ”es sĂŁo afetadas pela IA, poderia o nosso comportamento Ă©tico ser alterado ou influenciado por ela?”

Quatro influĂȘncias da IA no comportamento Ă©tico

“No estudo, definimos quatro impactos importantes da IA sobre o comportamento Ă©tico. O primeiro Ă© sua atuação como modelo. Podemos imitar comportamentos sob influĂȘncia dos algoritmos sem nos darmos conta de que houve ação da inteligĂȘncia artificial.

O segundo papel é o de conselheiro. Todos os dias recebemos conselhos de aplicativos baseados em IA. O cientista-chefe da Amazon projeta que a Alexa, que jå é usada por 100 milhÔes de pessoas, se tornarå uma conselheira de fato, deixando de ser uma mera assistente pessoal.

Isso pode levar a situaçÔes como a de dar palpites sobre um dilema na vida pessoal ou profissional do usuĂĄrio priorizando o benefĂ­cio individual, como ‘traia o seu parceiro’ ou ‘minta sobre isso’ – e incentivando comportamentos nĂŁo Ă©ticos.”

Parceria ativa e delegação

“O terceiro papel Ă© o de “parceira ativa”. Mal usada, a IA pode se tornar uma Ăłtima parceira de crime, porque nĂŁo rejeitaria um comando antiĂ©tico, nĂŁo delataria o cĂșmplice e nem o chantagearia por isso.

O Ășltimo papel identificado Ă© o que mais me preocupa: a delegação. Frequentemente terceirizamos ao algoritmo algumas de nossas tarefas. Isso pode ser prejudicial no caso de uma empresa deixar a cargo da ferramenta a definição de preços de um produto.

O empresĂĄrio pode achar bom ou fazer vista grossa para qualquer comportamento antiĂ©tico do mecanismo para ter mais lucros”.

O risco de a IA nĂŁo separar o bem do mal

“Existe esse risco, e por isso acho que os algoritmos precisam ser bem monitorados, para que tenhamos certeza de que eles foram programados para fazer, de fato, o que se propĂ”em.

Se um algoritmo tem como missão maximizar o lucro ao analisar as ligaçÔes de call center, ele pode entender que enganar os clientes pode ser a melhor estratégia para isso, e, dependendo de sua programação, não se sentiria impedido de recomendar uma estratégia antiética para alcançar os objetivos.

O maior problema é o fato de que, na maioria dos casos, o comportamento antiético não é a intenção.

Os algoritmos nĂŁo estĂŁo sendo programados para serem corruptos, mas isso surge como uma espĂ©cie de efeito colateral”.


Edição especial MediaTalks sobre InteligĂȘncia ArtificialEste artigo faz parte do Especial ‘Os desafios da ESG na era da InteligĂȘncia Artificial‘

Leia aqui a edição completa.

Edição Especial ESG e InteligĂȘncia Artificial MediaTalks