Los Angeles – Nos seus livros, nos seus discos, nas suas roupas e onde você menos esperar, lá ela estará: a inteligência artificial (IA) é a rima e a melodia que embala os últimos hits dos mercados internacionais. E quem se recusar a ouvir o canto da nova “sereia”, poderá dançar.
Uma das discussões centrais da greve de atores e roteiristas de Hollywood, que pedem cláusulas contratuais para se protegerem do avanço da tecnologia, a IA também é pauta urgente no mercado de ações dos EUA.
Recentemente, uma imagem gerada por computadores mostrando uma falsa explosão no Pentágono derrubou a bolsa de valores momentaneamente. Cinco minutos depois que uma conta verificada no X – ou ainda falamos Twitter? – compartilhou a imagem modificada, o índice Dow Jones cedeu 0,26%, mas recuperou-se em seguida.
Impacto da inteligência artificial nas empresas
Embora a oscilação tenha sido rápida, o incidente levanta questões importantes: como as máquinas alimentadas pela IA podem ter impacto sobre a reputação, a percepção e até as finanças de uma pessoa, de um produto ou de uma empresa?
O MediaTalks conversou com Dorothy Leidner, professora de ética empresarial com foco em inteligência artificial da Universidade de Virgínia, para responder a algumas dessas perguntas.
“Há décadas, estudos mostram que quando uma nova tecnologia é apresentada ao mercado e é mencionada no relatório para os acionistas, isso tende a ter um impacto positivo na percepção daquela organização, podendo até beneficiar o valor das ações num primeiro momento”.
Para a docente, isso acontece porque existe uma crença de que as corporações mais resilientes são aquelas que estão na vanguarda do uso das novas tecnologias.
Ela acredita que isso deverá ser um assunto cada vez mais frequente em rodas de investidores, de empresários, na percepção do público e até de sociólogos.
“Apesar dos debates extensivos, ainda estamos ‘testando as águas’ da inteligência artificial, uma vez que desconhecemos todas as suas aplicações e implicações.
Mas uma coisa que já sabemos é que, quando recebe uma missão, a inteligência artificial vai segui-la à risca, e isso pode ser um baita problema”.
E a raiz do problema está no fato de termos nos acostumado a confiar quase cegamente nas máquinas. Quando usamos a calculadora para resolver uma equação complexa, acreditamos no resultado sem verificar necessariamente as etapas – e às vezes sem nem saber como chegamos àquele número final.
Leia também | Entrevista | Alexander Ditzend, Presidente da Sociedade Argentina de IA: ‘é importante limitar o mau uso da tecnologia’
Ética na era digital
Foi este o ponto de partida da nossa conversa com o pesquisador alemão Nils Köbis, um dos fundadores da Rede Interdisciplinar de Pesquisa da Corrupção, cujo trabalho investiga a ética na era digital.
Perguntado sobre a nossa passividade e permissividade diante das máquinas, Köbis citou situações em que usuários demonstraram tanta confiança no Google Maps a ponto de seguir suas instruções ao pé da letra e cair em rios, porque o programa erroneamente apontou que haveria uma ponte ali.
- Leia a entrevista completa de Nils Köbis aqui.
Este artigo faz parte do Especial ‘Os desafios da ESG na era da Inteligência Artificial‘
Leia aqui a edição completa.