O avanço da Inteligência artificial generativa em todos os setores está levando a novos produtos e serviços, novas formas de trabalhar e novos usos em todos os aspectos de nossas vidas pessoais e profissionais.
Essas soluções de IA, sem dúvida, darão origem a novos modelos de geração de receita.
Mas além do modelo atual que aposta na atenção do usuário, algo específico para IA generativa está surgindo: a economia de apego.
E há riscos e ameaças dos apegos emocionais artificiais aos humanos e à sociedade em geral.
O modelo de atenção da inteligência artificial
O modelo de receita da economia de atenção depende da capacidade de envolver o usuário e capturar sua atenção da forma mais rápida e pelo maior tempo possível.
Este é o caso da grande maioria das redes sociais como X, Instagram, Facebook, TikTok e Snapchat, e também dos aplicativos de namoro e dos sites de redes profissionais como o LinkedIn.
Os algoritmos de recomendação utilizados por essas plataformas sugerem conteúdo com o qual os usuários concordam, ideias nas quais acreditam e tópicos transgressores ou controversos com potencial de viralização significativamente maior.
A recomendação direcionada depende, entre outras coisas, de bolhas de filtro.
As redes sociais segmentam os usuários e filtram o conteúdo que cada pessoa vê de acordo com o seu comportamento anterior na plataforma.
É por essa razão que um terraplanista tem mais probabilidades de ver conteúdo que defende a teoria da conspiração da terra plana.
As ameaças do modelo de atenção
A comunidade científica chegou, de forma amplamente documentada, a um consenso sobre as ameaças e consequências do modelo de atenção.
Estas incluem abuso de influência, manipulação de opinião, fadiga nervosa e emocional e até mesmo dependência e depressão.
Muitos cientistas propõem soluções concretas e práticas.
Entre elas a revisão do modelo de receita, a mudança significativa dos algoritmos de recomendação e o aprimoramento da governança de IA , com ênfase em boas práticas de design e teste.
Leia também | Revistas Wired e Business Insider são enganadas pela IA e removem artigos escritos por freelancer ‘fantasma’
Novas interações seres humanos-IA
A partir de novembro de 2022, a situação começou a mudar, com o lançamento da versão 3.5 do ChatGPT, com rápida adoção em massa.
Desde então, inúmeras outras ferramentas generativas de IA, como Gemini, Le Chat e DeepSeek, tornaram-se disponíveis.
Essas novas opções mudaram a forma como consumimos e processamos informações, começando com a forma como fazemos pesquisas online.
Anteriormente, costumávamos digitar algumas palavras-chave em uma barra de mecanismo de pesquisa e recebíamos uma resposta filtrada por um algoritmo de seleção, como o PageRank do Google.
Hoje adicionamos consultas na forma de uma ou mais frases em uma caixa de mensagem e obtemos uma resposta produzida por um algoritmo generativo.
Essas novas ferramentas influenciam fortemente nossas interações com a máquina que deveria nos ajudar.
O efeito ELIZA e a personificação da IA
Na prática, pela maneira como a tecnologia é projetada e pelo uso de elementos de linguagem antropomórfica, há uma tendência a personificar a ferramenta de IA.
A escolha de pequenos quadrados ou pontos, que aparecem em uma determinada frequência enquanto o algoritmo está buscando uma resposta, dá a impressão de que um humano atrás da tela está digitando a resposta em um teclado.
Essas escolhas de design incentivam, não sem perigo, o efeito ELIZA, cuja denominação remonta ao primeiro chatbot criado em 1966, e que se refere a uma resposta emocional espontânea a uma máquina que se assemelha a nós.
As consequências são numerosas. Mais e mais pessoas estão usando, não sem riscos, esses aplicativos de IA de conversação como confidentes ou até mesmo terapeutas.
Pesquisas medicamente supervisionadas também estão sendo conduzidas sobre seu uso para o tratamento de pacientes.
Um apego emocional se constrói gradualmente entre a IA generativa e o usuário, o que obviamente modifica o modelo econômico dessas ferramentas, com consequências potencialmente prejudiciais para o usuário.
Leia também | O que veganismo tem a ver com IA? Pesquisas mostram que motivos para rejeitar a tecnologia podem ser os mesmos
Apego emocional à inteligência artificial produz mais engajamento
Através do uso cada vez mais frequente e mais longo, as pessoas tendem a criar um apego emocional aos agentes de conversação de IA devido à sofisticação das interações e ao grau de exclusividade e intimidade que elas trazem, mesmo que seja artificial.
O efeito ELIZA então se torna um meio de atrair e, acima de tudo, reter usuários pelo maior tempo possível através da qualidade (novamente, artificial) das trocas.
As pessoas têm a impressão de que estão interagindo com outro ser humano que parece entendê-las.
O apego artificial produz mais engajamento, ao desencadear um vazio emocional que pode levar ao vício e aumentar o número de trocas homem-máquina.
Os dados dessas trocas podem ser usados para enriquecer o banco de dados de treinamento e validação, ou como dados comportamentais que poderiam ser comercializados para marketing personalizado e direcionado, por exemplo.
Do modelo de atenção ao de apego à inteligência artificial
Os proprietários de ferramentas de IA podem decidir projetar aplicativos generativos de IA conversacional com o objetivo de fortalecer esse apego emocional com o usuário ao longo do tempo.
A personalização cada vez maior através da IA facilitaria esse apego. A atenção historicamente usada como um impulsionador da atração e retenção do usuário seria gradualmente substituída pelo apego emocional.
A economia de apego pode ter retornos financeiros muito maiores do que o modelo baseado na atenção, com ameaças semelhantes ou ainda maiores.
As ameaças do modelo de apego emocional
O prejuízo à saúde mental das pessoas e a manipulação e influência sobre seus pensamentos para fins marqueteiros ou políticos são alguns dos riscos do modelo de apego emocional.
Ao contrário das redes sociais, que envolvem interações com outros humanos, a IA generativa conversacional é limitada a interações entre humanos e máquinas.
O apego à máquina humana corre o risco de isolar ainda mais as pessoas de outros seres humanos, o que pode criar um vazio difícil de gerenciar.
Um “relacionamento” artificial “compatível” com máquinas não carrega frustração e nenhuma contradição notável.
Dessa forma, com o tempo, as pessoas podem ficar dessocializadas.
Regulamentando o design da IA generativa
Após discussões sobre como legislar o design e o uso da IA, devemos agora considerar proativamente as mudanças feitas no modelo econômico dessas plataformas, para regular seu desenvolvimento.
Um passo importante é regular o design considerando os efeitos da dependência emocional induzida, entre outras coisas, pelo efeito ELIZA.
Estamos gradualmente passando de uma economia de atenção para uma economia de apego, cujos mecanismos devem ser estudados e para a qual devemos tomar decisões éticas e legais.
Este artigo foi publicado originalmente no LSE Business Review, da London School of Economics, e é republicado aqui sob licença Creative Commons.