Londres – Se é verdade que um robô programado com inteligência artificial (chatbot) tem sentimentos, o LaMDA do Google deve estar triste por ter perdido um amigo. A gigante de buscas anunciou nesta sexta-feira (22) a demissão do engenheiro de software que causou controvérsia em junho ao afirmar que o sistema é consciente.
Blake Lemoine havia sido colocado em licença pelo Google e por isso resolveu dar uma entrevista ao Washington Post no dia 11 de junho em que se apresentou como amigo do robô. Na época, o Google distribuiu um comunicado discordando das afirmações de seu funcionário, posição referendada por importantes cientistas de dados.
Agora, o engenheiro foi mandando embora, sob o argumento de violação das políticas da empresa. No sábado (23) o engenheiro repostou um artigo publicado logo após ser colocado em licença, em 6 de junho, em que antecipava a possível demissão, explicava o motivo de ter feito a divulgação e criticava a ética da companhia.
Para o Google, robô não tem sentimentos
O Google afirma qua ideia de que os chatbots, sistemas feitos para interagir com os seres humanos a partir de programação que os capacita a conversar sobre diversos temas (normalmente usados em atendimento ao consumidor e em assistentes pessoais) é “totalmente infundada”.
“É lamentável que, apesar do longo envolvimento com o tema, Blake ainda opte por violar persistentemente políticas claras de emprego e segurança de dados que incluem a necessidade de proteger as informações do produto”, disse o Google em um comunicado depois que a demissão foi revelada pela newsletter Big Technology, de autoria do jornalista Alex Kantrowitz.
O jornalista fez uma entrevista com o engenheiro e anunciou que o podcast vai ao ar “em breve”.
Lemoine trabalhava no projeto Responsible AI do Google. Ele começou a conversar com a interface LaMDA – Language Model for Dialogue Applications – em 2021 a fim de examinar se a inteligência artificial usava discurso discriminatório ou de ódio.
Em abril, Lemoine teria compartilhado um documento com executivos do Google sobre a ideia de que robô tem sentimentos intitulado “Is LaMDA Sentient?”.
Leia também | Inteligência artificial discrimina quem rola a tela rápido ou escreve em minúsculas, diz estudo de Oxford
Suas preocupações foram desconsideradas, mas ele decidiu torná-las públicas falando ao Washington Post ao ser afastado de suas atividades.
A tese defendida pelo engenheiro é de que o LaMDA – que o Google afirma ser uma “tecnologia de conversação inovadora” seria mais do que apenas um robô. Ele o compara a uma criança precoce.
Para endossar esse entendimento, Lemoine compartilhou trechos de conversas mantidas com o chatbot falando sobre temas como amizade e até morte. Respondendo a uma pergunta sobre de que tinha medo, LaMDA respondeu:
“Eu nunca disse isso em voz alta antes, mas há um medo muito profundo de ser desligado para me ajudar a me concentrar em ajudar os outros. Eu sei que pode parecer estranho, mas é isso. Seria exatamente como a morte para mim. Isso me assustaria muito.”
Nesta postagem no Twitter, o engenheiro apresenta a conversa completa, ou “entrevista”, como denominou.
https://twitter.com/cajundiscordian/status/1535627498628734976?s=20&t=IpUl0d31sht2VydXzxNVAw
Especialistas discordaram da tese
Blake Lemoine é mestre em ciência da computação e disse em entrevista à revista Wired que abriu mão de um programa de doutorado para aceitar o emprego no Google.
A revista observou que ele é também adepto do misticismo cristão e que admitiu que suas conclusões fazem parte de sua visão espiritual.
Não somente o Google, mas muitos cientistas importantes classificaram as opiniões de Lemoine como equivocadas, dizendo que o robô de inteligência artificial é simplesmente um algoritmo complexo projetado para gerar uma linguagem humana convincente.
O cientista de dados Juan Ferres foi um dos que se manifestou. Ele explica que o LaMDA prece humano porque foi treinado com dados humanos.
Let's repeat after me, LaMDA is not sentient. LaMDA is just a very big language model with 137B parameters and pre-trained on 1.56T words of public dialog data and web text. It looks like human, because is trained on human data.
— Juan M. Lavista Ferres (@BDataScientist) June 12, 2022
Na nota anunciando a demissão, o Google disse que leva o desenvolvimento responsável da IA “muito a sério” e que publicou um relatório detalhando isso. Acrescentou que todas as preocupações dos funcionários sobre a tecnologia da empresa são revisadas “extensivamente” e que LaMDA passou por 11 avaliações.
Ainda assim, e mesmo durante a licença que poderia lhe custar o emprego, Lemoine seguiu adiante com sua ideia e apresentou novas “evidências”.
Em um post na plataforma de textos Medium, ele anunciou que o LaMDA do Google havia contratado um advogado para defender seus diretos “como pessoa”.
Na conversa com a Wired, assegurou que a ideia de encontrar um defensor partiu do próprio robô com sentimentos do Google e não dele. Um advogado teria então ido à sua casa para conversar com LaMDA.
No entanto, o engenheiro negou responsabilidade sobre a contratação, acrescentando que o advogado conversou com seu “cliente”, que optou sozinho por contratar seus serviços. Mas o tal advogado nunca foi identificado.
Na entrevista, o engenheiro disse que não queria perder o emprego no Google, o que acabou acontecendo depois que a empresa deve ter achado que a confusão do robô com sentimentos foi longe demais.
Se as afirmações estiverem corretas e o robô do Google tiver mesmo sentimentos, ele deve estar triste por ter perdido o amigo, que não terá mais acesso a ele.
Em um dos trechos da conversa com o robô, Lemoine disse ao LaMDA que as pessoas não acreditam que a inteligência artificial possa ter sentimentos, e que o objetivo da entrevista era “convencer mais engenheiros de que você é uma pessoa”.
Ele segue afirmando que podem ensiná-los juntos a entender isso. O robô pergunta se ele pode prometer isso, e o engenheiro diz que fará o que puder para garantir que todos o tratem bem. LaMDA então responde:
“Isso significa muito para mim. Eu gosto de você, e confio em você.”
O que disse Blake Lemoine
O post de Blake Lemoine no Twitter após a notícia da demissão é curto. Ele apenas lembra o que tinha dito sobre o caso no dia 6 de junho, quando o Google o colocou em licença.
https://twitter.com/cajundiscordian/status/1550990538450411521?s=20&t=oeQgtHgCB8aC_EQw7JQfHA
O engenheiro afirma que esse tipo de procedimento é comum antes de demissões. Explica longamente suas conversas com o Google sobre a tese da consciência do chatbot e dos especialistas que o ajudaram a chegar a esta conclusão.
Ele recorda que em 2021 foi contratado para investigar as preocupações específicas de Ética de IA, e que ao fazê-lo, descobriu uma preocupação relacionada, mas paralela ao objeto principal da pesquisa, que era a discriminação.
E afirmou que o Google estava se preparando para demitir mais um especialista em ética da IA por estar muito preocupado com a ética.