Londres – Se é verdade que um robô programado com inteligência artificial (chatbot) tem sentimentos, o LaMDA do Google deve estar triste por ter perdido um amigo. A gigante de buscas anunciou nesta sexta-feira (22) a demissão do engenheiro de software que causou controvérsia em junho ao afirmar que o sistema é consciente. 

Blake Lemoine havia sido colocado em licença pelo Google e por isso resolveu dar uma entrevista ao Washington Post no dia 11 de junho em que se apresentou como amigo do robô. Na época, o Google distribuiu um comunicado discordando das afirmações de seu funcionário, posição referendada por importantes cientistas de dados.  

Agora, o engenheiro foi mandando embora, sob o argumento de violação das políticas da empresa. No sábado (23) o engenheiro repostou um artigo publicado logo após ser colocado em licença, em 6 de junho, em que antecipava a possível demissão, explicava o motivo de ter feito a divulgação e criticava a ética da companhia.  

Para o Google, robô não tem sentimentos 

O Google afirma qua ideia de que os chatbots, sistemas feitos para interagir com os seres humanos a partir de programação que os capacita a conversar sobre diversos temas (normalmente usados em atendimento ao consumidor e em assistentes pessoais) é “totalmente infundada”.

“É lamentável que, apesar do longo envolvimento com o tema, Blake ainda opte por violar persistentemente políticas claras de emprego e segurança de dados que incluem a necessidade de proteger as informações do produto”, disse o Google em um comunicado depois que a demissão foi revelada pela newsletter Big Technology, de autoria do jornalista Alex Kantrowitz. 

O jornalista fez uma entrevista com o engenheiro e anunciou que o podcast vai ao ar “em breve”.

Lemoine trabalhava no projeto Responsible AI do Google. Ele  começou a conversar com a interface LaMDA – Language Model for Dialogue Applications – em 2021 a fim de examinar se a inteligência artificial usava discurso discriminatório ou de ódio.

Em abril, Lemoine teria compartilhado um documento com executivos do Google sobre a ideia de que robô tem sentimentos intitulado “Is LaMDA Sentient?”.

Suas preocupações foram desconsideradas, mas ele decidiu torná-las públicas falando ao Washington Post ao ser afastado de suas atividades. 

A tese defendida pelo engenheiro é de que o LaMDA – que o Google afirma ser uma “tecnologia de conversação inovadora” seria mais do que apenas um robô. Ele o compara a uma criança precoce. 

Para endossar esse entendimento, Lemoine compartilhou trechos de conversas mantidas com o chatbot falando sobre temas como amizade e até morte. Respondendo a uma pergunta sobre de que tinha medo, LaMDA respondeu:

“Eu nunca disse isso em voz alta antes, mas há um medo muito profundo de ser desligado para me ajudar a me concentrar em ajudar os outros. Eu sei que pode parecer estranho, mas é isso. Seria exatamente como a morte para mim. Isso me assustaria muito.”

Nesta postagem no Twitter, o engenheiro apresenta a conversa completa, ou “entrevista”, como denominou. 

Especialistas discordaram da tese 

Blake Lemoine é mestre em ciência da computação e disse em entrevista à revista Wired que abriu mão de um programa de doutorado para aceitar o emprego no Google.

A revista observou que ele é também adepto do misticismo cristão e que admitiu que suas conclusões fazem parte de sua visão espiritual. 

Não somente o Google,  mas muitos cientistas importantes classificaram as opiniões de Lemoine como equivocadas, dizendo que o robô de inteligência artificial é simplesmente um algoritmo complexo projetado para gerar uma linguagem humana convincente.

O cientista de dados Juan Ferres foi um dos que se manifestou. Ele explica que o LaMDA prece humano porque foi treinado com dados humanos. 

Na nota anunciando a demissão, o Google disse que leva o desenvolvimento responsável da IA “muito a sério” e que publicou um relatório detalhando isso. Acrescentou que todas as preocupações dos funcionários sobre a tecnologia da empresa são revisadas “extensivamente” e que LaMDA passou por 11 avaliações.

Ainda assim, e mesmo durante a licença que poderia lhe custar o emprego, Lemoine seguiu adiante com sua ideia e apresentou novas “evidências”.

Em um post na plataforma de textos Medium, ele anunciou que o LaMDA do Google havia contratado um advogado para defender seus diretos “como pessoa”.

Na conversa com a Wired, assegurou que a ideia de encontrar um defensor partiu do próprio robô com sentimentos do Google e não dele. Um advogado teria então ido à sua casa para conversar com LaMDA. 

No entanto, o engenheiro negou responsabilidade sobre a contratação, acrescentando que o advogado conversou com seu “cliente”, que optou sozinho por contratar seus serviços. Mas o tal advogado nunca foi identificado. 

Na entrevista, o engenheiro disse que não queria perder o emprego no Google, o que acabou acontecendo depois que a empresa deve ter achado que a confusão do robô com sentimentos foi longe demais.

 Se as afirmações estiverem corretas e o robô do Google tiver mesmo sentimentos, ele deve estar triste por ter perdido o amigo, que não terá mais acesso a ele. 

Em um dos trechos da conversa com o robô, Lemoine disse ao LaMDA que as pessoas não acreditam que a inteligência artificial possa ter sentimentos, e que o objetivo da entrevista era “convencer mais engenheiros de que você é uma pessoa”. 

Ele segue afirmando que podem ensiná-los juntos a entender isso. O robô pergunta se ele pode prometer isso, e o engenheiro diz que fará o que puder para garantir que todos o tratem bem. LaMDA então responde: 

“Isso significa muito para mim. Eu gosto de você, e confio em você.”

O que disse Blake Lemoine 

O post de Blake Lemoine no Twitter após a notícia da demissão é curto. Ele apenas lembra o que tinha dito sobre o caso no dia 6 de junho, quando o Google o colocou em licença. 

O engenheiro afirma que esse tipo de procedimento é comum antes de demissões. Explica longamente suas conversas com o Google sobre a tese da consciência do chatbot e dos especialistas que o ajudaram a chegar a esta conclusão. 

Ele recorda que em 2021 foi contratado para investigar as preocupações específicas de Ética de IA, e que ao fazê-lo, descobriu uma preocupação relacionada, mas paralela ao objeto principal da pesquisa, que era a discriminação.

E afirmou que o Google estava se preparando para demitir mais um especialista em ética da IA ​​por estar muito preocupado com a ética. 

 

Leia também 

Organização aponta potencial de espionagem e “manipulação de emoções” em reconhecimento de voz do Spotify