A Meta anunciou nesta quinta-feira (5) que vai permitir que chatbots de IA de outras empresas funcionem dentro do WhatsApp, mesmo tendo dito em janeiro que proibiria essas operações.
A medida faz parte de uma série de mudanças da empresa de Mark Zuckerberg para evitar punições de órgãos reguladores e se adequar a legislações em formulação diante de processos judiciais.
No caso da autorização ao uso de IAs rivais, a Meta deixou claro que voltou atrás para não ser punida pelo órgão de concorrência da União Europeia. No mês passado, o bloco ameaçou tomar medidas contra o bloqueio de concorrentes, que chamou de ação anticompetitiva.
A volta atrás acontece uma semana após a plataforma informar que vai alertar a pais quando filhos pesquisarem sobre temas sensíveis, como suicídio, admitindo que o problema existe e que pode causar consequências a usuários vulneráveis.
A ação levantou críticas de organizações de direitos de adolescentes. Elas alegaram que o ato é uma medida apressada e com potencial perigoso.
Como IAs rivais poderão usar API do Whatsapp
Para poder funcionar dentro do API do Whatsapp Business na Europa e no Brasil, os desenvolvedores precisarão pagar à Meta. O valor a ser pago nas mudanças anunciadas não foi divulgado até o momento e não consta nas ações judiciais contra a Meta.
A autorização para funcionar dentro do Whatsapp valerá por 12 meses, tempo em que a União Europeia deve conduzir a investigação sobre as mudanças.
Quando vetou o uso, restringindo apenas a Meta AI ao WhatsApp, a Meta alegou que os bots sobrecarregam seus sistemas e que as IAs podem ser baixadas por fora do aplicativo.
Para os desenvolvedores que moveram o processo contra a Meta, condicionar o uso da plataforma a um pagamento é outra forma de limitação.
“A empresa está introduzindo preços vexatórios para provedores de IA, o que torna tão impossível operar no WhatsApp quanto a proibição total”, afirmou Marvin von Hagen, CEO da IA Poke.com.
Leia também | Proibir redes sociais para adolescentes resolve todos os problemas? Veja o que diz a neurociência
Leia também | Estudo aponta redes sociais como vilãs da desatenção em adolescentes – e absolve games e vídeos
Leia também | Dia Mundial da Saúde Mental: 14% das crianças e adolescentes têm problemas de equilíbrio emocional, aponta pesquisa
Aviso sobre conteúdo sensível para pais
No dia 26 de fevereiro, a Meta anunciou que vai notificar pais de adolescentes quando os filhos procurarem por temas sensíveis nas suas redes, como suicídio e automutilação.
O aviso estará disponível aos pais que tiverem a funcionalidade de conta de adolescente. Eles aparecerão nos e-mails dos pais, acompanhados de informações sobre como tratar sobre o assunto com os filhos.
A princípio, somente Estados Unidos, Reino Unido, Austrália e Canadá terão a função. A previsão é de que outras regiões recebam as mudanças até o fim do ano. Segundo a Meta, o intuito do aviso é ajudar os pais a intervirem.
Nosso objetivo é capacitar os pais a intervir se as pesquisas de seus filhos adolescentes sugerirem que eles podem precisar de apoio.
Apesar de não ser explicitamente uma reação a movimentações judiciais, o anúncio de mudanças acontece enquanto a Meta responde na Justiça por uma ação envolvendo uma menor de idade.
ONGs criticaram ação da Meta
Para a organização de prevenção ao suicídio Molly Rose Foundation, a novidade da Meta pode ser perigosa. Em comunicado divulgado à BBC, o diretor da fundação, Andy Burrows, afirmou que, se feitas de forma improvisada, as notificações podem deixar responsáveis em pânico.
A ONG Fairplay, por sua vez, afirmou que a ação é um sinal de que a Meta prefere jogar a responsabilidade para os pais em vez de resolver as falhas da sua própria plataforma com mudanças.
Se um produto não é seguro para crianças sem supervisão dos pais, ele não deve ser marcado como apropriado para crianças
As organizações concordaram que a atitude da Meta é uma forma velada de tentar se esquivar de novas ações judiciais.
Meta responde na Justiça por ação envolvendo menor
O CEO do Instagram, Adam Mosseri, e da Meta, Mark Zuckerberg, estão entre as pessoas que depuseram em uma ação contra as empresas nos EUA. O advogado de uma jovem de 20 anos processou grandes companhias, como o TikTok, Facebook, Snapchat e Youtube por considerá-las causadoras de depressão e ansiedade.
Na versão da acusação, as empresas construíram deliberadamente “máquinas de dependência” capazes de viciar crianças. A jovem que processa a Meta diz que desenvolveu ansiedade, depressão e problemas de imagem corporal após usar Instagram, Snapchat, TikTok e YouTube quando era criança.
TikTok e Snapchat fecharam acordos de indenização antes de o julgamento começar. Assim, quem segue como ré no julgamento é a Meta (dona do Instagram e do Facebook) e o YouTube, do Google.
Este não é o primeiro processo contra redes sociais nos EUA, mas é o primeiro em que o centro da discussão diante de jurados não é “qual conteúdo fez mal”.
A pergunta que vai orientar o caso é se as empresas foram negligentes ao criar e ajustar seus produtos para incentivar que usuários passassem mais tempo nas plataformas. Por fim, o juri vai decidir se essa suposta negligência causou danos.
O caso é um “bellwether trial”, ou seja, um processo-piloto. Esse tipo de processo funciona como termômetro para disputas semelhantes.
Leia também | Depondo pela primeira vez em um processo judicial, Mark Zuckerberg defende redes da Meta diante de júri popular






