O ChatGPT foi proibido de ser usado nas instalações e equipamentos da Apple, segundo revelaram funcionários da empresa ao The Wall Street Journal.
A ferramenta, bem como outras inteligências artificiais generativas, foi banida para evitar possíveis “vazamentos de dados sensíveis”, segundo o jornal.
Por ironia, a decisão ocorreu ao mesmo tempo em que a a OpenAI, empresa por detrás do ChatGPT, anunciou uma versão do chatbot para o iOS, sistema operacional da Apple. O app está disponível na Apple Store para os usuários americanos.
Quem mais já proibiu o ChatGPT?
Não foi só entre os funcionários da Apple que o ChatGPT foi proibido: no mês passado, funcionários da Samsung perderam acesso à ferramenta após informações sensíveis serem vazadas para a plataforma.
Instituições bancárias e do setor econômico, como JPMorgan, Bank of América e Citygroup também optaram por proibir a ferramenta para evitar vazamentos.
Outras empresas, como a companhia de defesa aeroespacial Northrop Grumman e a telefônica Verizon, proibiram o ChatGPT pelo mesmo motivo, esperando que que a ferramenta fosse regulada ou se tornasse estável, respectivamente.
No momento, o ChatGPT passa por escrutínio do governo dos Estados Unidos, que visa regulamentar esta e outras inteligências artificiais para evitar impactos acelerados ao mercado de trabalho.
A regulamentação é defendida até pelo CEO da OpenAI, dona do ChatGPT.
Leia também | Chefão da OpenAI defende regulamentação do ChatGPT e outras IAs no Congresso dos EUA
Proibição pode ter motivos de segurança
No caso da Apple, a preocupação vai além do ChatGPT. O Copilot — inteligência artificial da OpenAI que ajuda a escrever códigos de programação — também foi banido pela Apple.
A proibição pode estar intimamente ligada ao fato da Apple anunciar um programa de inteligência artificial generativa para a Siri, assistente virtual da empresa.
Logo, a proibição, ao que tudo indica, é uma decisão “de segurança”: o ChatGPT “aprende” com cada interação, inclusive obtendo dados inseridos em suas tarefas, o que poderia permitir que códigos desses programas fossem parar na mão da OpenAI.
A própria criadora do chatbot recomenda que informações sensíveis não sejam inseridas na plataforma, já que podem virar “parte” da base de dados do programa.
Porém, isto está longe de ser o único problema: em março deste ano, um bug vazou informações de contas pagas do ChatGPT. A primeira mensagem de cada interação também foi vazada.
Leia também | Análise | Porque o ChatGPT ameaça a privacidade de qualquer um que já postou na Internet