O ChatGPT foi proibido de ser usado nas instalações e equipamentos da Apple, segundo revelaram funcionários da empresa ao The Wall Street Journal.

A ferramenta, bem como outras inteligências artificiais generativas, foi banida para evitar possíveis “vazamentos de dados sensíveis”, segundo o jornal.

Por ironia, a decisão ocorreu ao mesmo tempo em que a a OpenAI, empresa por detrás do ChatGPT, anunciou uma versão do chatbot para o iOS, sistema operacional da Apple. O app está disponível na Apple Store para os usuários americanos. 

Quem mais já proibiu o ChatGPT?

Não foi só entre os funcionários da Apple que o ChatGPT foi proibido: no mês passado, funcionários da Samsung perderam acesso à ferramenta após informações sensíveis serem vazadas para a plataforma.

Instituições bancárias e do setor econômico, como JPMorgan, Bank of América e Citygroup também optaram por proibir a ferramenta para evitar vazamentos.

Outras empresas, como a companhia de defesa aeroespacial Northrop Grumman e a telefônica Verizon, proibiram o ChatGPT pelo mesmo motivo, esperando que que a ferramenta fosse regulada ou se tornasse estável, respectivamente.

No momento, o ChatGPT passa por escrutínio do governo dos Estados Unidos, que visa regulamentar esta e outras inteligências artificiais para evitar impactos acelerados ao mercado de trabalho.

A regulamentação é defendida até pelo CEO da OpenAI, dona do ChatGPT. 

Proibição pode ter motivos de segurança

No caso da Apple, a preocupação vai além do ChatGPT. O Copilot — inteligência artificial da OpenAI que ajuda a escrever códigos de programação — também foi banido pela Apple.

A proibição pode estar intimamente ligada ao fato da Apple anunciar um programa de inteligência artificial generativa para a Siri, assistente virtual da empresa.

Logo, a proibição, ao que tudo indica, é uma decisão “de segurança”: o ChatGPT “aprende” com cada interação, inclusive obtendo dados inseridos em suas tarefas, o que poderia permitir que códigos desses programas fossem parar na mão da OpenAI.

A própria criadora do chatbot recomenda que informações sensíveis não sejam inseridas na plataforma, já que podem virar “parte” da base de dados do programa.

Porém, isto está longe de ser o único problema: em março deste ano, um bug vazou informações de contas pagas do ChatGPT. A primeira mensagem de cada interação também foi vazada.