Milão – Há quem diga que a imagem deepfake do Papa Francisco vestindo um estiloso casaco puffer branco tenha sido uma das razões pelas quais o órgão italiano para a garantia da proteção de dados pessoais (Garante per la Protezione dei Dati Personali, ou GPDP), decidiu por uma suspensão do ChatGPT por um mês.
A Itália foi o primeiro, e até o momento, o único país a paralisar temporariamente o serviço. A foto criada pelo Midjourney e divulgada no dia 25 de março viralizou, e despertou preocupação em relação ao processo da coleta de dados do serviço.
Apesar de toda a polêmica, críticas e elogios, a suspeita nunca foi confirmada. O que se sabe é que, no dia 31 de março, os usuários italianos não puderam mais usar o ChatGPT, cujo acesso foi novamente liberado em 28 de abril.
Suspensão do ChatGPT chamou atenção do mundo
“Nosso país deu um sinal de alerta ao mundo e chamou a atenção para a questão central da privacidade e do uso do chatbot por menores de idade”, explica Alessia Cruciani, jornalista do caderno de inovação e tecnologia do jornal italiano Corriere della Sera.
Vale lembrar, porém, que o ChatGPT acabou sendo suspenso pela própria empresa, a OpenAI, e que voltou a funcionar depois de esclarecer as dúvidas manifestadas pela GPDP”, observa.
O verdadeiro temor por parte das autoridades do governo italiano , que levou à suspensão, é a falta de transparência no uso dos dados e conteúdos gerados pelo ChatGPT.
O setor editorial é um dos mais afetados pela IA generativa. Profissionais de marketing e de propaganda sentem seus efeitos positivos e negativos no dia-a-dia.
Na Itália, empresas que lidam com comunicação já deram a largada na adoção da IA. Ao mesmo tempo, a decisão implica em grande responsabilidade quando se fala em ética e segurança.
Leia também | Europa aprova projeto de lei para IA baseado em classificação de riscos; veja como vai funcionar
A Ferpi (Federação Italiana de Relações Públicas) destacou uma equipe para analisar os problemas relacionados à IA na comunicação, com treinamentos e um sistema de coleta, compartilhamento e arquivo de conteúdo à disposição dos sócios.
“Além disso, mantemos o FerpiLab, do qual participam vários estudiosos vindos de diferentes disciplinas de relações públicas. Esse time nos dará a possibilidade de definir um Relationship Innovation para auxiliar as agências a definir modelos de negócios gerados pela IA”, afirma Filippo Nani, presidente da Federação.
Desinformação de IAs como o ChatGPT preocupa imprensa e empresas
O perigo da desinformação atormenta jornalistas e comunicadores. Dados falsos, inventados ou criados para desacreditar personalidades e empresas alimentam as redes sem nenhum controle, abastecendo os sistemas de inteligência artificial.
“O jornalista que leva a sério a profissão sobreviverá, resistirá aos encantos da notícia fácil e será capaz de identificar o que é fake news sem grandes problemas”, aposta Alessia Cruciane, do Corriere della Sera.
Especialistas em RP estão na mesma sintonia. No caso de agências e departamentos de comunicação corporativa, o dano pode ser imenso se uma notícia equivocada for distribuída para a imprensa ou acionistas.
“A credibilidade é tudo para nossos membros. Difundir conteúdos falsos ou dados manipulados representaria uma sentença de morte, destruindo nossa reputação”, reflete o presidente da Federação Italiana de Relações Públicas.
“O nível de atenção deve ser redobrado e o cuidado com a qualidade do conteúdo proveniente do ‘chabot’ deve ser máximo. Todo cuidado é pouco”.
No caso das agências de marketing e comunicação, a privacidade dos dados, principalmente quando envolve menores de idade, aflige os profissionais.
Leia também | Meta reage contra multa de US$ 1,3 bilhão na Europa por privacidade de dados: “injustificada e desnecessária”
A suspensão do ChatGPT na Itália ocorreu justamente depois que o GPDP questionou a coleta ilícita de dados pessoais e a ausência de sistemas de comprovação de idade.
Em seu site, a autoridade italiana explicou que as informações fornecidas pelo ChatGPT nem sempre correspondem à realidade, determinando assim um tratamento inexato dos dados pessoais. Na nota divulgada se lê:
“Por fim, nos termos divulgados pela OpenAI, o serviço se destina a maiores de 13 anos e a inexistência de qualquer filtro de controle etário pode expor menores a respostas absolutamente inadequadas em relação ao seu grau de desenvolvimento e auto-consciência”.
A resolução surtiu efeito e a empresa americana acabou voluntariamente suspendendo o aplicativo e adicionando filtros como a necessidade de uma prévia autorização por parte dos pais.
De qualquer forma, dúvidas pairam sobre tal decisão. Quem certifica a veracidade dos dados?
A solução, por ora, é a regulamentação por parte dos governos. A Comunidade Econômica Europeia trabalha na publicação de uma cartilha oficial. Quem difundir conteúdo falso será responsabilizado e penalizado.
“O importante é que não só as instâncias oficiais se pronunciem, mas também as empresas e comunicadores, definindo um código de ética”.
“A realidade é que tecnologias revolucionárias se propagam de forma rápida e imprevisível, com benefícios e riscos. E o legislador não consegue determinar com a mesma velocidade as regras necessárias para proteger o cidadão”, completa Alesssa Cruciani.
Leia também | ONU quer agência internacional para monitorar riscos e supervisionar uso da IA no mundo
“Regulamentar IA é absolutamente essencial”
O italiano Nello Cristianini leciona inteligência artificial na Universidade de Bath, na Inglaterra, e acaba de lançar o livro Scorciatoia (Atalho) – como as máquinas se tornaram inteligentes sem o pensamento humano.
Ele observa que a IA não é uma invenção recente, e que já a usamos diariamente em plataformas digitais quando os algoritmos nos recomendam conteúdos.
Cristianini acredita que a tecnologia é importante e revolucionária, apesar de riscos como turbulência no mercado de trabalho e fake news.
O professor defende a regulamentação do acesso e uso de dados, como já está fazendo a Europa, principalmente para evitar o avanço da desinformação.
Leia aqui a edição completa.