Fernanda Massaroto, jornalista Itália
Fernanda Massaroto

Milão – Há quem diga que a imagem deepfake do Papa Francisco vestindo um estiloso casaco puffer branco tenha sido uma das razões pelas quais o órgão italiano para a garantia da proteção de dados pessoais (Garante per la Protezione dei Dati Personali, ou GPDP), decidiu por uma suspensão do ChatGPT por um mês.

A Itália foi o primeiro, e até o momento, o único país a paralisar temporariamente o serviço. A foto criada pelo Midjourney e divulgada no dia 25 de março viralizou, e despertou preocupação em relação ao processo da coleta de dados do serviço.

Apesar de toda a polêmica, críticas e elogios, a suspeita nunca foi confirmada. O que se sabe é que, no dia 31 de março, os usuários italianos não puderam mais usar o ChatGPT, cujo acesso foi novamente liberado em 28 de abril.

Suspensão do ChatGPT chamou atenção do mundo

“Nosso país deu um sinal de alerta ao mundo e chamou a atenção para a questão central da privacidade e do uso do chatbot por menores de idade”, explica Alessia Cruciani, jornalista do caderno de inovação e tecnologia do jornal italiano Corriere della Sera.

Vale lembrar, porém, que o ChatGPT acabou sendo suspenso pela própria empresa, a OpenAI, e que voltou a funcionar depois de esclarecer as dúvidas manifestadas pela GPDP”, observa. 

O verdadeiro temor por parte das autoridades do governo italiano , que levou à suspensão, é a falta de transparência no uso dos dados e conteúdos gerados pelo ChatGPT.

O setor editorial é um dos mais afetados pela IA generativa. Profissionais de marketing e de propaganda sentem seus efeitos positivos e negativos no dia-a-dia.

Na Itália, empresas que lidam com comunicação já deram a largada na adoção da IA. Ao mesmo tempo, a decisão implica em grande responsabilidade quando se fala em ética e segurança.

A Ferpi (Federação Italiana de Relações Públicas) destacou uma equipe para analisar os problemas relacionados à IA na comunicação, com treinamentos e um sistema de coleta, compartilhamento e arquivo de conteúdo à disposição dos sócios.

“Além disso, mantemos o FerpiLab, do qual participam vários estudiosos vindos de diferentes disciplinas de relações públicas. Esse time nos dará a possibilidade de definir um Relationship Innovation para auxiliar as agências a definir modelos de negócios gerados pela IA”, afirma Filippo Nani, presidente da Federação.

Filippo Nani, Presidente da Federação Italiana de Relações Públicas
Filippo Nani

Desinformação de IAs como o ChatGPT preocupa imprensa e empresas

O perigo da desinformação atormenta jornalistas e comunicadores. Dados falsos, inventados ou criados para desacreditar personalidades e empresas alimentam as redes sem nenhum controle, abastecendo os sistemas de inteligência artificial.

“O jornalista que leva a sério a profissão sobreviverá, resistirá aos encantos da notícia fácil e será capaz de identificar o que é fake news sem grandes problemas”, aposta Alessia Cruciane, do Corriere della Sera.

Especialistas em RP estão na mesma sintonia. No caso de agências e departamentos de comunicação corporativa, o dano pode ser imenso se uma notícia equivocada for distribuída para a imprensa ou acionistas.

“A credibilidade é tudo para nossos membros. Difundir conteúdos falsos ou dados manipulados representaria uma sentença de morte, destruindo nossa reputação”, reflete o presidente da Federação Italiana de Relações Públicas.

“O nível de atenção deve ser redobrado e o cuidado com a qualidade do conteúdo proveniente do ‘chabot’ deve ser máximo. Todo cuidado é pouco”.

No caso das agências de marketing e comunicação, a privacidade dos dados, principalmente quando envolve menores de idade, aflige os profissionais.

A suspensão do ChatGPT na Itália ocorreu justamente depois que o GPDP questionou a coleta ilícita de dados pessoais e a ausência de sistemas de comprovação de idade.

Em seu site, a autoridade italiana explicou que as informações fornecidas pelo ChatGPT nem sempre correspondem à realidade, determinando assim um tratamento inexato dos dados pessoais. Na nota divulgada se lê:

“Por fim, nos termos divulgados pela OpenAI, o serviço se destina a maiores de 13 anos e a inexistência de qualquer filtro de controle etário pode expor menores a respostas absolutamente inadequadas em relação ao seu grau de desenvolvimento e auto-consciência”.

A resolução surtiu efeito e a empresa americana acabou voluntariamente suspendendo o aplicativo e adicionando filtros como a necessidade de uma prévia autorização por parte dos pais.

De qualquer forma, dúvidas pairam sobre tal decisão. Quem certifica a veracidade dos dados?

A solução, por ora, é a regulamentação por parte dos governos. A Comunidade Econômica Europeia trabalha na publicação de uma cartilha oficial. Quem difundir conteúdo falso será responsabilizado e penalizado.

“O importante é que não só as instâncias oficiais se pronunciem, mas também as empresas e comunicadores, definindo um código de ética”.

“A realidade é que tecnologias revolucionárias se propagam de forma rápida e imprevisível, com benefícios e riscos. E o legislador não consegue determinar com a mesma velocidade as regras necessárias para proteger o cidadão”, completa Alesssa Cruciani.

“Regulamentar IA é absolutamente essencial”

O italiano Nello Cristianini leciona inteligência artificial na Universidade de Bath, na Inglaterra, e acaba de lançar o livro Scorciatoia (Atalho) – como as máquinas se tornaram inteligentes sem o pensamento humano.

Ele observa que a IA não é uma invenção recente, e que já a usamos diariamente em plataformas digitais quando os algoritmos nos recomendam conteúdos.

Cristianini acredita que a tecnologia é importante e revolucionária, apesar de riscos como turbulência no mercado de trabalho e fake news.

O professor defende a regulamentação do acesso e uso de dados, como já está fazendo a Europa, principalmente para evitar o avanço da desinformação.


Edição especial MediaTalks sobre Inteligência ArtificialEste artigo faz parte do Especial ‘Os desafios da ESG na era da Inteligência Artificial

Leia aqui a edição completa.

Edição Especial ESG e Inteligência Artificial MediaTalks