MediaTalks em UOL

Itália e a IA: Papa estiloso, suspensão do ChatGPT e uso da tecnologia no radar da Federação de Relações Públicas

Imagem deepfake do Papa Francisco vestindo um casaco puffer branco

Imagem deepfake do Papa Francisco vestindo um estiloso casaco puffer branco / Reprodução

Fernanda Massaroto

Milão – Há quem diga que a imagem deepfake do Papa Francisco vestindo um estiloso casaco puffer branco tenha sido uma das razões pelas quais o órgão italiano para a garantia da proteção de dados pessoais (Garante per la Protezione dei Dati Personali, ou GPDP), decidiu por uma suspensão do ChatGPT por um mês.

A Itália foi o primeiro, e até o momento, o único país a paralisar temporariamente o serviço. A foto criada pelo Midjourney e divulgada no dia 25 de março viralizou, e despertou preocupação em relação ao processo da coleta de dados do serviço.

Apesar de toda a polêmica, críticas e elogios, a suspeita nunca foi confirmada. O que se sabe é que, no dia 31 de março, os usuários italianos não puderam mais usar o ChatGPT, cujo acesso foi novamente liberado em 28 de abril.

Suspensão do ChatGPT chamou atenção do mundo

“Nosso país deu um sinal de alerta ao mundo e chamou a atenção para a questão central da privacidade e do uso do chatbot por menores de idade”, explica Alessia Cruciani, jornalista do caderno de inovação e tecnologia do jornal italiano Corriere della Sera.

Vale lembrar, porém, que o ChatGPT acabou sendo suspenso pela própria empresa, a OpenAI, e que voltou a funcionar depois de esclarecer as dúvidas manifestadas pela GPDP”, observa. 

O verdadeiro temor por parte das autoridades do governo italiano , que levou à suspensão, é a falta de transparência no uso dos dados e conteúdos gerados pelo ChatGPT.

O setor editorial é um dos mais afetados pela IA generativa. Profissionais de marketing e de propaganda sentem seus efeitos positivos e negativos no dia-a-dia.

Na Itália, empresas que lidam com comunicação já deram a largada na adoção da IA. Ao mesmo tempo, a decisão implica em grande responsabilidade quando se fala em ética e segurança.

A Ferpi (Federação Italiana de Relações Públicas) destacou uma equipe para analisar os problemas relacionados à IA na comunicação, com treinamentos e um sistema de coleta, compartilhamento e arquivo de conteúdo à disposição dos sócios.

“Além disso, mantemos o FerpiLab, do qual participam vários estudiosos vindos de diferentes disciplinas de relações públicas. Esse time nos dará a possibilidade de definir um Relationship Innovation para auxiliar as agências a definir modelos de negócios gerados pela IA”, afirma Filippo Nani, presidente da Federação.

Filippo Nani

Desinformação de IAs como o ChatGPT preocupa imprensa e empresas

O perigo da desinformação atormenta jornalistas e comunicadores. Dados falsos, inventados ou criados para desacreditar personalidades e empresas alimentam as redes sem nenhum controle, abastecendo os sistemas de inteligência artificial.

“O jornalista que leva a sério a profissão sobreviverá, resistirá aos encantos da notícia fácil e será capaz de identificar o que é fake news sem grandes problemas”, aposta Alessia Cruciane, do Corriere della Sera.

Especialistas em RP estão na mesma sintonia. No caso de agências e departamentos de comunicação corporativa, o dano pode ser imenso se uma notícia equivocada for distribuída para a imprensa ou acionistas.

“A credibilidade é tudo para nossos membros. Difundir conteúdos falsos ou dados manipulados representaria uma sentença de morte, destruindo nossa reputação”, reflete o presidente da Federação Italiana de Relações Públicas.

“O nível de atenção deve ser redobrado e o cuidado com a qualidade do conteúdo proveniente do ‘chabot’ deve ser máximo. Todo cuidado é pouco”.

No caso das agências de marketing e comunicação, a privacidade dos dados, principalmente quando envolve menores de idade, aflige os profissionais.

A suspensão do ChatGPT na Itália ocorreu justamente depois que o GPDP questionou a coleta ilícita de dados pessoais e a ausência de sistemas de comprovação de idade.

Em seu site, a autoridade italiana explicou que as informações fornecidas pelo ChatGPT nem sempre correspondem à realidade, determinando assim um tratamento inexato dos dados pessoais. Na nota divulgada se lê:

“Por fim, nos termos divulgados pela OpenAI, o serviço se destina a maiores de 13 anos e a inexistência de qualquer filtro de controle etário pode expor menores a respostas absolutamente inadequadas em relação ao seu grau de desenvolvimento e auto-consciência”.

A resolução surtiu efeito e a empresa americana acabou voluntariamente suspendendo o aplicativo e adicionando filtros como a necessidade de uma prévia autorização por parte dos pais.

De qualquer forma, dúvidas pairam sobre tal decisão. Quem certifica a veracidade dos dados?

A solução, por ora, é a regulamentação por parte dos governos. A Comunidade Econômica Europeia trabalha na publicação de uma cartilha oficial. Quem difundir conteúdo falso será responsabilizado e penalizado.

“O importante é que não só as instâncias oficiais se pronunciem, mas também as empresas e comunicadores, definindo um código de ética”.

“A realidade é que tecnologias revolucionárias se propagam de forma rápida e imprevisível, com benefícios e riscos. E o legislador não consegue determinar com a mesma velocidade as regras necessárias para proteger o cidadão”, completa Alesssa Cruciani.

“Regulamentar IA é absolutamente essencial”

O italiano Nello Cristianini leciona inteligência artificial na Universidade de Bath, na Inglaterra, e acaba de lançar o livro Scorciatoia (Atalho) – como as máquinas se tornaram inteligentes sem o pensamento humano.

Ele observa que a IA não é uma invenção recente, e que já a usamos diariamente em plataformas digitais quando os algoritmos nos recomendam conteúdos.

Cristianini acredita que a tecnologia é importante e revolucionária, apesar de riscos como turbulência no mercado de trabalho e fake news.

O professor defende a regulamentação do acesso e uso de dados, como já está fazendo a Europa, principalmente para evitar o avanço da desinformação.


Este artigo faz parte do Especial ‘Os desafios da ESG na era da Inteligência Artificial

Leia aqui a edição completa.

 

 

 

Sair da versão mobile