Londres -Lançado em 30 de novembro de 2022, o ChatGPT vai completar um ano de vida, mas a data acabou ofuscada pela demissão de Sam Altman, CEO da OpenIA − sem explicação sobre o que ele teria escondido do conselho para merecer um tratamento incomum no mundo corporativo, gerando uma novela na mídia e um alvoroço no Vale do Silício que seguem firmes mesmo após sua recondução.
As especulações sobre se a demissão da principal estrela da inteligência artificial generativa estaria relacionada à segurança foram inevitáveis, o que é consistente com as incertezas em torno da tecnologia e do que ela pode representar para o futuro da humanidade.
Embora ela não tenha sido inventada pela OpenIA, o ChatGPT foi o divisor de águas e provocou a concorrência. O Google entrou na briga com o Bard. Agora, Elon Musk chega com seu Grok, que parece inspirado no dono, respondendo aos prompts dos usuários com ironias.
Em 1 ano de ChatGPT, pouca regulamentação
Mas muitos questionamentos sobre privacidade, direitos autorais e desinformação continuam sem resposta. E as regulamentações ainda não saíram do papel na maioria dos países um ano após a explosão do ChatGPT.
No meio dessa confusão, a Repórteres Sem Fronteiras deu um passo importante. Na semana passada, a organização publicou uma carta de princípios para guiar o uso da IA generativa pelo jornalismo.
O texto foi elaborado por uma comissão de notáveis de vários países − nenhum do Brasil −, liderada pela jornalista filipina Maria Ressa, detentora do Nobel da Paz de 2021.
Ressa tem credenciais para falar sobre o tema que vão além de seu prêmio. Ela é uma crítica feroz das redes sociais e de sua dificuldade em controlar desinformação e discurso de ódio, riscos também associados à IA.
Ao apresentar a chamada Carta de Paris, ela destacou que a inteligência artificial pode prestar serviços notáveis à humanidade, “mas tem claramente o potencial de ampliar a manipulação das mentes em dimensões sem precedentes na história”.
Para a jornalista, a evidência factual, a distinção clara entre conteúdo autêntico e sintético, a independência editorial e a responsabilidade humana serão as principais garantias para o direito a notícias e informações confiáveis na era da IA.
Leia também | Brasil é o 23º em liberdade na internet entre 70 nações; relatório alerta para ‘poder repressivo’ da IA
Os princípios da RSF para uso da IA no jornalismo
A carta tem dez princípios:
- A ética jornalística deve guiar o uso da IA por empresas de mídia e profissionais, sendo colocada a serviço dos valores essenciais da atividade, como veracidade, precisão, justiça, imparcialidade, independência, não-lesão, não-discriminação, responsabilização e respeito pela privacidade e pelo sigilo das fontes.
- Os meios de comunicação priorizarão os seres humanos ao usarem a IA, tanto na tomada de decisões sobre estratégias de longo prazo quanto nas escolhas editoriais diárias.
- Os sistemas de IA utilizados no jornalismo devem ser submetidos a avaliações independentes por parte de entidades do setor − como a própria RSF.
- As empresas jornalísticas assumirão a responsabilidade pelo conteúdo resultante do uso da IA em apuração, produção ou distribuição de notícias.
- Os meios de comunicação deverão ser transparentes, divulgando ao público se a IA teve participação significativa no conteúdo − ainda falta definir a extensão de “significativa”.
Leia também | Fotógrafo cria polêmica ao devolver prêmio por foto gerada com inteligência artificial
- Ferramentas de última geração devem ser adotadas para garantir a autenticidade de origem de conteúdos veiculados, minimizando o risco de conteúdos falsos.
- O jornalismo deve estabelecer uma linha clara entre conteúdo real e sintético, e evitar o uso de recursos que simulem situações ou pessoas reais.
- A personalização de conteúdos deve ser orientada pela ética, promovendo perspectivas diferenciadas sobre vários temas e dando aos usuários a opção de desativar preferências para ter acesso a conteúdo não filtrado.
- Empresas jornalísticas e associações devem ter papel na governança e regulamentação da IA.
- O jornalismo deve preservar sua base ética e econômica no engajamento com organizações de IA, assegurando acordos que garantam a sustentabilidade econômica e os diretos autorais.
Como toda carta de princípios, o documento da comissão criada pela Repórteres Sem Fronteiras pouco antes do marco de um ano do ChatGPT é cheio de boas intenções, e algumas de suas propostas não dependem apenas de jornalistas, redações ou empresas de mídia.
Mas é um bom começo − e muito melhor do que não fazer nada, especialmente quando nem os líderes da IA estão se entendendo.
Leia também | Desinformação e IA: o medo é exagerado? Pesquisador de Oxford acha que sim