MediaTalks em UOL

Antonio Zappulla | Thomson Reuters Foundation: ‘A Inteligência Artificial é o novo campo de batalha pela confiança’

Antonio Zappulla falando na Trust Conference da Thomson Reuters Foundation sobre confiança na inteligência artificial

Thomson Reuters Foundation / Antonio Zapplla falando no Forum Trust Conference 2024 da Fundação

Londres – “A inteligência artificial é claramente o novo campo de batalha pela confiança, provocando ansiedade, mas também prometendo avanços e novas oportunidades”, afirmou o jornalista Antonio Zappulla, que preside desde 2019 a Thomson Reuters Foundation

Durante a Trust Conference 2024, encontro anual realizado pela organização em Londres, ele destacou os riscos e oportunidades da IA e seu impacto potencial sobre a confiança do público no jornalismo, nas instituições, na democracia e no mundo corporativo. 

“Sabemos que não é suficiente acompanhar o desenvolvimento da IA – precisamos estar um passo à frente quando se trata de regulamentação e adoção ética se quisermos aproveitar suas oportunidades em vez de exacerbar os danos potenciais. Isso requer cooperação e colaboração entre os setores público e privado e garantia de pluralidade de vozes, não apenas com assento à mesa mas sendo ouvidas”, disse Zappulla ao MediaTalks

O jornalista foi o arquiteto da conferência que reuniu mais de 600 participantes de 45 países nos dias 21 e 22 de outubro para um mergulho profundo em temas interconectados e que levam a um destino comum: a democracia saudável, que é boa para as pessoas e para os negócios. 

Fizeram parte da agenda temas como desinformação, polarização, inteligência artificial, assédio judicial a jornalistas e aos advogados que os defendem, jornalismo em guerras ou no exílio e o futuro dos princípios ESG (Environment, Social, Governance) como instrumento para corporações não perderem de vista seu compromisso com o desenvolvimento sustentável – e a responsabilidade dos líderes de manter essa chama acesa.

Antonio Zappulla falando na Trust Conference da Thomson Reuters Foundation sobre confiança na inteligência artificial
Thomson Reuters Foundation / Antonio Zapplla falando no Forum Trust Conference 2024 da Fundação

“Aconteça o que acontecer com a terminologia de ESG, vejo grande potencial para a mídia e as corporações reforçarem uma estrutura para práticas empresariais mais responsáveis.”

Zappulla foi reconhecido com a Ordem do Mérito da República Italiana (OMRI) pelo seu seu trabalho como jornalista e pelas iniciativas em prol da liberdade de imprensa.

Ele tem preocupações com o contexto atual, mas não está entre os que só veem nuvens negras no horizonte. Ao mesmo tempo em que é incisivo sobre a necessidade de regras para que erros do passado não se repitam, destaca os aspectos promissores da IA.

A deterioração da democracia 

“Este é um momento histórico, pois estamos testemunhando um rápido progresso tecnológico, mas também um claro declínio democrático.

Em todo o mundo, vemos como a disseminação da IA, o uso da lei como arma para silenciar vozes críticas, o aumento da polarização política, a perseguição à imprensa, a desinformação e a subversão de modelos de negócios estão convergindo para impactar a confiança no jornalismo.”

Erosão de confiança na mídia: ‘extremamente alarmante’

“Quando informações precisas são mais necessárias do que nunca, a erosão da confiança na mídia é extremamente alarmante.

Sem confiança, o jornalismo é incapaz de desempenhar seu papel vital nas sociedades democráticas – seja responsabilizando o poder ou capacitando os cidadãos a tomar decisões mais informadas.

Todos os que investem na proteção do fluxo livre de informações precisas, imparciais e críticas – de governos a advogados, da sociedade civil a ativistas – precisam trabalhar juntos para fortalecer o ecossistema, para que uma imprensa livre sobreviva e prospere.”

IA, uma tecnologia que as pessoas mal entendem 

“A explosão da inteligência artificial, uma tecnologia que a grande maioria das pessoas ainda não entende bem, já está remodelando as regras da democracia.

A consultoria PWC estima que até 2030, a contribuição da IA para a economia global será de quase 16 trilhões de dólares. Os maiores ganhos econômicos ocorrerão na China e nos EUA, com previsão de aumentar o PIB desses países em 26% e 14,5%, respectivamente, apenas nos próximos seis anos.

A última Pesquisa Global sobre IA conduzida pela consultoria McKinsey indica que 65% dos entrevistados trabalham em organizações que usam regularmente a IA generativa.”

Precisão e segurança de dados no centro do debate 

“O ChatGPT tem cerca de 200 milhões de usuários ativos por mês, representando 70% da participação de mercado total de todas as ferramentas de IA.

No Reino Unido, esse mercado vale aproximadamente 17 bilhões de libras e deve crescer para mais de 800 bilhões de libras em dez anos.

E quando se trata de preocupações em torno da IA, há um consenso universal: tudo se resume à precisão e à segurança dos dados.”

Impacto no mercado de trabalho 

“Existem medos relacionados à adoção da IA, como imprecisão, privacidade, viés e o impacto no mundo do trabalho. A McKinsey prevê que até 2030, a adoção da IA pode afetar cerca de 15% da força de trabalho global.

O Relatório sobre o Futuro dos Empregos do Fórum Econômico Mundial prevê que 85 milhões de empregos serão perdidos até o ano que vem, mas também que 97 milhões de novos empregos serão criados no mesmo período.”

Privacidade e preconceito 

“As aplicações potenciais para as ferramentas de IA são muitas, diversas e fascinantes, mas trazem desafios e riscos. O preconceito é uma área de crescente preocupação.

ONGs de privacidade de dados nos EUA, por exemplo, estão preocupadas com modelos de IA baseados em dados históricos de crimes que prometem ajudar a prever quem tem potencial de cometer delitos e em quais locais. Ativistas dizem que isso já resultou em novas formas de discriminação.

Os sistemas de IA que promovem desigualdades e prejudicam os direitos humanos se tornarão ainda mais perigosos se não forem controlados, especialmente em um momento em que enfrentamos uma corrida global para criar, moldar e deter essa poderosa tecnologia.”

Confiança na inteligência artificial depende de transparência 

Origem do conteúdo jornalístico 

“O debate em torno da transparência sobre a origem do conteúdo é importante, já que mais e mais redações estão explorando o uso da IA generativa na produção, em vez de apenas tarefas de bastidores.

Porém, as preocupações éticas ainda são altas. Jornalistas querem ferramentas de IA que sejam facilmente compreendidas, que os façam se sentir no controle e que as diretrizes éticas sejam definidas desde o início. E os consumidores de notícias querem transparência.

Obter o equilíbrio entre aproveitar a inteligência artificial para impulsionar a eficiência e a produtividade na redação em sintonia com os padrões jornalísticos de precisão, transparência e confiança é essencial e de forma alguma impossível.”

O impacto das Big Techs no jornalismo- lições para a era da IA

“A imprensa ainda está se recuperando após perder seus modelos de publicidade e distribuição para as empresas de mídia digital, comprovando os efeitos significativos e de longo prazo que a tecnologia pode ter na sustentabilidade e viabilidade da atividade.

Há comparações importantes que podem, e devem, ser traçadas entre esses momentos na jornada do avanço tecnológico. Aprendizados sobre a regulamentação de plataformas de mídia social devem ser aplicados urgentemente às conversas em torno da governança ética e da regulamentação da IA.”

Direitos autorais e compensação para criadores 

O desequilíbrio de poder entre empresas de mídia digital e organizações jornalísticas criou uma dinâmica de “o vencedor leva a maior parte”, com as plataformas tendo a capacidade de decidir o que elas consideram “valioso” o suficiente para se envolver e negociar.

Como vimos até agora, os beneficiados pelas plataformas são frequentemente os veículos de mídia tradicionais, mas há uma necessidade crítica de que veículos menores e independentes sejam protegidos, pois são essenciais para um ecossistema de mídia vibrante e pluralista.”

O modelo britânico

O Digital Markets Act do Reino Unido é um exemplo de como a legislação pode equilibrar o jogo quando se trata de licenciamento, ao obrigar as maiores empresas de tecnologia a se sentarem e negociarem com qualquer empresa da qual dependam para seus serviços — incluindo as de IA que usam o conteúdo protegido por direitos autorais de canais menores para treinar seus sistemas.

Isso não quer dizer que a legislação seja uma bala de prata. Sem dúvida haverá desafios significativos para descobrir quanto material de treinamento foi extraído e o valor desse conteúdo. Mas certamente é um passo na direção certa.”

A necessidade da adoção responsável 

“O setor corporativo desempenhará um papel vital na forma como as tecnologias de IA serão desenvolvidas e implantadas em operações comerciais, processos internos e produtos, em um contexto em que tanto os governos quanto a imprensa perderam confiança do público. 

A questão com a qual todo CEO e todo conselho corporativo está lidando é: como equilibrar a competição e a inovação com risco, responsabilidade e potenciais impactos aos direitos humanos.”


Sair da versão mobile