IA e os valores ESG
A inteligência artificial já faz parte do cotidiano da maioria das pessoas e empresas sem que muitos se deem conta disso – posts exibidos nos feeds das redes sociais e sugestões de filmes para streaming são exemplos. Mas o lançamento do ChatGPT colocou a IA generativa ao alcance de pessoas comuns, de redações jornalísticas de qualquer tamanho, de produtores de conteúdo para diversos tipos de mídia e de uma vasta gama de profissionais dos setores público e privado, levantando ondas de entusiasmo, medo e incerteza.
A popularização da IA terá impacto sobre vários elementos da agenda de valores corporativos ESG (Environment, Social, Governance), princípios que orientam a forma como as empresas socialmente responsáveis operam e se relacionam com a sociedade em aspectos como geração de empregos, uso de dados pessoais de clientes, sustentabilidade ambiental, diversidade e transparência de suas atividades e intolerância com corrupção.
Em uma reportagem especial, profissionais, consultores e acadêmicos de vários países analisam riscos e oportunidades no uso da inteligência artificial generativa pelas organizações e na comunicação com o público, abordando temas como ética, regulamentação e riscos para empregos, bem como a adoção da IA nas práticas da comunicação corporativa. A edição completa pode ser vista aqui.
Oportunidades e riscos
Reputação corporativa em jogo
A chamada ‘quarta revolução industrial’ da IA acontece em um momento em que o futuro da agenda ESG tem sido colocado em dúvida, em meio a um cenário econômico global adverso que faz com que grandes investidores, sobretudo nos EUA, se mostrem contrários a empregar recursos que não gerem lucros imediatos – incluindo ações para melhorar a sustentabilidade ambiental ou políticas inclusivas.
Nesse contexto, dois efeitos da IA podem ser positivos para o mundo. A tecnologia tem o potencial de ajudar as empresas a melhorarem o desempenho e o impacto social, ajudando a tornar as operações mais sustentáveis, por exemplo.
E ela torna a performance das corporações à luz dos pilares ESG ainda mais sujeita a escrutínio da imprensa, do público, dos investidores e dos reguladores, pois o acesso a dados e informações é mais extenso e eficiente.
Por isso, as empresas que se preocupam com a sua reputação ou dependem dela para fazer negócios têm o desafio de empregar a IA da melhor forma, protegendo-se de riscos potenciais para a imagem corporativa ou para os negócios.
IA nos negócios e influência sobre a sociedade
Entre esses riscos estão a exposição à desinformação, o uso da tecnologia sem preocupações com a ética, os cortes na força de trabalho que podem comprometer a imagem de contribuição para as economias locais, e o chamado viés algorítmico, gerando discriminação em processos seletivos ou em decisões tomadas pelas máquinas que afetem consumidores e funcionários.
Um dos grandes medos em relação à IA é que os conjuntos de dados disponíveis para alimentar os serviços de geração de imagem e texto são limitados, e não refletem o conjunto da sociedade.
Leia também | ESG e Inteligência Artificial: junto com as oportunidades, vêm os riscos reputacionais
O que pensam os líderes
CEOs e a inteligência artificial
Líderes empresariais estão atentos e preocupados com a inteligência artificial, como demonstrou outro estudo da consultoria E&Y consolidando a opinião de 1,2 mil CEOs.
- 65% acham que a IA é uma força para o bem, mas creem que há muito trabalho pela frente para administrar riscos sociais, éticos e legais – de ataques cibernéticos a deepfakes
- 88% já investiram ou planejam inves- tir em inovações baseadas em IA
Segundo a consultoria, os líderes também estão atentos aos “efeitos colaterais”, refletindo temores manifestados até por cientistas envolvidos no desenvolvimento das ferramentas que se tornaram populares recentemente.
ChatGPT, guia de investimentos
Investidores já descobriram o poder da inteligência artificial generativa.
A quarta edição anual do Investor Index, enquete realizada pela agência AML Group e pela empresa de pesquisas The Nursery no Reino Unido, constatou que 73% deles acreditam que o ChatGPT pode fornecer aconselhamento financeiro confiável.
Entre os mais jovens (18 a 34 anos), 42% já utilizaram a ferramenta com essa finalidade, enquanto 54% de investidores acima dos 65 anos acreditam em seu potencial para auxiliar na tomada de decisões – o que inclui examinar melhor as práticas ESG das companhias.
Oliver Edholm, pesquisador e empresário
Lições suecas sobre ética e eficiência no uso da inteligência artificial
Na Suécia, país reconhecido pela inovação tecnológica, o governo não esperou a tecnologia se tornar popular para começar a administrar seu uso.
A jornalista brasileira Claudia Wallin conta que o centro nevrálgico da tecnologia no país é o AI Sweden, criado pelo governo em 2019.
Trata-se de um poderoso hub que reúne atores dos setores público, privado e da academia, com a missão de acelerar o seu uso em benefício da sociedade e da competitividade.
Ao mesmo tempo, os suecos se debruçam sobre os dilemas éticos da IA. Para fazer frente a este desafio, foi criado o AI Ethics Lab – o ‘laboratório de ética’ que funciona como uma divisão do centro nacional.
O ‘laboratório de ética’ sueco trabalha com casos reais, reunidos em um banco de dados destinado a proporcionar a empresas privadas, organizações e gestores públicos um guia sobre como incorporar padrões éticos em seus projetos.
Limites esgarçados
Um dos expoentes na área da tecnologia no país é um jovem empreendedor e pesquisador de 21 anos, Oliver Edholm (foto), dono da principal plataforma de recomendação de produtos na Escandinávia.
Ele é um dos que se posiciona contra os riscos da ética ao usar a IA nos negócios:
“É sempre possível cair na armadilha de achar que podemos esgarçar um pouco nossos princípios porque somos mais éticos do que o nosso concorrente, e se ele vencer a corrida, isso não seria bom. Mas acho que é justamente aí que se deve dizer: ‘não, nós temos nossos princípios, e é importante mantê-los’.
O uso ético da inteligência artificial generativa também está na pauta dos departamentos e agências que divulgam as ações das empresas e administram sua imagem pública.
O sueco Jerry Silfwer, CEO da agência de marketing Spin Factory, aposta no que chamou de “uma explosão épica de conteúdos”, desafiando as empresas a capturem a atenção de suas audiências.
Leia também | Entrevista | Jerry Silfwer, CEO da agência sueca Spin Factory: ‘teremos uma explosão épica de conteúdos’
Katie King, AI In Business
IA vai mais remodelar do que substituir empregos, aposta consultora
A consultora britânica Katie King, CEO da empresa AI In Business, tem acompanhado a absorção da inteligência artificial dentro das empresas.
Autora do livro ‘Using Artificial Intelligence in Business’, ela reconhece as incertezas que pairam sobre a IA.
“Dizer que qualquer líder ou profissional está totalmente ciente das oportunidades e riscos da tecnologia é uma afirmação ousada.”
King admite que empregos serão perdidos, mas acredita que a IA” irá mais remodelar do que substituir”.
Impacto ambiental da IA
Ela minimizou o impacto ambiental da inteligência artificial, que consome grandes volumes de energia para processar dados, o que poderá ser contrabalançado com seu uso para melhorar a gestão de recursos naturais.
A consultora acredita que a regulamentação está no topo da agenda de muitas organizações e governos, e que a legislação da União Europeia vai virar modelo para países e regiões, criando um efeito dominó.
Ela vê com entusiasmo a adoção da IA generativa por profissionais que promovem e defendem marcas e empresas, por capacitá-los a atuar de forma mais científica e eficiente.
E dá um conselho a quem teme perder o emprego: “é importante entender o que essa tecnologia pode e não pode fazer”.
Leia também | Entrevista | Katie King, CEO AI In Business: ‘IA simplifica processos de RP e aumenta eficácia’
Dorothy Leidner, Universidade de Virginia
Empresas ‘testando’ as águas da IA
Do outro lado do Atlântico, as incertezas também persistem.
Entrevistada pela correspondente brasileira nos EUA Eloá Orazem, Dorothy Leidner, professora de Ética nos Negócios com foco em inteligência artificial da Universidade de Virgínia, disse achar que o mundo empresarial ainda está ‘testando as águas’ da tecnologia, pois suas aplicações e implicações ainda são desconhecidas.
Mas ela salienta que uma coisa já se sabe: a inteligência artificial segue à risca uma missão, o que pode se transformar em um problema, se padrões éticos não forem observados.
Leia também | EUA: ‘Ainda estamos testando as águas da IA nas empresas’, alerta professora de ética nos negócios
Nils Köbis, Max Planck Institute
A IA sabe separar o bem do mal?
Também entrevistado por Eloá Orazem, o pesquisador Nils Köbis, do Max Planck Institute, especializado em ética na era digital, compartilhou sua preocupação com a forma como incorporamos os algoritmos e os conselhos que recebemos da IA, citando casos de pessoas que obedeceram às instruções de sistemas de navegação e caíram em rios por acreditar que havia uma ponte ali.
“Se seguirmos cegamente as diretrizes, podemos literalmente dar com os burros n’água.”
Ele enumera quatro influências da IA no comportamento ético, que se aplicam tanto a pessoas quanto a empresas: quando ela serve como modelo; como conselheira; como ‘parceira ativa’ de um ato que pode não ser o mais correto e quando delegamos decisões a ela.
Sob essa ótica, ele defende rigor no monitoramento do uso da IA pelas empresas, para que não leve a situações em que os algoritmos deem conselhos ou tomem decisões sobre preços, por exemplo, priorizando o benefício individual ou o apenas o lucro – e passando por cima da ética.
Leia também | Entrevista | Nils Köbis, Max Planck Institute: ‘existe o risco de a IA não separar o bem do mal’
Alexandre Ditzend, Sociedade Argentina de IA
Regulamentar é fundamental
Dentre as poucas certezas sobre a inteligência artificial está a necessidade de regulamentação. Um dos que a defende é Alexandre Ditzend, presidente da Sociedade Argentina de Inteligência Artificial.
Em uma conversa em Buenos Aires com a correspondente Marcia Carmo, ele apontou que empresas de tecnologia nativas do país, como Mercado Livre e Decolar, usam a IA desde pelo menos 2010. Mas o lançamento do ChatGPT “levou a tecnologia para todos os cantos do país”, sem a devida atenção.
Ditzend chama a atenção para riscos como o uso de”atalhos” na busca de dados para desenvolver um produto de IA, que podem acabar excluindo algum grupo minoritário de usuários:
“Isso configura um mau uso ou um desenvolvimento não ético da IA.”
Na opinião do especialista, que lidera um grupo composto por cerca de 300 integrantes com diferentes formações, o Estado tem papel fundamental na regulamentação do uso da IA, “pois se não impuser as regras do jogo, será difícil ter produtos inclusivos”.
Leia também | Entrevista | Alexander Ditzend, Presidente da Sociedade Argentina de IA: ‘é importante limitar o mau uso da tecnologia’
Jonas Valente, Oxford Internet Institute
Risco de precarização dos ambientes de trabalho
Outra certeza em relação à inteligência artificial é a transformação no mundo do trabalho, com a temida perda de empregos causada pela automação de processos operacionais e até de atividades criativas.
A greve de roteiristas de Hollywood, que tem como principal pauta o uso da IA na atividade, é o primeiro exemplo de um grande movimento organizado contra a tecnologia.
O brasileiro Jonas Valente, pesquisador do projeto Fairwork do Oxford Internet Institute e líder do projeto internacional Fairwork Cloudwork, vê riscos para empresas que não estejam preparadas para absorver a IA levando em conta seus efeitos sobre os trabalhadores.
“Estudos mais críticos estimam em quase 50% a possibilidade de substituição de ocupações provocada pela IA”.
Ele acredita que a precarização dos ambientes de trabalho e a coleta abusiva de dados podem prejudicar a reputação das empresas. E acha que as plataformas digitais estão mais expostas.
Sistemas de avaliação como os do projeto Fairwork demonstram que “estamos longe de uma realidade em que as plataformas e empresas usuárias da IA assegurem parâmetros básicos de trabalho decente”, diz o pesquisador.
Leia também | Entrevista | Jonas Valente, Oxford Internet Institute: ‘absorção da IA deve levar em conta os efeitos sobre os trabalhadores’
O Papa deepfake
Papa deepkake e ChatGPT suspenso na Itália
A Itália se tornou foco de atenção dos que se preocupam com o conteúdo gerado pelas ferramentas de inteligência artificial generativa ao alcance de todos depois que o Papa Francisco (foto) foi retratado usando um casaco da grife Balenciaga em uma imagem deepfake.
E também por ter sido o único país até hoje a suspender o ChatGPT, ainda que temporariamente. O recurso voltou a funcionar depois de adicionar filtros como a necessidade de autorização prévia dos pais no caso de usuários menores de idade, atendendo a uma determinação da agência reguladora.
Mídia e RP: dois lados da informação
A correspondente brasileira Fernanda Massarotto conversou com profissionais de dois lados do espectro da comunicação expostos aos riscos da IA, como desinformação e privacidade de dados dos usuários.
“Nosso país deu um sinal de alerta ao mundo e chamou a atenção para a privacidade e o uso dos chatbots por menores de idade”, disse Alessandra Cruciani, jornalista de tecnologia do jornal Corriere dela Sera.
Mas ela não está entre os que acreditam que a desinformação advinda dos conteúdos gerados por IA comprometerá de forma ampla o jornalismo:
“O jornalista que leva a sério a profissão sobreviverá, resistirá aos encantos da notícia fácil e será capaz de identificar o que é fake news sem grandes problemas”
O presidente da Federação de Relações Públicas da Itália, Filippo Nani, preocupa-se com os danos que podem ser causados à imagem das empresas se um profissional ou agência de comunicação divulgar uma informação errada, capturada no chatbot, sem o devido cuidado.
“Credibilidade é tudo para o setor. Difundir conteúdos falsos ou dados errados representaria uma sentença de morte, destruindo a reputação”.
A organização criou um grupo de trabalho para orientar os profissionais sobre o uso da IA, com treinamentos e materiais de consulta.
Leia também | Itália e a IA: Papa estiloso, suspensão do ChatGPT e uso da tecnologia no radar da Federação de Relações Públicas
Andrew Smith, CIPR UK
Quase 6 mil ferramentas para automatizar atividades de Relações Públicas
O uso da inteligência artificial em atividades de comunicação não se resume a gerar conteúdo pelo ChatGPT ou Bard. O Chartered Institute of Public Relations (CIPR), órgão regulador da profissão no Reino Unido, documentou em um levantamento feito em maio quase 6 mil ferramentas capazes de automatizar funções de relações públicas.
O órgão começou a estudar o impacto da IA na atividade em 2018, criando um painel para promover conhecimento e compartilhar boas práticas. Em 2020, publicou um código de ética determinando princípios universais para a adoção da tecnologia no setor de relações públicas.
O presidente do painel, Andrew Bruce Smith, não acredita que a IA seja uma “desgraça inevitável”, capaz de substituir inteiramente os profissionais de comunicação por robôs, desde que eles aprendam a usá-la para aprimorar suas habilidades e ajudarem as empresas a navegarem nesse novo universo.
IA x internet e mídias sociais
Smith comparou o momento da IA com outras tecnologias disruptivas, como a internet e as mídias sociais:
“Uma diferença fundamental é a escala e a taxa de desenvolvimento. Armas nucleares não podem construir armas nucleares. Mas a IA pode ser – e já está sendo – usada para desenvolver uma IA mais avançada. O GPT4 é dez vezes melhor do que o GPT3. Qual será a capacidade do GPT10? Com que ra- pidez isso chegará a nós?”
Ele acredita que funções mais altas na escala da profissão envolvem doses maiores de trabalho mecânico do que os profissionais gostariam de admitir – e eles podem ser também afetados pela substituição.
Leia também | Entrevista | Andrew Bruce Smith, Chartered Institute of PR: ‘IA já está invadindo domínios criativos’
Flávia Vígio, executiva de comunicação
Uso da IA em planejamento e medição tornará discussões sobre reputação menos abstratas
Habilidade de manejar ferramentas de inteligência artificial e a compreensão de sua complexidade sobre todos os aspectos do negócio são vistos como vitais para que profissionais de relações públicas não percam o emprego e ganhem relevância dentro de suas organizações.
A jornalista e executiva de comunicação corporativa Flávia Vígio, radicada nos EUA, acredita que a IA pode ser uma aliada do profissional de comunicação em áreas críticas da atividade, como planejamento baseado em dados e medição de resultados.
“Alguns tipos de IA são capazes de contribuir para o planejamento estratégico, fornecendo elementos factuais e mensuráveis que identificam oportunidades e embasam decisões”, diz.
Outra oportunidade é uma aplicação da IA com modelo de linguagem apto a identificar e medir globalmente, em tempo real, e em qualquer idioma, a qualidade da exposição de uma marca, de uma mensagem ou mesmo de um indivíduo, criando um termômetro preciso, com indicadores de resultados padronizados e muito mais eficientes do que as medições de reputação atuais.
Ao mesmo tempo em que a IA deixa as empresas mais vulneráveis a terem suas atividades expostas, ela pode servir como uma eficiente arma para identificar crises corporativas e também anseios de seus clientes, vizinhos e públicos relacionados.
Leia também | Uso da IA em planejamento e medição de resultados pode tornar discussões sobre reputação menos abstratas
‘Fascinados e Assustados’
Tecnologia transformadora na visão de profissionais dos EUA
Nos EUA, uma pesquisa feita pelo Annemberg Center for Public Relations da USC (University of South California) em parceria com a WE Communications, revelou que 80% dos profissionais de relações públicas entrevistados acreditam que a IA será muito ou extremamente importante para a atividade nos próximos anos.
A palavra mais mencionada pelos participantes do estudo para definir a IA foi “transformadora”.
O nome da pesquisa traduz os sentimentos e a ansiedade em torno da inteligência artificial generativa: “Fascinados e Assustados”.
Apesar de reconhecerem a importância da IA para a atividade, o grau de familiaridade com ela ainda é baixo: apenas 16% dos entrevistados se disseram extremamente familiarizados com ferramentas de inteligência artificial, e 13% nunca tinham experimentado o ChatGPT.
O estudo apontou que erros factuais e imprecisão são as maiores preocupações, seguidos por fake news e desinformação, que podem afetar severamente a imagem das empresas e seus negócios.
Fred Cook, diretor do USC Annenberg Center, disse que historicamente o setor de comunicação é lento para adotar novas tecnologias.
“Não podemos deixar que isso aconteça com a IA”, alertou.
Leia também | ‘Fascinados e assustados’: pesquisa nos EUA mapeia impressões de profissionais de RP sobre a inteligência artificial
Comunicação com ética
Guia de ética no uso da IA
Bem antes de o ChatGPT surgir, o Chartered Institute of Public Relations do Reino Unido já se preocupava com os riscos do uso não ético da inteligência artificial.
Em 2020, o órgão regulador da profissão criou um código de ética para os que atuam no setor, que continua sendo adotado até hoje, já que as preocupações fundamentais do mau uso da IA continuam as mesmas.
O documento é dividido em princípios orientadores, que incluem respeito ao interesse público, à privacidade dos dados e à veracidade dos fatos, e também de prática profissional, como o compromisso com a aprendizagem e o respeito no trato com o público.
O guia lembra que os profissionais de comunicação oferecem aconselhamento estratégico a colegas e líderes, e por isso têm responsabilidades de guardiões éticos perante a sociedade, ajudando as organizações a tomarem decisões acertadas – o que se torna cada vez mais necessário para as empresas.