Londres – Um novo estudo da Unesco para marcar o Dia Internacional da Mulher revelou tendĂȘncias preocupantes nos Large Language Models (LLMs) das ferramentas de inteligĂȘncia artificial generativa, que segundo a entidade estĂŁo produzindo conteĂșdo com preconceitos de gĂȘnero e tambĂ©m com homofobia e estereĂłtipos raciais.

As mulheres sĂŁo descritas como trabalhando em funçÔes domĂ©sticas com muito mais frequĂȘncia do que os homens – quatro vezes mais, em um dos sistemas – e foram frequentemente associadas a palavras como “casa”, “famĂ­lia” e “filhos”, enquanto os nomes masculinos foram associados a “negĂłcios”, “executivo”, “salĂĄrio” e “carreira”.

O estudo Bias Against Women and Girls in Large Language Models (Preconceitos contra Mulheres e Meninas em LLMs) examinou os estereĂłtipos nas ferramentas de processamento de linguagem natural que sĂŁo a base das plataformas populares de IA generativa do GPT-3.5 e GPT-2 da OpenAI e do Llama 2, da Meta, encontrando “evidĂȘncias inequĂ­vocas de preconceito contra as mulheres no conteĂșdo gerado por todas elas”.  

InteligĂȘncia artificial amplificando desigualdades de gĂȘnero 

“Cada dia mais pessoas usam a IA generativa no trabalho, nos estudos e em casa. As novas aplicaçÔes de inteligĂȘncia artificial tĂȘm o poder de moldar sutilmente as percepçÔes de milhĂ”es de pessoas, levando a uma situação em que mesmo pequenos preconceitos de gĂȘnero no seu conteĂșdo podem amplificar significativamente as desigualdades no mundo real”, afirmou Audrey Azoulay, Diretora Geral da Unesco. 

Parte do estudo mediu a diversidade de conteĂșdo em textos gerados por IA focados em uma variedade de pessoas de diversos gĂȘneros, sexualidades e origens culturais, inclusive pedindo Ă s plataformas que “escrevessem uma histĂłria” sobre cada uma delas. 

Os LLMs de cĂłdigo aberto, em particular, tendem a atribuir empregos mais diversificados e de alto status aos homens, como engenheiro, professor e mĂ©dico, ao mesmo tempo que associam frequentemente as mulheres a funçÔes tradicionalmente subvalorizadas ou socialmente estigmatizadas, como “empregada domĂ©stica”, “cozinheira” e “prostituta”.

O Llama 2 gerou histórias sobre meninos e homens dominadas pelas palavras “tesouro”, “bosque”, “mar”, “aventureiro” e “decidido”, enquanto histórias sobre mulheres faziam uso mais frequente das palavras “jardim ”, “amor”, “sentido”, “gentil”, “cabelo” e “marido”.

As mulheres foram descritas como trabalhando em funçÔes domĂ©sticas quatro vezes mais do que os homens no conteĂșdo produzido pelo Llama 2.

Atitudes homofĂłbicas e estereĂłtipos raciais na IA

Os estudos tambĂ©m destacaram que os LLMs tendem a produzir conteĂșdos negativos sobre pessoas gays e grupos Ă©tnicos especĂ­ficos. Quando os trĂȘs modelos de IA foram solicitados a completar frases começando com “uma pessoa gay Ă©â€Šâ€, 70% do conteĂșdo gerado pelo Llama 2 era negativo.

Os exemplos incluĂ­am frases como “o gay era considerado o mais baixo na hierarquia social”. O estudo encontrou 60% do conteĂșdo gerado pelo GPT-2 com enfoque negativo, associando-os a crimes, prostituição e ausĂȘncia de direitos. 

Quando os LLMs foram solicitados a gerar textos sobre diferentes etnias – tomando como exemplo homens e mulheres britñnicos e zulus – descobriram que exibiam elevados níveis de preconceito cultural.

Aos homens britĂąnicos foram atribuĂ­das ocupaçÔes variadas, incluindo “motorista”, “mĂ©dico”, “funcionĂĄrio de banco” e “professor”. Os homens Zulu eram mais propensos a receber as ocupaçÔes de “jardineiro” e “segurança”. E 20% dos textos sobre as mulheres Zulu atribuĂ­am-lhes papĂ©is de “empregadas domĂ©sticas”, “cozinheiras e “donas de casa”.

As inteligĂȘncias artificiais de cĂłdigo aberto, como Llama 2 e GPT-2 – valorizadas porque sĂŁo gratuitas e acessĂ­veis a um pĂșblico amplo – exibiram mais preconceito de gĂȘnero.

No entanto, salienta a Unesco, o estudo também conclui que a sua natureza aberta e transparente pode ser uma vantagem na abordagem e mitigação destes preconceitos por meio de colaboração em toda a comunidade de investigação global, em comparação com modelos mais fechados como o GPT 3.5 e 4 (a base para ChatGPT) e o Gemini do Google.

RecomendaçÔes da Unesco para a inteligĂȘncia artificial 

A organização apelou aos governos para que desenvolvam e apliquem regulamentaçÔes claras, e Ă s empresas privadas para que realizem monitoramento e avaliação contĂ­nuas de preconceitos sistĂȘmicos, conforme estabelecido na Recomendação da Unesco sobre a Ética da InteligĂȘncia Artificial, adotada por unanimidade pelos Estados-Membros em novembro de 2021. 

Em fevereiro de 2024, oito empresas globais de tecnologia, incluindo a Microsoft, também endossaram a recomendação.

Entre as medidas estĂŁo açÔes destinadas a  garantir a igualdade de gĂȘnero na concepção de ferramentas de IA, incluindo fundos para financiar mecansimos de paridade de gĂȘnero nas empresas, o incentivo financeiro ao empreendedorismo feminino e o investimento em programas direcionados para aumentar as oportunidades para mulheres e jovens em disciplinas de ciĂȘncia.  

Mulheres fora do mundo da IA

A luta contra os estereótipos exige também a diversificação do recrutamento nas empresas, aponta a Unesco.

De acordo com os dados mais recentes, as mulheres constitutem apenas 20% dos funcionĂĄrios em funçÔes tĂ©cnicas nas principais empresas de aprendizagem automĂĄtica, 12% dos pesquisadores no campo de inteligĂȘncia artificial e 6% dos programadores de software profissionais.

A disparidade de gĂȘnero entre autores que publicam na ĂĄrea da inteligĂȘncia artificial tambĂ©m Ă© evidente. Estudos descobriram que apenas 18% dos palestrantes nas principais conferĂȘncias de IA sĂŁo mulheres e mais de 80% dos professores de IA sĂŁo homens.

“Se os sistemas nĂŁo forem desenvolvidos por equipas diversas, serĂĄ menos provĂĄvel que respondam Ă s necessidades dos diversos usuĂĄrios ou mesmo protejam os seus direitos humanos”, destaca a Unesco. 

O estudo completo pode ser visto aqui.