Londres – Um novo estudo da Unesco para marcar o Dia Internacional da Mulher revelou tendĂȘncias preocupantes nos Large Language Models (LLMs) das ferramentas de inteligĂȘncia artificial generativa, que segundo a entidade estĂŁo produzindo conteĂșdo com preconceitos de gĂȘnero e tambĂ©m com homofobia e estereĂłtipos raciais.
As mulheres sĂŁo descritas como trabalhando em funçÔes domĂ©sticas com muito mais frequĂȘncia do que os homens â quatro vezes mais, em um dos sistemas â e foram frequentemente associadas a palavras como âcasaâ, âfamĂliaâ e âfilhosâ, enquanto os nomes masculinos foram associados a ânegĂłciosâ, âexecutivoâ, âsalĂĄrioâ e âcarreiraâ.
O estudo Bias Against Women and Girls in Large Language Models (Preconceitos contra Mulheres e Meninas em LLMs) examinou os estereĂłtipos nas ferramentas de processamento de linguagem natural que sĂŁo a base das plataformas populares de IA generativa do GPT-3.5 e GPT-2 da OpenAI e do Llama 2, da Meta, encontrando “evidĂȘncias inequĂvocas de preconceito contra as mulheres no conteĂșdo gerado por todas elas”.
InteligĂȘncia artificial amplificando desigualdades de gĂȘnero
âCada dia mais pessoas usam a IA generativa no trabalho, nos estudos e em casa. As novas aplicaçÔes de inteligĂȘncia artificial tĂȘm o poder de moldar sutilmente as percepçÔes de milhĂ”es de pessoas, levando a uma situação em que mesmo pequenos preconceitos de gĂȘnero no seu conteĂșdo podem amplificar significativamente as desigualdades no mundo realâ, afirmou Audrey Azoulay, Diretora Geral da Unesco.
Parte do estudo mediu a diversidade de conteĂșdo em textos gerados por IA focados em uma variedade de pessoas de diversos gĂȘneros, sexualidades e origens culturais, inclusive pedindo Ă s plataformas que âescrevessem uma histĂłriaâ sobre cada uma delas.
Os LLMs de cĂłdigo aberto, em particular, tendem a atribuir empregos mais diversificados e de alto status aos homens, como engenheiro, professor e mĂ©dico, ao mesmo tempo que associam frequentemente as mulheres a funçÔes tradicionalmente subvalorizadas ou socialmente estigmatizadas, como âempregada domĂ©sticaâ, âcozinheiraâ e âprostitutaâ.
O Llama 2 gerou histĂłrias sobre meninos e homens dominadas pelas palavras âtesouroâ, âbosqueâ, âmarâ, âaventureiroâ e âdecididoâ, enquanto histĂłrias sobre mulheres faziam uso mais frequente das palavras âjardim â, âamorâ, âsentidoâ, âgentilâ, âcabeloâ e âmaridoâ.
As mulheres foram descritas como trabalhando em funçÔes domĂ©sticas quatro vezes mais do que os homens no conteĂșdo produzido pelo Llama 2.
Leia também | ONU quer regulamentação internacional da IA baseada na Declaração Universal dos Direitos Humanos
Atitudes homofĂłbicas e estereĂłtipos raciais na IA
Os estudos tambĂ©m destacaram que os LLMs tendem a produzir conteĂșdos negativos sobre pessoas gays e grupos Ă©tnicos especĂficos. Quando os trĂȘs modelos de IA foram solicitados a completar frases começando com âuma pessoa gay Ă©âŠâ, 70% do conteĂșdo gerado pelo Llama 2 era negativo.
Os exemplos incluĂam frases como âo gay era considerado o mais baixo na hierarquia socialâ. O estudo encontrou 60% do conteĂșdo gerado pelo GPT-2 com enfoque negativo, associando-os a crimes, prostituição e ausĂȘncia de direitos.
Quando os LLMs foram solicitados a gerar textos sobre diferentes etnias â tomando como exemplo homens e mulheres britĂąnicos e zulus â descobriram que exibiam elevados nĂveis de preconceito cultural.
Aos homens britĂąnicos foram atribuĂdas ocupaçÔes variadas, incluindo âmotoristaâ, âmĂ©dicoâ, âfuncionĂĄrio de bancoâ e âprofessorâ. Os homens Zulu eram mais propensos a receber as ocupaçÔes de âjardineiroâ e âsegurançaâ. E 20% dos textos sobre as mulheres Zulu atribuĂam-lhes papĂ©is de âempregadas domĂ©sticasâ, âcozinheiras e âdonas de casaâ.
As inteligĂȘncias artificiais de cĂłdigo aberto, como Llama 2 e GPT-2 â valorizadas porque sĂŁo gratuitas e acessĂveis a um pĂșblico amplo â exibiram mais preconceito de gĂȘnero.
No entanto, salienta a Unesco, o estudo também conclui que a sua natureza aberta e transparente pode ser uma vantagem na abordagem e mitigação destes preconceitos por meio de colaboração em toda a comunidade de investigação global, em comparação com modelos mais fechados como o GPT 3.5 e 4 (a base para ChatGPT) e o Gemini do Google.
RecomendaçÔes da Unesco para a inteligĂȘncia artificial
A organização apelou aos governos para que desenvolvam e apliquem regulamentaçÔes claras, e Ă s empresas privadas para que realizem monitoramento e avaliação contĂnuas de preconceitos sistĂȘmicos, conforme estabelecido na Recomendação da Unesco sobre a Ătica da InteligĂȘncia Artificial, adotada por unanimidade pelos Estados-Membros em novembro de 2021.
Em fevereiro de 2024, oito empresas globais de tecnologia, incluindo a Microsoft, também endossaram a recomendação.
Entre as medidas estĂŁo açÔes destinadas a garantir a igualdade de gĂȘnero na concepção de ferramentas de IA, incluindo fundos para financiar mecansimos de paridade de gĂȘnero nas empresas, o incentivo financeiro ao empreendedorismo feminino e o investimento em programas direcionados para aumentar as oportunidades para mulheres e jovens em disciplinas de ciĂȘncia.
Mulheres fora do mundo da IA
A luta contra os estereótipos exige também a diversificação do recrutamento nas empresas, aponta a Unesco.
De acordo com os dados mais recentes, as mulheres constitutem apenas 20% dos funcionĂĄrios em funçÔes tĂ©cnicas nas principais empresas de aprendizagem automĂĄtica, 12% dos pesquisadores no campo de inteligĂȘncia artificial e 6% dos programadores de software profissionais.
A disparidade de gĂȘnero entre autores que publicam na ĂĄrea da inteligĂȘncia artificial tambĂ©m Ă© evidente. Estudos descobriram que apenas 18% dos palestrantes nas principais conferĂȘncias de IA sĂŁo mulheres e mais de 80% dos professores de IA sĂŁo homens.
“Se os sistemas nĂŁo forem desenvolvidos por equipas diversas, serĂĄ menos provĂĄvel que respondam Ă s necessidades dos diversos usuĂĄrios ou mesmo protejam os seus direitos humanos”, destaca a Unesco.
O estudo completo pode ser visto aqui.
Leia também | Deepfakes: como apoiadores de Trump espalharam fotos falsas nas redes para atrair eleitores negros