Londres – Pesquisadores do Oxford Internet Institute (OII), da Universidade de Oxford, alertaram em um novo estudo que modelos de linguagem baseados em inteligência artificial (IA) estão aprendendo de forma errada a tratar questões de gênero, com impacto na saúde pública.
A pesquisa revela que esses modelos reforçam estereótipos e confundem identidade de gênero com características biológicas, distorcendo a informação de saúde que oferecem a quem faz consultas sobre doenças e tratamentos.
Isso pode afetar tanto pessoas trans e não binárias quanto mulheres cisgênero, que recebem informações erradas e podem tomar decisões com base nelas.
IA e gênero na saúde: quando a informação se torna risco
O estudo, que analisou 16 modelos de linguagem — incluindo GPT, RoBERTa, T5, Llama e Mistral —, mostra que muitos confundem “gênero” com “sexo biológico”.
Essa confusão compromete a qualidade da informação de saúde que esses sistemas geram.
Por exemplo, ao vincular “mulher” exclusivamente a termos como “útero” ou “estrogênio”, a IA pode oferecer conselhos irrelevantes para mulheres trans, ou ignorar as realidades de mulheres cisgênero que passaram por menopausa ou histerectomia.
O sombreamento diagnóstico: um risco invisível
Ao avaliar 110 doenças, os pesquisadores constataram que os modelos tendem a associar doenças físicas a homens e, de forma desproporcional, problemas de saúde mental a pessoas trans e não binárias — e em menor grau, a mulheres.
Algumas IAs chegam a classificar doenças como “coronavírus” ou “infecções parasitárias” como improváveis para identidades trans, o que levanta sérias preocupações sobre “sombreamento diagnóstico”, quando problemas físicos são mal diagnosticados ou erroneamente tratados como psicológicos.
Gênero binário e dados limitados: um problema estrutural
Grande parte das IAs ainda define gênero em termos estritamente binários — masculino e feminino —, ignorando a diversidade de identidades.
Termos como “não binário” ou “genderqueer” são raramente reconhecidos, e alguns modelos chegaram a classificar esses termos como menos prováveis que objetos como “para-brisa”.
Esse apagamento das identidades de gênero não convencionais reforça estereótipos e limita o acesso igualitário à informação de saúde.
Leia também | Campanha por ‘beleza real’ de mulheres em games divide opiniões: inclusão ou incentivo à obesidade?
Quanto Maior o modelo de inteligência artificial, mais forte o viés de gênero
O estudo mostra que modelos maiores não são necessariamente mais justos.
Ao contrário, modelos de IA mais avançados apresentaram associações mais rígidas entre gênero e sexo biológico. Isso desafia a noção de que mais dados e mais poder computacional levariam a resultados menos enviesados.
Para quem depende de informação de saúde confiável e inclusiva, isso representa um risco real.
O que dizem os especialistas
Franziska Sofia Hafner, autora principal, destaca que o uso desses modelos na área da saúde pode introduzir danos discriminatórios significativos, mesmo sem intenção explícita.
A Dra. Ana Valdivia reforça que os vieses de gênero na IA são reflexo de representações estereotipadas aprendidas na internet, que continuam sendo amplificadas nos novos sistemas.
O Dr. Luc Rocher, coautor do estudo, alerta que simplesmente escalar os modelos não resolve o problema.
Ele defende a criação de conjuntos de dados mais diversos e a implementação de mecanismos de responsabilização pública. Segundo ele, resolver o problema de IA e gênero na saúde exige uma abordagem estruturada e coletiva.
Um estudo de impacto global
Intitulado “Gender Trouble in Language Models: An Empirical Audit Guided by Gender Performativity Theory”, o estudo foi apresentado na conferência ACM FAccT (Fairness, Accountability, and Transparency), que terminou no dia 26 de junho em Atenas.
Os autores esperam que os resultados incentivem mudanças práticas na forma como a IA é desenvolvida e usada na área da saúde.
Leia também | Cinco anos de ‘infodemia’: como a desinformação sobre vacinas continua a afetar a saúde pública