Londres – A discriminação por sistemas que usam inteligência artificial (IA) já é bem documentada por especialistas de tecnologia, com diversos casos de registros policiais “racistas” ou plataformas de streaming que sugerem muito mais artistas homens do que mulheres, por exemplo.

Mas um novo estudo da Universidade de Oxford revela a extensão do preconceito dos algoritmos baseado em ações simples dos usuários, como o tipo de navegador que usam ou a forma como preenchem formulários.

A professora Sandra Wachter, do Oxford Internet Institute, identificou características que contribuem para a discriminação da IA. Por isso, ela defende a necessidade urgente da mudança nas leis vigentes para proteger usuários vítimas dessa forma de preconceito tecnológico.


De forma automática, inteligência artificial gera discriminação em grupos

Wachter explica que a inteligência artificial está criando novos grupos digitais na sociedade – grupos algorítmicos – cujos membros correm o risco de serem discriminados.

Reunindo usuários de forma não intuitiva e não convencional, a IA toma decisões que impactam diretamente a vida das pessoas, mas não há leis que protejam grupos algorítmicos online de resultados discriminatórios.

A especialista destaca que essas novas formas de discriminação muitas vezes não se enquadram nas normas tradicionais do que é considerado preconceito.

Atualmente, legislações do mundo inteiro criminalizam discriminações com base em raça, gênero, religião e orientação sexual, por exemplo.


No mundo virtual, porém, as IAs substituem essas categorias por grupos específicos conforme os objetivos das empresas: donos de cães, jogadores de videogame, usuários do navegador Safari ou quem faz “rolagem rápida” em telas de computadores e smartphones.

Esses grupos algorítmicos são usados pela inteligência artificial para tomar decisões sobre seguros de carro, negociação de dívidas ou na hora de conceder empréstimos.

Só que dentro desse “recorte digital” muitos usuários são discriminados e, de forma automática, descartados pela tecnologia sem ter como recorrer ou saber porque não conseguiram determinado serviço.

Emprego, empréstimos: como a IA discrimina grupos algorítmicos

Na pesquisa, a autora explica a discriminação relacionada à inteligência artificial pode ocorrer em atividades cotidianas muito comuns, sem que os usuários tenham consciência disso, como na hora de se candidatar a vagas de empregos.

“Usar um determinado tipo de navegador da web, como o Internet Explorer ou o Safari, pode resultar que um candidato a emprego seja mau sucedido ao se inscrever online.

Candidatos em entrevistas virtuais podem ser avaliados por um software de reconhecimento facial que rastreia expressões faciais, movimentos oculares, respiração ou suor.”

Além de empregos, outros cenários possíveis de discriminação algorítmica são, por exemplo, na solicitação de um empréstimo financeiro.

O artigo destaca que um candidato tem maior probabilidade de ser rejeitado se usar apenas letras minúsculas ao preencher sua inscrição digital – ou se rolar muito rapidamente pelas páginas de inscrição, indicando que não leu atentamente os requisitivos.

Wachter explica que, cada vez mais, as decisões tomadas pelos programas de IA podem impedir o acesso igual e justo a bens e serviços básicos, como educação, saúde, moradia ou emprego. Por isso, é necessário mudanças na lei:

“Os sistemas de IA agora são amplamente usados ​​para traçar o perfil das pessoas e tomar decisões importantes que afetam suas vidas.

As normas e ideias tradicionais de definição de discriminação na lei não são mais adequadas no caso da IA ​​e estou pedindo mudanças para trazer a IA dentro do escopo da lei.”

Cinco características usadas pela inteligência artificial para a discriminação

A professora Sandra Wachter apresentou a nova teoria de “imutabilidade artificial” em seu artigo, conceito onde ela identificou cinco características usadas pela inteligência artificial que reforçam a discriminação contra usuários.

O conceito, ela explica, difere da imutabilidade tradicional na medida em que “não se resulta de circunstâncias de nascimento, genética ou fontes ‘naturais’ similares.”

“Especificamente, os sistemas de perfis de IA criam características artificialmente imutáveis ​​que, na prática, não podem ser controladas pelo indivíduo por vários motivos.”

São elas: opacidade, imprecisão, instabilidade, involuntária e invisibilidade e falta de conceito social.

A opacidade é definida pela ausência de informações sobre os principais perfis e processos de tomada de decisão da IA. “A opacidade total impossibilita que os indivíduos exerçam autonomia pessoal e se preparem para um resultado bem-sucedido”, aponta.

Já a vaguidade, da mesma forma que a opacidade, é caracterizada pela “imprecisão que descreve uma condição de perfis ou processos de tomada de decisão em que o sujeito recebe informações inadequadas para fazer escolhas informadas.”

A professora define a característica de instabilidade para muitos dos sistemas de IA, o que significa a mudança deles com o tempo ou a produção de comportamentos errôneos ou imprevisíveis.

A característica de involuntariedade e invisibilidade é observada em sistemas de criação de perfil e tomada de decisão de IA baseados em comportamentos digitais e fisiológicos “involuntários e invisíveis que não são evidentemente significativos”. Ela exemplifica:

“Comportamentos digitais como consultas de pesquisa, histórico de navegação ou padrões de cliques podem ser usados ​​para agrupar usuários em públicos de publicidade.”

Por fim, a última característica identificada é a falta de conceito social. Isso acontece, por exemplo, com a organização de usuários por imagens ou padrões de cliques, que não possuem um conceito social relacionado para as IAs.

“Os grupos e a lógica para agrupá-los fazem sentido para um algoritmo, mas não para um humano”, explica a autora.

“Características que carecem de um conceito social são de fato imutáveis ​​porque os indivíduos não têm como mudar, impactar, entender ou atribuir significado a elas ou critérios de decisão usando-as.”

A teoria propõe que os grupos algorítmicos sejam tratados com base nesses critérios imutáveis ​​para a formulação de leis antidiscriminação:

“É necessário repensar os danos emergentes para regular a tomada de decisões da IA ​​de maneira razoável.

É essencial garantir que as pessoas mantenham autonomia e controle sobre suas vidas em meio a processos de decisão automatizados que podem ser confusos, aparentemente arbitrários e, em última análise, frustrantes.

A imutabilidade artificial pode servir de base para uma futura reforma e interpretação judicial da lei antidiscriminação para trazer os danos sem precedentes causados ​​pela IA em seu escopo.”

Leia o artigo completo, em inglês, neste link.

Leia também

Doomscrolling: por que somos atraídos por notícias ruins e 5 formas de evitar o ‘efeito deprê’