A organização Access Now, que monitora ameaças aos direitos humanos no mundo digital, endereçou esta semana uma carta aos investidores do Spotify manifestando preocupação com uma tecnologia de reconhecimento de voz desenvolvida pela plataforma de streaming de músicas.
A inovação seria capaz de detectar o “estado emocional, sexo, idade ou sotaque” dos ouvintes do aplicativo, o que, segundo a Access Now, tem potencial para violar o direito à privacidade e gerar situações de discriminação e quebra da liberdade de expressão.
O risco de discriminação provocado por tecnologias utilizadas por plataformas digitais tem sido alvo de preocupação de especialistas e de estudos, como o que apontou a possibilidade de “falso ativismo” em marcas que empregam influenciadores criados em computação gráfica.
Spotify pode monitorar emoções
Notícias sobre a nova tecnologia vêm sendo divulgadas desde janeiro, mas segundo a organização, o Spotify havia se comprometido em não usá-la em seus produtos.
O recurso patenteado permite analisar a voz e sugerir músicas com base no “estado emocional, sexo, idade ou sotaque” dos usuários.
A patente, que foi requerida em 2018 e concedida este ano, permitiria ao gigante do streaming “fazer observações” sobre o ambiente e as emoções de um usuário a partir da tecnologia de reconhecimento de voz.
Leia também | Twitter reconhece que seu algoritmo de corte prioriza brancos, magros e jovens
O Spotify poderia então tocar músicas que refletissem o humor ou até mesmo o ambiente social do usuário (se ele está sozinho, com amigos, por exemplo).
Para a Access Now, uma vez instalada, a funcionalidade poderia dar ao aplicativo o poder de manipular emoções, monitorando o usuário e se colocando “em uma perigosa posição de poder”.
O uso dos dados pessoais deste que seria quase um perfil psicológico dos usuários poderia cair em mãos erradas para fins de espionagem, alerta a organização.
Discriminação por voz
A discriminação de acordo com a voz seria possível também, alerta a Access Now, que também vem se posicionando contra as tecnologias de reconhecimento facial.
“É impossível inferir gênero sem discriminar pessoas trans e não binárias e outras que não se enquadram nos estereótipos de gênero. Também é impossível inferir o gosto musical de alguém com base no sotaque, sem presumir que existe uma maneira ‘normal’ de falar ou cair em estereótipos racistas.”
Leia também | Diversidade é a “coisa certa” e caminho para o lucro, aponta estudo sobre mídia, cinema, esporte e games
A privacidade de usuários poderia ser violada, avalia a organização, uma vez que o dispositivo (smartphone, computador) estaria gravando tudo — possivelmente monitorando, processando dados de voz e armazenando informações privadas.
Os dispositivos poderiam ainda coletar “metadados ambientais”, que poderiam informar ao Spotify sobre outras pessoas no ambiente, sem o consentimento delas.
“Deve ser entendido que as categorias de metadados de emoções, gênero, idade e sotaque são meramente exemplos, e várias outras caracterizações e classificações podem ser usadas”, aponta o documento onde o Spotify requisita a patente da tecnologia, publicado pela BBC.
“Os resultados seriam combinados com outras informações – incluindo músicas tocadas anteriormente pelo usuário e o gosto musical de seus amigos – para melhorar as recomendações.”
Pressão sobre investidores
“A tecnologia do Spotify está pronta para [ser usada para] discriminação e abuso”, disse Jennifer Brody, gerente de defesa dos EUA na Access Now.
“Classificar pessoas com base em seu sotaque percebido, estado emocional ou gênero é uma flagrante violação dos direitos humanos.
Se os investidores não tomarem uma posição para garantir que o Spotify nunca implemente ou venda essa tecnologia, eles serão cúmplices em priorizar o lucro sobre as pessoas.”
A Access Now afirma que levantou essas questões diretamente com o Spotify em abril, e a empresa prometeu que a tecnologia nunca seria empregada em nenhum de seus produtos.
Apesar dessa afirmação, o Spotify não se comprometeu a nunca usar, licenciar, vender ou monetizar a tecnologia.
Leia também
IBM vai usar inteligência artificial para medir diversidade na propaganda