No mesmo dia em que o Conselho de Supervisão do Facebook decidiu manter Donald Trump banido da rede social por mais seis meses, o Twitter fez um movimento na direção de combater discurso de ódio em sua plataforma.
Em um post publicado no dia 5/5, a rede anunciou a entrada em definitivo de um recurso lançado em caráter de teste há seis meses: a pergunta “quer revisar isso antes de tuitar?” aparecendo antes do compartilhamento de mensagens contendo palavras ofensivas detectadas pelo algoritmo.
Segundo a empresa, os testes demonstraram que esse simples recurso fez com que 34% das pessoas revisassem sua resposta inicial ou decidissem nem responder. A empresa não divulgou se houve quem piorasse a resposta depois da intervenção.
Com base na detecção de palavras ofensivas detectadas pelos algoritmos, os avisos alertarão que a mensagem pode ser nociva por conter os termos **** e *!*!*!. A mensagem oferecerá três opções: tuitar mesmo assim, editar ou excluir.
Mas ela não aparecerá em respostas a usuários que se seguem ou respondem entre si com frequência, considerando que nesse caso há uma comprensão prévia sobre o estilo de linguagem do interlocutor.
Por enquanto, o recurso para coibir resposta ofensiva no Twitter estará disponível apenas para os usuários do aplicativo em inglês. Mas a intenção é a de que logo seja expandido para os demais idiomas – afinal, o uso de palavrões é universal.
Se se aborrecer, não tuíte
O novo recurso faz parte do esforço do Twitter e de outras plataformas de mídia social para repensar como seus produtos podem estimular o mau comportamento nas redes. A ideia é a de que, com mais tempo para esfriar a cabeça, o tom inicial de uma resposta por impulso seja abrandado.
O Twitter estava entre as plataformas boicotadas por três dias, em um movimento convocado pelo futebol inglês contra o racismo online que se espalhou por outras modalidades e por celebridades como o príncipe William, no dia 30/4. Os atletas têm sido vítimas de abusos em várias plataformas, incluindo no Twitter.
O lançamento da novidade em inglês faz sentido não apenas por ser o idioma mais usado nas plataformas digitais globais, mas também porque várias iniciativas de regulamentação de conteúdo avançam em países de língua inglesa, e o movimento pode ser visto como uma iniciativa simpática em um contexto de críticas. No Reino Unido, a legislação criada pelo governo em 2020 vai fazer parte do discurso anual da rainha Elizabeth que anuncia as prioridades do ano legislativo, em maio.
+Leia mais: Multas de até R$ 130 milhões para redes que não banirem conteúdo ofensivo no Reino Unido
A forra: usuário poderá mandar avisos aos algoritmos
A novidade do Twitter prevê também que a cada aviso que apareça em sua tela, o usuário alertado poderá também mandar avisos aos algoritmos. Para ajudar aprimorar o sistema, o usuário poderá avisar se o entendimento do algoritmo a respeito da mensagem estava correto ou não – mas sem a opção de usar linguagem forte contra ele.
O Twitter começou a testar os avisos no ano passado. A empresa diz que 11% das pessoas submetidas a pelo menos um aviso passaram a partir daí a elaborar em média 11% menos respostas ofensivas.
Além disso, revela que as pessoas que foram questionadas sobre uma resposta (e, portanto, podem ter suavizado sua linguagem) eram elas próprias “menos propensas a receber respostas ofensivas e prejudiciais”. Não foram divulgadas quantas pessoas participaram e nem detalhes da metodologia dos testes.
Quem avisa, amigo é?
No comunicado em que anunciou a novidade, a empresa reconhece que no início dos testes as pessoas recebiam avisos desnecessários, porque os algoritmos não conseguiam capturar as nuances e muitas vezes não diferenciavam um tuíte aparentemente maldoso do que era simplesmente sarcasmo ou uma brincadeira amigável.
Com base no feedback e na aprendizagem do experimento, foram feitas melhorias nos sistemas que decidem quando e como esses avisos são enviados. A tecnologia teve que ser aprimorada para detectar “linguagem forte” com mais precisão, incluindo palavrões.
Outros ajustes tiveram que ser feitos para que os algoritmos entendessem melhor o uso do idioma por comunidades sub-representadas, incluindo gírias e termos utilizados de maneira não prejudicial em determinados contextos.
Xingar amigos pode
O sistema também passou a considerar na sua análise a natureza da relação entre o autor da mensagem e o respondente.
Se duas contas se seguem e respondem uma à outra com frequência, os algoritmos presumirão que há uma probabilidade maior de os participantes terem um melhor entendimento do tom de comunicação preferido e não mostrarão avisos. Portanto, não precisa se aborrecer ou xingar, pois a comunicação com seus amigos não será afetada. Pelo menos por enquanto.
Aviso importante: novos avisos a caminho
O Twitter informa que continuará pesquisando a utilização de novos avisos e outras formas de intervenção que possam incentivar conversas mais saudáveis e um comportamento melhorado na plataforma.
A plataforma está aberta a sugestões – mas não deixe de pensar duas vezes antes de enviá-las.