Bárbara Fernandes Silva
A propagação de comentários de caráter ofensivo nas redes sociais é objeto de estudo de pesquisadores nas mais diversas áreas. As mídias sociais não criaram o discurso de ódio, mas trouxeram novos desafios para a criminalização desses atos.
Para Gabriela Agostinho Pereira, mestre em comunicação e práticas do consumo pela Escola Superior de Propaganda e Marketing (ESPM), a instantaneidade de repercussão e os algoritmos das redes contribuem para um efeito de ilusão de maioria que fortalece o comportamento e diminui o espaço para o questionamento. E essa retroalimentação ajuda a promover a divulgação do discurso de ódio.
Esse comportamento aparece em comentários, grupos específicos, e postagens públicas com a intenção de insultar ou perturbar determinados grupos. Há também uma questão de engajamento, e pessoas que concordam com o conteúdo demonstram seu apoio através de comunicações não verbais, reagindo com curtidas, ou ainda com símbolos mais específicos. Quem compactua com o discurso também pode compartilhá-lo facilmente nas redes, colocando-o em seu perfil ou enviando diretamente para outras pessoas, promovendo a viralização.
Perfis e estratégias argumentativas
Para Luiz Rogério Lopes Silva, doutorando em gestão da informação e membro do grupo de pesquisa Information & MediaLab da pela Universidade Federal do Paraná, os usuários que transmitem esses ataques podem ser categorizados em três tipos: haters, trolls e naysayers. “A literatura aponta que o hater é aquele que gosta de odiar, e é importante pensar o ódio não só como um sentimento, porque, muitas vezes, as interações dentro do espaço digital não estão somente carregadas com a raiva e fúria, às vezes trazem um sentimento de superioridade, a posição de dono da verdade em relação a todas as outras pessoas”, explica Silva.
Já os trolls advêm do sentido de fazer o peixe morder a isca, de desvirtuar a conversa e impedir o avanço de discussões na internet pelo uso de sarcasmo e humor com piadas e recursos gráficos como gifs e pictogramas.
Por fim, os naysayers, termo de origem no marketing que se direciona ao que faz uma oposição tanto à vítima do discurso de ódio quanto ao que propaga aquele comportamento. “Porém, essa indiferença contribui para que a voz do opressor sobressaia em relação à voz do oprimido”, diz Silva.
Além desses perfis, as formas de argumentação também podem ser classificadas. Welton Pereira e Silva, doutor em letras vernáculas pela Universidade Federal do Rio de Janeiro (UFRJ), verificou em sua pesquisa algumas técnicas que se destacam.
Em relação à homofobia, o tipo de argumentação mais encontrado foi o baseado na desmoralização do alvo, criticando a sexualidade como algo imoral. Em discursos com conteúdo transfóbico, o mais recorrente foi a negação da transexualidade, em que o enunciador deslegitima, negando, a existência da luta e de pessoas transexuais.
Já nos comentários de cunho racista se sobressai o emprego de ironia, em que o sujeito argumentante denota ódio e desprezo pelo indivíduo ou grupo-alvo de modo implícito, muitas vezes com intuito de se proteger de uma acusação que o coloque na posição de racista.
Por fim, entre as estratégias argumentativas de caráter de intolerância religiosa, a de maior destaque foi a correspondente à de reforço da exclusão, quando o indivíduo exclui a vítima como não pertencente ao grupo do enunciado, o que “justificaria” o ódio, sendo que a maior parte dos comentários nesse meio destinavam-se as religiões de matriz africana.
“Pessoas expressam seu ódio contra minorias através da justificativa de que é uma questão de opinião, como se isso fosse isentá-las da denominação de preconceituosa, racista, homofóbica, transfóbica etc. Ensinar a diferença entre preconceito e opinião e sobre como o discurso de ódio é um crime é essencial para que o indivíduo não tente se valer do direito de liberdade de expressão para dispersar o ódio”, diz Welton Silva.
Recorrência e moderação
Há algum esforço por parte dos organizadores das redes em solucionar o problema, e existem métodos de moderação de conteúdo para monitorar o fluxo de postagens odiosas. Silva destaca a moderação sinalizada ou o “flagging” – que é quando o próprio usuário denuncia determinada postagem para a plataforma. Há ainda as detecções automatizadas, que operam através de um conjunto de dados conhecido como Big Data, e a moderação humana, na qual o conteúdo passa pela revisão de uma pessoa contratada pela empresa responsável pela rede.
Entretanto, apesar da possibilidade de implementação dessas políticas, para as redes o discurso de ódio é bastante lucrativo. “O Facebook escolhe deixar em sua rede publicações com discursos de ódio que, consequentemente, geram algum tipo de manifestação de qualquer lado sobre um tema, pois isso gera mais engajamento e, quanto mais as pessoas engajam, mais tempo elas passam nessas plataformas, e quanto mais tempo elas passam nessas plataformas, mais o Facebook lucra”, destaca Gabriela Pereira.
A situação é complexa, mas para uma solução efetiva, mudanças e regularizações devem ser aplicadas em todas as camadas. “Existe um longo caminho a ser percorrido em relação a como as pessoas percebem seus próprios preconceitos. Além do caminho jurídico que precisa ser feito, precisamos nos atentar ao caminho educacional para alterar aquilo que foi naturalizado na sociedade”, afirma Gabriela Pereira.
Bárbara Fernandes Silva é formada em jornalismo (Unip). Cursa especialização em jornalismo científico (Labjor/Unicamp)