Preencha seus dados e receba nossa newsletter

|

Alemanha endurece no combate ao discurso de ódio na Internet

Imagem: alice.d via Visualhunt.com / CC BY-NC-ND

No último dia 30 de junho, foi aprovada na Alemanha uma lei mais agressiva no combate ao discurso de ódio na internet. Ela fixa multas milionárias em caso de descumprimento por parte das plataformas, que deverão remover conteúdos “claramente ilícitos” em até 24 horas.

O projeto de lei que culminou na nova legislação aponta como justificativa o desenvolvimento de uma cultura do debate mais “agressiva, danosa e odiosa”, guiada por mudanças maciças no debate público travado nas redes sociais. Essa situação teria aberto espaço para a disseminação de conteúdos criminosos como o discurso de ódio, o que colocaria em risco a “coexistência pacífica [das pessoas] em uma sociedade livre, aberta e democrática”.

Nos termos da Lei Alemã de Telemídia, atualmente em vigor, as plataformas já se tornavam responsáveis por conteúdos ilícitos armazenados caso não os removessem (ou bloqueassem) assim que tomassem conhecimento da sua existência – via notificação extrajudicial, por exemplo. A nova lei veio concretizar essa obrigação, criando instrumentos para que o Estado possa constranger as plataformas a atendê-la.

Uma das exigências da lei é a estruturação de sistemas para gestão dos pedidos de remoção de conteúdo. A obrigação envolve desde a elaboração de métodos simples para reportar conteúdo tido por ilegal à manutenção de canais para que o usuário informe-se a respeito de eventual pedido de remoção apresentado por ele. Ela impõe, ainda, dever de transparência, caracterizado pela elaboração trimestral de relatórios, na língua alemã, que descrevam com riqueza de detalhes e dados o tratamento dispensado ao controle do discurso de ódio e de outros conteúdos criminosos.

Segundo o Governo Federal Alemão, a importância da lei decorre da insuficiência das iniciativas tomadas de forma autônoma pelas plataformas e dos problemas de implementação das normas já existentes, o que tornou necessária a introdução de regras de compliance.

O contexto europeu

Na União Europeia, onde a discussão já está mais avançada – ao menos em termos de consolidação de diretivas e orientações de órgãos supranacionais sobre a matéria – a preocupação com o discurso de ódio avançou para o ambiente digital. Em maio do ano passado, a Comissão Europeia, em conjunto com o Facebook, a Microsoft, o Twitter e o YouTube, subscreveram um código de conduta para combater o discurso de ódio. Dentre as diversas disposições do documento, as plataformas assumiram o compromisso de remover conteúdo tido por “discurso de ódio ilegal” em até 24 horas contadas de notificação solicitando essa remoção. Além disso, deveriam tornar mais claro aos seus usuários quais tipos de conteúdo não são permitidos e promover iniciativas de contradiscurso.

Passado um ano da divulgação do código de conduta, a Comissão Europeia soltou nota comemorando o aniversário da iniciativa e números que comprovariam uma postura mais proativa das plataformas para lidar com o problema do discurso de ódio.

O lado das plataformas

Em pronunciamento recente, o Facebook reconheceu dificuldades em tornar a plataforma uma “zona livre” de discurso de ódio. Destacou que vai aumentar de 4,5 para 7,5 mil o número de moderadores de conteúdo, pessoas contratadas e treinadas especificamente para analisar posts, imagens, vídeos e comentários, decidindo se devem continuar na plataforma. Além do Facebook, outras plataformas como Twitter e Youtube anunciaram estar articulando regras globais e ferramentas para a minimizar o efeito do discurso de ódio nas plataformas e torná-las espaços mais seguros. Mesmo assim, o desafio de operar simultaneamente em diversas jurisdições e estimular o fluxo de mensagens entre pessoas localizadas em países diferentes é grande.

De fato, o conceito de “discurso de ódio” varia de país para país, sendo que em muitos deles sequer há legislação específica, o que expõe as plataformas a legislações aplicáveis que podem exigir providências diferentes e, em alguns casos, contrapostas. Além disso, outras questões de contexto relacionadas à cultura, à política e ao idioma devem ser levadas em conta pelos moderadores de conteúdo, o que torna a tarefa ainda mais complexa.

Em modelos que facilitam as situações de responsabilização das plataformas, há ainda o risco de overblocking­ – isto é, o estímulo às plataformas para que censurem mais conteúdo do que o necessário, o que pode representar uma ameaça para a liberdade de expressão e a manutenção de conteúdos legítimos no ar. No caso da lei alemã, nem esse argumento foi suficiente: o Parlamento considerou mais urgente conter o volume crescente de mensagens xenófobas que circulam no país.

Dificuldades de implementação

Definir critérios e regras que norteiem a distinção entre conteúdos legítimos e discursos de ódio é tarefa tão delicada que pode acabar gerando distorções. Em matéria publicada no último dia 28 de junho, por exemplo, a ProPublica divulgou documentos contendo algumas das orientações internas que o Facebook utilizaria para treinar seus moderadores de conteúdo.

Nos termos dos slides de treinamento divulgados, explica-se quais são as categorias consideradas como protegidas (gênero, identidade de gênero, raça, afiliação religiosa, etnia, origem nacional, orientação sexual, séria deficiência ou doença) e quais não são (classe social, profissão, origem de continente, ideologia política, aparência, religiões, idade, países). Isso significa que a categoria “criança” (idade) não é protegida e a categoria “gay” é (orientação sexual), por exemplo. Quando as categorias são somadas em grupos, a presença de uma “categoria não protegida” desclassifica o grupo como protegido, desaconselhando-se a remoção do conteúdo tido como ofensivo nesses casos. Isso significa dizer, por exemplo, que discursos dirigidos ao grupo “crianças negras” ou ao grupo “motoristas mulheres” não seriam considerados como discursos de ódio pela plataforma, ao passo que aqueles dirigidos a “homens brancos” sim.

O exemplo sugere que ainda que o discurso de ódio deva ser combatido de diversas formas, inclusive por meio da remoção, transferir a responsabilidade de decidir o que deve ou não ser considerado como tal às plataformas também pode ser problemático. Além disso, a utilização de critérios de análise criados pelas plataformas podem se voltar contra os próprios grupos subalternizados na medida em que podem dificultar estratégias de contradiscurso (como é o caso da postagem de Didi Delgado, ativista ligado a questões raciais, que teve a postagem “todos os brancos são racistas. Parta desse ponto de referência ou você já falhou” removida do Facebook, como também indica a reportagem da ProPublica).

Outro problema é a criação de óbices à fiscalização da lei nos países em que esse tipo de discurso é regulado. Isso porque, ao contrastar determinada conduta com os termos de uso da plataforma, os moderadores de conteúdo removerão o que considerarem inadequado, mas provavelmente não reportarão eventual violação da lei a autoridades públicas, o que também gera um déficit de transparência.

E o Brasil?

Ao darmos um passo para trás nessa discussão, veremos que o discurso de ódio, muito embora seja um problema amplamente reconhecido em muitos países, permanece controverso em diversos aspectos que vão desde a sua definição, os parâmetros para sua identificação no caso concreto até a resposta que se deve dar a ele, sobretudo do ponto de vista jurídico. E essas dificuldades se dão, em grande medida, pela natureza contextual do discurso de ódio: tanto os grupos tidos por vulneráveis, quanto a forma de externalização da mensagem intimidatória que caracteriza essa forma de discurso podem variar de país a país (ou até de região a região dentro de um mesmo país).

Assim, além de haver discussões sobre quais grupos devem ser protegidos do discurso de ódio — no Brasil, como sabemos, não há lei criminalizando o discurso de ódio contra LGBTs, muito embora tenhamos legislação nesse sentido coibindo o racismo, por exemplo –, existem discussões questionando o uso do direito penal para essa finalidade, ou mesmo sobre como podemos identificar, na prática, a ocorrência de um discurso de ódio. A lista de dúvidas é grande e o debate permanece em aberto.

Equipe responsável pelo conteúdo: Thiago Dias Oliva (thiago.oliva@internetlab.org.br) e Dennys Antonialli (dennys@internetlab.org.br).