Imagem ilustrativa de pessoa branca colocando luvas cirúrgicas azuis.

InternetLab recomenda que Facebook adote estratégias apropriadas à realidade da pandemia no Brasil

Notícias Liberdade de Expressão 25.06.2021 por Artur Pericles Lima Monteiro e Blenda Santos

No início de junho, o Comitê de Supervisão do Facebook, o Oversight Board, abriu mais um caso para consulta pública. O InternetLab apresentou uma contribuição ao caso, que diz respeito a desinformação relativa ao combate à pandemia disseminada em  post de um conselho regional de medicina. 

Órgão criado pelo Facebook para funcionar como um controle independente do conteúdo na plataforma, o comitê tem recebido comentários de indivíduos e organizações ao redor do mundo. Este é o terceiro caso em que o InternetLab interveio; antes disso, enviamos contribuições ao em 2020 (primeiro caso brasileiro) e outra em fevereiro deste ano (sobre a política de líderes políticos, discutida no caso do ex-presidente Donald Trump).

O caso remetido pelo Facebook ao comitê: desinformação por conselho regional de medicina

Na chamada da consulta pública, o comitê incluiu a seguinte descrição do caso:

Em março de 2021, a Página do Facebook de um conselho médico estadual do Brasil publicou uma imagem de um aviso por escrito com uma mensagem com medidas para reduzir a propagação da COVID-19. O aviso diz que lockdowns são ineficazes, são contra os direitos fundamentais da Constituição e são condenados pela Organização Mundial da Saúde (OMS). Ele inclui uma suposta citação do Dr. David Nabarro da OMS, dizendo: “o lockdown não salva vidas e torna os pobres mais pobres”. O aviso também diz que o estado brasileiro do Amazonas sofreu um aumento no número de mortes e hospitalizações após o lockdown, o que comprova a falha das restrições por lockdown. O aviso diz que lockdowns causariam um aumento nos distúrbios mentais, abuso de álcool e drogas e danos econômicos, entre outras coisas. Ele conclui que medidas preventivas efetivas contra a COVID-19 incluem campanhas de educação sobre medidas de higiene, o uso de máscara, distanciamento social, vacinação e monitoramento amplo do governo, mas nunca a decisão de adotar lockdowns.

O conteúdo foi visualizado cerca de 32 mil vezes e compartilhado mais de 270 vezes. Nenhum usuário denunciou o conteúdo. O Facebook não agiu contra o conteúdo e encaminhou o caso ao Comitê. O conteúdo permanece na plataforma.

Nesse encaminhamento para o Comitê, o Facebook disse que o caso é “difícil, pois esse conteúdo não viola as políticas do Facebook, mas ainda pode ser lido por algumas pessoas como uma defesa de certas medidas de segurança durante a pandemia”. A empresa afirma que, segundo a política de Desinformação e danos, ocorre a remoção de conteúdo contendo desinformação quando “autoridades de saúde pública concluem que as informações são falsas e podem contribuir para violência iminente ou danos físicos”. O Facebook diz que “esse conteúdo não atende a esse padrão. Apesar de a Organização Mundial de Saúde e outros especialistas em saúde terem aconselhado o Facebook a remover ações que criticam práticas de saúde específicas, como o distanciamento social, eles não orientaram o Facebook a remover ações que criticam lockdowns”.

A contribuição do InternetLab

Escrita em conjunto com o professor Bruno Caramelli, da Faculdade de Medicina da USP, a contribuição chama atenção para os compromissos publicamente assumidos pelo Facebook, inclusive em sua política corporativa de direitos humanos. Nessa política, a empresa promete estar atenta às circunstâncias em cada região que opera.

No caso que submeteu ao comitê, no entanto, não mostra ter levado em conta a realidade brasileira. Como a contribuição destaca:

  • O conteúdo em questão contém dois elementos de desinformação, distorcendo a fala de David Nabarro e as evidências sobre o lockdown em Manaus;
  • O post apresenta potencial impacto negativo consideravelmente maior por ter sido disseminado por um conselho de medicina no Brasil, a que a população atribui credibilidade;
  • Por isso, considerando as políticas e compromissos adotados pela própria empresa, seria de se esperar que ao conteúdo em questão tivesse ao menos sido aplicado rótulo de desinformação;
  • O Facebook afirma buscar orientação de especialistas, sem esclarecer quem seriam; nada indica porém que sejam pessoas ligadas à realidade brasileira, que teriam muita familiaridade quanto aos fatos distorcidos no post;
  • Se a crise institucional brasileira é a razão pela qual o Facebook não tem buscado apoio no Ministério da Saúde, nem por isso o Facebook pode se omitir, considerando particularmente o princípio 23 dos Princípios orientadores sobre empresas e direitos humanos da ONU, que se comprometeu a observar, inclusive diante contexto local diverso;
  • No contexto brasileiro, isso poderia se traduzir na criação, pelo Facebook, de um grupo de assessoramento composto por experts independentes, como especialistas da Sociedade Brasileira de Infectologia.

O documento ressalta que a responsabilidade pela desinformação na pandemia não deve ser cobrada apenas das plataformas, mas também de agentes públicos e profissionais com deveres éticos, como médicas e médicos. Mesmo assim, se o Facebook pretende honrar suas promessas, não pode se omitir: deve adotar estratégias apropriadas à realidade brasileira.

Leia a contribuição enviada ao Comitê de Supervisão aqui (em português). Ela também pode ser lida em inglês aqui.

compartilhe