Facebook revê política sobre conteúdo que incita violência
Plataforma terá nova diretriz para revisão e bloqueio de discurso de ódio, enquanto WhatsApp ganha apoio de iniciativas de checagem de notícias
Por Karina Balan Julio, de São Francisco*
Nessa quarta-feira, 18, o Facebook abriu suas portas à mídia internacional durante evento na sua sede global em Menlo Park, na Califórnia. Pela primeira vez, a plataforma realizou uma série de coletivas de imprensa, com executivos de diferentes áreas da empresa, para destacar seus esforços no sentido de prover maior proteção a dados dos usuários, após ser responsabilizada pela disseminação de conteúdos abusivos e imprecisos em suas principais plataformas — Facebook, Instagram e WhatsApp.

O time de combate à desinformação do Facebook (Crédito: Karina Balan Julio)
Uma das iniciativas da empresa é uma nova política para derrubar postagens que incitem a violência física real. A plataforma anunciou que vai estabelecer parcerias com entidades da comunidade civil em diferentes mercados para entender as tensões sociais de cada país, como elas se manifestam nas redes sociais e motivam ações reais.

Sete impactos da crise do Facebook
“Há países em que a distribuição de vários pedaços de informação desencontradas já incitou a violência real. No Sri Lanka, por exemplo, houve casos em que poderíamos ter feito alguma coisa para ajudar a identificar estas tensões”, afirmou a gerente de produto Tessa Lyons.
Denominada “real-world harm policy”, a nova política é inédita pela participação de parceiros externos, e destoa das diretrizes de banimento de outros conteúdos, como nudez, discurso de ódio e discriminação, em que a identificação e remoção de posts é feita exclusivamente pelo time do Facebook. No caso de conteúdos relacionados à terrorismo, spams comerciais e contas falsas, a plataforma diz ser capaz de remover 98% das postagens pró-ativamente — isto é, antes de qualquer denúncia de usuários. Nesses casos, o processo é amplamente automatizado.
Já discursos de ódio são os mais difíceis de identificar e remover, pois dependem da avaliação humana do contexto da mensagem e das intenções de cada usuário. De cada cem postagens com discursos de ódio, o Facebook consegue remover apenas 38 proativamente. Já quando o assunto é conteúdo que incita a violência, a plataforma consegue remover cerca de 85% das postagens.Nuances do discurso
Os parâmetros sobre quais discursos são aceitáveis e inaceitáveis na rede social variam de mercado para mercado, e por isso a empresa diz que o tratamento de determinados temas pela plataforma pode ser diferente de um país para outro. Uma postagem que diga que o holocausto não aconteceu, por exemplo, pode ser interpretada como discurso de ódio ou notícia falsa, dependendo de onde foi feita.
A empresa conta com cerca de 20 mil funcionários em diferentes regiões do mundo treinados especificamente para revisar conteúdos considerando as particularidades linguísticas de cada local.
WhatsApp e fake news
Na luta para barrar a disseminação de notícias falsas, o WhatsApp não é capaz de impedir a distribuição de mensagens individuais, uma vez que não tem acesso às mensagens, todas criptografadas. Apesar disso, o aplicativo vai começar a identificar como “encaminhadas” mensagens que já foram repassadas a partir de outras conversas.
“Não conseguimos olhar para o contexto do conteúdo, colocar uma mensagem em último em uma escala de credibilidade ou escolher não entregar uma mensagem, como o faz o Facebook. Porém podemos ajudar as pessoas a ter mais contexto sobre a distribuição daquilo e a partir daí pensar mais sobre o teor da mensagem”, diz Carl Woog, communications manager do WhatsApp.

WhatsApp testa recurso para barrar correntes
Junto à comunidade acadêmica global, o WhatsApp oferecerá apoio de até US$ 50 mil para financiar propostas de pesquisas sobre a disseminação de notícias falsas no aplicativo.
*A repórter viajou para os Estados Unidos a convite do Facebook