Assinar

Facebook revê política sobre conteúdo que incita violência

Buscar

Facebook revê política sobre conteúdo que incita violência

Buscar
Publicidade
Mídia

Facebook revê política sobre conteúdo que incita violência

Plataforma terá nova diretriz para revisão e bloqueio de discurso de ódio, enquanto WhatsApp ganha apoio de iniciativas de checagem de notícias


19 de julho de 2018 - 10h00

Por Karina Balan Julio, de São Francisco*

Nessa quarta-feira, 18, o Facebook abriu suas portas à mídia internacional durante evento na sua sede global em Menlo Park, na Califórnia. Pela primeira vez, a plataforma realizou uma série de coletivas de imprensa, com executivos de diferentes áreas da empresa, para destacar seus esforços no sentido de prover maior proteção a dados dos usuários, após ser responsabilizada pela disseminação de conteúdos abusivos e imprecisos em suas principais plataformas — Facebook, Instagram e WhatsApp.

 

O time de combate à desinformação do Facebook (Crédito: Karina Balan Julio)

Uma das iniciativas da empresa é uma nova política para derrubar postagens que incitem a violência física real. A plataforma anunciou que vai estabelecer parcerias com entidades da comunidade civil em diferentes mercados para entender as tensões sociais de cada país, como elas se manifestam nas redes sociais e motivam ações reais.

No Sri Lanka, por exemplo, a plataforma foi acusada pelo governo local de contribuir para protestos islamofóbicos, que culminaram na morte de três pessoas em março deste ano. Já na Índia, o assassinato de 24 pessoas inocentes desde abril tem como uma de suas motivações a disseminação de vídeos falsos via WhatsApp sobre o rapto de crianças. São lugares cujas operações da plataforma deverão ser afetadas pelas novas políticas.

“Há países em que a distribuição de vários pedaços de informação desencontradas já incitou a violência real. No Sri Lanka, por exemplo, houve casos em que poderíamos ter feito alguma coisa para ajudar a identificar estas tensões”, afirmou a gerente de produto Tessa Lyons.

Denominada “real-world harm policy”, a nova política é inédita pela participação de parceiros externos, e destoa das diretrizes de banimento de outros conteúdos, como nudez, discurso de ódio e discriminação, em que a identificação e remoção de posts é feita exclusivamente pelo time do Facebook. No caso de conteúdos relacionados à terrorismo, spams comerciais e contas falsas, a plataforma diz ser capaz de remover 98% das postagens pró-ativamente — isto é, antes de qualquer denúncia de usuários. Nesses casos, o processo é amplamente automatizado.

Já discursos de ódio são os mais difíceis de identificar e remover, pois dependem da avaliação humana do contexto da mensagem e das intenções de cada usuário. De cada cem postagens com discursos de ódio, o Facebook consegue remover apenas 38 proativamente. Já quando o assunto é conteúdo que incita a violência, a plataforma consegue remover cerca de 85% das postagens.

Nuances do discurso
Os parâmetros sobre quais discursos são aceitáveis e inaceitáveis na rede social variam de mercado para mercado, e por isso a empresa diz que o tratamento de determinados temas pela plataforma pode ser diferente de um país para outro. Uma postagem que diga que o holocausto não aconteceu, por exemplo, pode ser interpretada como discurso de ódio ou notícia falsa, dependendo de onde foi feita.

“Negar o holocausto é contra a lei em vários países por questões históricas, como na Alemanha. Nestes países, nos submetemos às leis locais e removemos este tipo de conteúdo. Em outros países, como os Estados Unidos, uma negação como esta não vai contra a lei. Neste último caso, não removemos o conteúdo, mas o tratamos como ‘desinformação’ e então reduzimos sua distribuição pelo algoritmo”, explica Tessa.

A empresa conta com cerca de 20 mil funcionários em diferentes regiões do mundo treinados especificamente para revisar conteúdos considerando as particularidades linguísticas de cada local.

WhatsApp e fake news
Na luta para barrar a disseminação de notícias falsas, o WhatsApp não é capaz de impedir a distribuição de mensagens individuais, uma vez que não tem acesso às mensagens, todas criptografadas. Apesar disso, o aplicativo vai começar a identificar como “encaminhadas” mensagens que já foram repassadas a partir de outras conversas.

“Não conseguimos olhar para o contexto do conteúdo, colocar uma mensagem em último em uma escala de credibilidade ou escolher não entregar uma mensagem, como o faz o Facebook. Porém podemos ajudar as pessoas a ter mais contexto sobre a distribuição daquilo e a partir daí pensar mais sobre o teor da mensagem”, diz Carl Woog, communications manager do WhatsApp.

O recurso deve começar a funcionar no Brasil nas próximas semanas. Pensando nas próximas eleições presidenciais, a empresa também lança no País uma iniciativa de checagem de notícias compartilhadas no aplicativo, em parceria com a Comprova, entidade de fact checking com apoio de 24 veículos, entre eles Estadão, Folha de S. Paulo, Futura, Band, Uol e Piauí.

Junto à comunidade acadêmica global, o WhatsApp oferecerá apoio de até US$ 50 mil para financiar propostas de pesquisas sobre a disseminação de notícias falsas no aplicativo.

*A repórter viajou para os Estados Unidos a convite do Facebook

Publicidade

Compartilhe

Veja também