Qual é o limite do controle do conteúdo pelas plataformas?

Buscar

Mídia

Publicidade

Qual é o limite do controle do conteúdo pelas plataformas?

Especialistas opinam a respeito de como as redes sociais podem coibir conteúdos falsos e prejudiciais e preservar o espaço para o debate de ideias

Bárbara Sacchitiello
12 de janeiro de 2022 - 6h02

(Crédito: iStock)

Conforme as redes sociais foram ganhado mais popularidade e servindo como palco de conversas e discussões para milhões de pessoas, cresceram também os debates a respeito dos limites e, sobretudo, as responsabilidades que essas plataformas têm em relação às discussões que acontecem em seus ambientes.

Uma dessas discussões acabou, inclusive, movimentando as redes sociais na passada e gerando até uma reação por parte do Ministério Público Federal. Depois de o público tecer muitas críticas a respeito da maneira como o Twitter lida com o conteúdo falso e inadequado postado em suas timelines, o MPF enviou um ofício questionando a empresa sobre o porquê de ela não ter, no Brasil, uma ferramenta de denúncia que identifique que determinado conteúdo é inadequado por trazer informações inverídicas a respeito da pandemia de Covid-19.

A cobrança por uma postura mais firme das plataformas a respeito do conteúdo postado pelos usuários não é algo novo. Em 2020, milhares de marcas, de diferentes portes, se uniram no movimento Stop Hate for Profit, criado nos Estados Unidos com a proposta de pressionar o Facebook, principalmente, a adotar políticas mais rígidas em relação à análise de conteúdo. A proposta do movimento era pedir aos anunciantes que deixassem de investir na rede social até que as políticas de remoção de conteúdo fossem mais rígidas. A ideia não chegou a prejudicar financeiramente a empresa, mas fez barulho em todo o mundo e ajudou a fomentar as discussões sobre as responsabilidades das redes sociais.

Nesses tempos de pandemia, em que informações sobre vacinas, medicamentos ineficazes e ausência de medidas de proteção podem colocar em riso a vida de pessoas, a cobrança por políticas mais claras em relação à análise de conteúdo, a cobrança para que as plataformas controlem melhor o conteúdo postado em seu ambiente tem aumentado.

Assim que recebeu o ofício do MPF, o Twitter declarou que desde o início da pandemia definiu políticas para tratar informações sobre a Covid-19 e que essas políticas “não preveem a atuação em todo o conteúdo inverídico ou questionável sobre a pandemia, mas em tweets que possam expor as pessoas a mais risco de contrair ou transmitir a doença.”

A plataforma levantou também uma questão que sempre paira nas discussões sobre as polícias de conteúdo: o espaço para a liberdade de expressão. No comunicado divulgado na semana passada, o Twitter disse que “tem o desafio de não arbitrar a verdade e dar às pessoas que usam o serviço o poder de expor, contrapor e discutir perspectivas. Isso é servir à conversa pública”, acredita a rede social.

Na opinião de especialistas em mídias digitais, a questão da liberdade de expressão versus a preservação de um ambiente saudável e blindado de notícias falsas é uma discussão típica dos tempos atuais. ‘Plataformas sociais, em termos históricos, são ambientes ainda novos para a humanidade e por isso exigem o enfrentamento destes dilemas morais e éticos. É difícil nesse caso qualquer comparação com outros meios de comunicação anteriores, como o jornal e a televisão”, admite Eric Messa, coordenador do Núcleo de Inovação em Mídia Digital da FAAP.

O especialista tem a opinião de que as plataformas sociais costumam ponderar bastante qualquer regra que determine limites do que pode ser publicado. Isso acontece, segundo ele, pelo fato dessas redes quererem evitar o risco de transparecer um ato de censura. “Assim, elas se baseiam muito no interesse à liberdade de expressão do usuário e no respeito à legislação local. É preciso considerar essa complexidade: por se tratar de uma plataforma de acesso global, é preciso considerar a legislação de cada País”, lembra Messa.

Professor de marketing digital da Escola Superior de Propaganda e Marketing do Rio de Janeiro (ESPM-Rio), João Vitor Rodrigues acredita que as plataformas possuem compreensões distintas do que pode ser considerado como conteúdo inadequado. “Parece haver maior entendimento em relação a conteúdos com imagens ou palavras ofensivas, pornografia, violência e situações bem explícitas. No entanto, as questões mais relevantes hoje em dia, como racismo, misoginia, LGBTQIA+, fobias ou aquelas relativas às vacinas e ao vírus, mesmo quando explícitas em agressões, passa como se fossem opiniões nas redes, o que é inadmissível”, critica o professor.

A respeito de uma ferramenta específica para denúncias de conteúdos falsos a respeito da pandemia de Covid-19 e de outras questões de saúde, Rodrigues acredita que é necessário que o Twitter e outras plataformas não apenas contem com esse canal de conteúdo específico, mas que essas ferramentas recebam atenção contínua das plataformas e que suas equipes sejam formadas por pessoas capazes de compreender verdadeiramente o contexto das denúncias. “Não adiante atribuir a responsabilidade dessas análises apenas a softwares autônomos e ditos inteligentes. É preciso entender para além dos algoritmos quais são as táticas que certos grupos adotam para burlar sistemas automatizados de filtros de conteúdos”, sugere.

Eric Messa acredita que, nesse momento em que todas as plataformas enfrentem esse desafio de conteúdos que envolvam a questão da pandemia, a solução poderia estar na criação de um grupo de avaliação de conteúdo independente. “Seria interessante a criação de um comitê independente e sob regência de um órgão internacional, que fosse responsável pela sugestão de uma regulamentação e orientação dos limites e deveres tanto das plataformas como de seus usuários. Os autores dessa regulamentação ficariam com essa grande responsabilidade de avaliar os limites éticos, morais e legais. Essa regulamentação deveria ser submetida a todas as plataformas sociais”, explica Messa.

O coordenador da Faap também pontua que, no caso da pandemia, seria importante, por exemplo, uma orientação de como proceder com a verificação de veracidade do conteúdo e qual atitude tomar em caso de confirmação de fake news. “Acredito que seria apropriado que todas as plataformas seguissem a mesma orientação”, pontua.

Rodrigues, da ESPM-Rio, argumenta que, ao não se posicionarem sobre esse conteúdo nocivo de forma mais adequada, as plataformas acabam colaborando para o crescimento do problema. “Qualquer troca de ideias e de opiniões é sempre positiva, desde que todos os lados tenham as mesmas condições de debater. Não é isso que acontece. Aparece mais no debate quem paga mais ou tem mais patrocínio para promover suas ideias, incluindo a desinformação. As redes sociais precisam começar se mostrando mais dispostas a rever essa lógica para incluir mais pessoas, mais diferenças no debate, para qualificar seus ambientes de trocas e interações”, sugere o professor.

Publicidade

Compartilhe