Mídia

Eric Messa: “Felca escancarou realidade das redes sociais”

Para coordenador da FAAP, iniciativas das plataformas para evitar exposição de menores são insuficientes

i 18 de agosto de 2025 - 7h31

Mobilizador de debates sociais e políticas públicas, o vídeo-denúncia do influenciador Felca sobre adultização evidenciou a falha das plataformas digitais em proteger crianças e adolescentes de redes de pedofilia e do aliciamento de suas imagens para monetização através de conteúdos com apelo sexual, seja ele explícito ou implícito.

Eric Messa

Para professor da FAAP, conteúdo que sexualiza ou expõe menores é consequência de um ambiente digital que incentiva práticas de monetização (Crédito: Arthur Nobre)

O vídeo gerou uma grande comoção nas redes sociais e culminou em um aumento significativo nas denúncias contra pornografia infantil. No período de uma semana, entre 6 e 12 de agosto, a organização não-governamental SaferNet registrou aumento de 114% no número de acusações no Canal Nacional de Denúncias de Crimes e Violações a Direitos Humanos na Web. O vídeo de Felca soma mais de 40 milhões de visualizações.

Em seu vídeo, o criador de conteúdo faz uma demonstração de como o algoritmo do Instagram facilmente entrega conteúdos cuja sessão de comentários é povoada de gifs que direcionam o usuário à grupos no Telegram nos quais há troca de pornografia infantil.

Segundo o coordenador do Núcleo de Inovação em Mídia Digital e dos cursos de Relações Públicas e Publicidade e Propaganda da FAAP, Eric Messa, esse é um caso em que as plataformas poderiam usar inteligência artificial para aprimorar sua moderação e enviar os perfis para uma análise de olhar humano.

Outra crítica do vídeo é o fato dos conteúdos serem, muitas vezes, monetizados em formatos de mídia das plataformas ou via acordos publicitários com os influenciadores. Nesse quesito, Messa opina que marcas e agências deveriam exigir um melhor controle para que seus anúncios não sejam expostos junto a conteúdos ilícitos.

Para o professor, esse é um problema estrutural e complexo. A solução, diz, passa por diferentes etapas, desde o bloqueio e eliminação dos conteúdos denunciados, até a criação de medidas regulatórias que atribuem algum nível de responsabilidade às plataformas. Uma regulação obrigaria a busca por uma solução de moderação mais robusta e proativa.

Confira a entrevista completa.

Meio & Mensagem – O que Felca relata em seu video-denúncia condiz com a realidade das plataformas hoje?

Eric Messa – As bolhas informacionais das redes sociais nos impedem de ter acesso a tudo que circula por lá e o vídeo do Felca escancarou uma prática que faz parte, infelizmente, da realidade das redes sociais. A presença de conteúdo que sexualiza ou expõe crianças e adolescentes é, sem dúvida, consequência de um ambiente digital que incentiva práticas de monetização e busca de audiência através de formatos virais com alto apelo emocional. Isso não significa que toda presença de crianças em conteúdos de rede social seja exploração, mas confirma que existe um problema real.

M&M – As empresas donas das plataformas tentam combater esse problema? Como?

Messa – As plataformas em geral possuem iniciativas para evitar problemas assim, mas claramente são insuficientes. Muitas possuem ferramentas de denúncias e equipe de análise de conteúdo. Contudo, me parece que ainda falta transparência sobre critérios e filtros, bem como mais investimento para a moderação de conteúdo em escala.

M&M – Os algoritmos de recomendação contribuem para ampliar esse tipo de conteúdo e formar redes predatórias?

Messa – Ao que tudo indica os algoritmos são elementos que contribuem diretamente para a amplificação de conteúdos assim, pois ao perceber que determinado usuário se interessou por um conteúdo em particular, o algoritmo irá impulsionar mais conteúdos similares, sem muitos filtros morais ou legais a respeito desse conteúdo. Acho importante ressaltar que a plataforma pode ser co-responsabilizada, mas nunca considerar como a principal culpada. O algoritmo é um mecanismo, não a causa única. Há atores humanos, mercados e uma grande audiência interessada. Quando vídeos com crianças são produzidos segundo fórmulas que geram reações e engajamento, eles tendem a ser amplificados pelos algoritmos, mas isso só acontece pois há uma audiência interessada nesse conteúdo. Assim, o trabalho de conscientização da população é também parte essencial da solução.

M&M – Esses conteúdos são monetizados? De que formas?

Messa – Em geral, esses conteúdos são monetizados através de anúncios na plataforma ou através de doações e presentes em lives feitas pelos usuários. Esses perfis podem realizar também rifas, sorteios, venda de produtos ou até mesmo publieditoriais de outros serviços de caráter duvidoso como jogos de azar.

M&M – É possível encontrar solução, considerando pais, plataformas e usuários envolvidos? Qual?

Messa – É preciso investir fortemente em educação digital e campanhas públicas de conscientização da sociedade em relação ao uso e exposição nas redes sociais. Nós, como sociedade, precisamos reaprender limites entre exposição e proteção.