Questões expostas por Felca demandam abordagem multisetorial
Debates sucitados pelo vídeo revelam a necessidade de transparência e maior envolvimento do mercado publicitário
A Câmara dos Deputados aprovou, nesta terça-feira, 19, em votação simbólica, o requerimento de urgência para a tramitação do Projeto de Lei nº 2628/2022, que trata da proteção de menores de idade em redes sociais. Essa aprovação permite que o projeto caminhe mais rapidamente e sem a necessidade de aprovação em algumas comissões. O objetivo da Câmara é votar o mérito do PL nesta quarta-feira, 20.
Com quase 50 milhões de visualizações, o vídeo “Adultização”, do influenciador Felca, foi o motivador que reacendeu debates sobre a presença de menores nas plataformas sociais e a medidas das mesmas para impedir a exploração desse público para fins monetários.
O tema, além de envolver diretamente as plataformas, esbarra na responsabilização do mercado publicitário, de responsáveis legais e do poder público em criar uma regulamentação efetiva para o ambiente social online.

Segundo levantamento da TIC Kids Online Brasil 2024, 83% das crianças e adolescentes que usam internet no Brasil têm contas em redes sociais (Crédito: Prostock Studio/Shutterstock)
Uma das acusações de Felca diz respeito ao modelo do algoritmo das plataformas que funciona para reter a atenção do usuário com base no sistema que a psicologia comportamental define como de reforçamento positivo.
Ao identificar como o usuário responde a diferentes tipos de conteúdo por engajamento, interação ou tempo e frequência de visualização, a plataforma passa a entregar conteúdo mais compatível com o que ele parece gostar. “Tudo aquilo que eu conseguir fazer para que eu te prenda, independentemente do conteúdo, seja ele legítimo ou ilegal, vai ser utilizado”, explica Marcio Borges, VP executivo e diretor-geral da WMcCann Rio e pesquisador do NetLab, da UFRJ, laboratório de pesquisa em internet e redes sociais.
Da mesma forma, com os dados objetivos da interação, as plataformas passam a conectar o usuário com demais perfis que curtem o mesmo tema. Se o conteúdo não for explícito e, sim, sutil, os filtros de remoção de conteúdo podem falhar. Segundo a CEO do YouPix, Rafaela Lotto, isso se agrava mais em ambientes menos controlados, como as plataformas de mensagens como Telegram e Discord.
Qual é o papel do mercado publicitário?
O tempo de atenção do usuário é uma das moedas de troca das plataformas para comercializar espaços publicitários. E as marcas são, frequentemente, postas junto a vídeos suspeitos, ainda que o anunciante não tenha consciência disso.
Para Borges, há uma preocupação legítima de agências e anunciantes de combater o problema e criar boas práticas de atuação nas redes sociais, mas ainda há um desconhecimento da dimensão do problema. “Precisamos provocar a busca por soluções mais efetivas. As soluções atuais são paliativas”, afirma.
Na avaliação do executivo, as ferramentas terceiras de compra de mídia que visam garantir a segurança de marca e as medidas das próprias plataformas não são eficientes para impedir que o anúncio de uma marca seja veiculado junto a vídeos que exibem práticas de abuso infanto-juvenil.
“O conceito extrapolou o limite de estar próximo do conteúdo duvidoso. Efetivamente, a questão do brand safety vai além de financiar conteúdos desinformativos. Ele não dá conta de todas as questões associadas ao risco reputacional de uma marca”, explica.
Medidas das plataformas
Para Rafaela, do YouPix, embora as plataformas possuam políticas e regras para lidar com esse tipo de conteúdo, a aplicação prática tem limitações, como a falta de mecanismos automatizados capazes de identificar e remover rapidamente conteúdos abusivos.
“No caso denunciado pelo Felca, observamos um padrão de comportamento entre os usuários — o uso repetido de comentários e GIFs com a mesma lógica — que permite sim que a plataforma identifique e atue, mesmo quando o conteúdo em si, isoladamente, não infringe nenhuma regra explícita”, avalia. Segundo pontua Emanuella Halfeld, analista de políticas públicas do Instituto Alana, as iniciativas não são equivalentes ao tamanho do problema apresentado. O instituto é organização da sociedade civil sem fins lucrativos que visa garantir o protagonismo de crianças e adolescentes na agenda social.
Confira o posicionamento das plataformas aqui.
Censura ou liberdade de expressão?
Atualmente, tramitam na Câmara dos Deputados cerca de 60 Projetos de Lei que abordam a proteção de crianças e adolescentes no ambiente digital. Cerca de 30 deles foram submetidos após a publicação do vídeo de Felca. Um deles propõe instituir a “Lei Felca”.
No geral, os projetos abordam regras de prevenção, monitoramento e proibições para a presença de conteúdo de crianças e adolescentes online, para o trabalho artístico infantil nesse ambiente, ou cobram maior moderação de conteúdo pelas plataformas digitais.
Por outro lado, parte dos parlamentares já declararam publicamente que não aprovariam um projeto do tipo por se tratar de uma censura ao conteúdo. Essa mesma retórica é parte da discussão sobre regulamentação das big techs no PL que ficou conhecido como PL das Fake News.
Os executivos consultados refutam tal argumentação. “Não é sobre cercear a liberdade de expressão, mas sim promover e engajar conteúdos que não são ilegais. O imoral é uma zona cinzenta, muitas vezes subjetiva. No mínimo, os conteúdos deveriam ser moderados”, afirma Borges, da WMcCann e NetLab.
Conforme Rafaela, do YouPix, sem mecanismos legais que obriguem as plataformas a agir de forma mais rigorosa e proativa, esses conteúdos continuam circulando sob o disfarce da liberdade de expressão.
A importância da regulamentação e da co-responsabilização
Uma regulamentação efetiva vai depender, necessariamente, da abertura das plataformas a compartilhar dados ou ser transparente em relação aos seus sistemas de recomendação. “Para a responsabilização ser efetiva, ela precisa partir da premissa que a transparência é obrigatória. Mas é necessário definir o que precisa ser transparente para que se possa observar, fiscalizar e controlar esse fenômeno. Você tem que ter capacidade externa de auditabilidade. Hoje, não conseguimos dimensionar o percentual de vítimas”, argumenta Borges. A regulamentação por si só não dará conta do problema se não houver transparência por parte das plataformas, diz.
Ainda assim, o movimento não depende somente das plataformas, afirma Rafaela, do YouPix. É necessária uma articulação entre pais, usuários e poder público para articular regras que ajudem a prevenir, identificar e punir tais comportamentos abusivos.
“Como mãe de duas crianças, existe um desafio enorme em adiar o uso de celulares e redes sociais, conscientizar as crianças sobre os riscos e, mais do que tudo, encontrar maneiras de mantê-los ativos e curiosos por outras atividades como esportes, artes, estudos. Como especialista nesse mercado, adiciono aqui mais uma camada importante sobre como os pais estão expondo a infância de seus filhos como ferramenta de engajamento, usando-os para divulgação de produtos, expondo intimidades e contextos que deveriam ficar na privacidade de suas famílias. Não estou aqui culpando os pais pela perversidade dos pedófilos. A influência é ferramenta de ascensão social para muitas pessoas, mas muitas delas estão trocando intimidades de seus filhos pelo lookinho do dia, ou a mansão de Alphaville. Isso é também bastante perverso”, declara.
O PL nº 2628/2022 é o mais avançado nas instâncias públicas. De autoria do senador Alessandro Vieira (MDB-SE), o texto foi aprovado no Senado e estava em tramitação para análise nas comissões de Comunicação; de Previdência, Assistência Social, Infância, Adolescência e Família; e de Constituição, Justiça e Cidadania da Câmara.
Em seu texto original, o PL argumenta que fornecedores devem prevenir e mitigar o acesso a conteúdos com exploração e abuso sexual de crianças e adolescentes, violência física, intimidação sistemática (bullying) virtual e assédio; padrões de uso que indiquem ou incentivem vícios ou transtornos de saúde mental (ansiedade, depressão, etc.); promoção e comercialização de jogos de azar, tabaco, álcool, narcóticos ou produtos similares; práticas publicitárias predatórias, injustas ou enganosas.
O PL ainda propõe mecanismos que impeçam ativamente o uso das plataformas por crianças, quando a plataforma não se destina a esse público e pede mecanismos confiáveis de verificação de idade e identidade e aprimoramento das ferramentas de controle parental. Em caso de descumprimento, os infratores estão sujeitos a penalidades como advertência, multa (até 10% do faturamento ou até R$50 milhões por infração), suspensão temporária das atividades ou proibição de exercício das atividades.
, de autoria do senador Alessandro Vieira (MDB-SE), foi aprovado no Senado e estava em tramitação para análise nas comissões de Comunicação; de Previdência, Assistência Social, Infância, Adolescência e Família; e de Constituição, Justiça e Cidadania da Câmara.
Em seu texto original, o PL argumenta que fornecedores devem prevenir e mitigar o acesso a conteúdos com exploração e abuso sexual de crianças e adolescentes, violência física, intimidação sistemática (bullying) virtual e assédio; padrões de uso que indiquem ou incentivem vícios ou transtornos de saúde mental (ansiedade, depressão, etc.); promoção e comercialização de jogos de azar, tabaco, álcool, narcóticos ou produtos similares; práticas publicitárias predatórias, injustas ou enganosas.
O PL ainda propõe mecanismos que impeçam ativamente o uso das plataformas por crianças, quando a plataforma não se destina a esse público e pede mecanismos confiáveis de verificação de idade e identidade e aprimoramento das ferramentas de controle parental. Em caso de descumprimento, os infratores estão sujeitos a penalidades como advertência, multa (até 10% do faturamento ou até R$50 milhões por infração), suspensão temporária das atividades ou proibição de exercício das atividades.