Assinar

Como o mercado avalia a privacidade de menores nas redes

Buscar

Como o mercado avalia a privacidade de menores nas redes

Buscar
Publicidade
Mídia

Como o mercado avalia a privacidade de menores nas redes

Medidas adotadas por Facebook, Google e TikTok refletem adequação à leis de proteção de dados


27 de agosto de 2021 - 8h00

Este mês de agosto foi o período eleito por diversas plataformas sociais de anunciarem suas novas funcionalidades para garantir a privacidade dos jovens menores de idade que fazem uso de suas interfaces. Tudo começou pelo Facebook, seguido pelo Google e, por último, pelo TikTok. As empresas propuseram mais informação e controle de visibilidade para adolescentes.

 

(Crédito: Rawpixel.com/Shutterstock)

O Facebook Inc. comunicou não irá mais direcionar alguns tipos de anúncios publicitários para usuários menores de 18 anos. Além disso, todos os adolescentes menores de 16 anos que abrirem uma conta no Instagram serão colocados, por padrão da empresa, com o perfil no modo privado.

Da mesma forma, no Google, agências e anunciantes não poderão mais segmentar publicidade para pessoas menores de 18 anos com base em sua idade, gênero ou interesses. O Google também restringirá a exibição de anúncios de categorias sensíveis à idade, ainda que não tenha citado quais seriam essas categorias. No Google Images, a empresa incluirá uma nova política que autoriza que pessoas com menos de 18 anos ou seus responsáveis solicitem a remoção das suas imagens nos resultados.

Se tratando do YouTube, a empresa vai tornar padrão que todos os vídeos publicados por menores de idade só fiquem disponíveis para o próprios usuários e outras contas que o mesmo escolher. Além disso, a plataforma de vídeos notificará usuários com lembretes para dar uma pausa nos vídeos ou ir dormir. A intenção do YouTube com essa última atualização é promover bem-estar digital.

Já o TikTok optou por definir como padrão que nenhuma pessoa possa enviar mensagens para pessoas entre 16 e 17 anos. O envio de mensagens e para contas de menores de 16 anos já não era permitido. Na publicação de vídeos, os usuários com menos de 16 anos devem escolher para quem desejam que o vídeo seja exibido. Já contas do público entre 13 a 16 só podem compartilhar com seguidores e não podem fazer duetos ou costuras com outros vídeos, pois suas contas são privadas por padrão.

Segundo Patricia Peck Pinheiro, advogada e conselheira do Conselho Nacional de Proteção de Dados (CNPD), as modificações das plataformas respondem a exigência das novas regulações de proteção de dados, além do que está previsto no Código Civil, pois envolve o tratamento de dados pessoais de menores de idade.

Isso não significa que essa não era uma demanda da sociedade. Tiago Vargas, CEO da Navegg, plataforma conectada ao grupo Dentsu, explica que mesmo antes da pandemia, quando o consumo digital se tornou maior, já haviam movimentos tanto da indústria quanto de pais para diminuir o tempo de tela desse público. Ele sita a iniciativa Fisi-Digi, que promove atividades no mundo físico junto com plataformas digitais e fabricantes de brinquedo cujo aplicativo incentivava jogos físicos para pontuação e tirar o jovem da tela.

“Com isso, as plataformas de conteúdo 100% digitais, entenderam que além do contexto social envolvido em uma melhor educação das futuras gerações, também existe um caráter comercial. O tempo do usuário em suas plataformas é o grande ativo gerador de receita através de propagandas”, explica.

Além do tempo de tela, estão listadas entre as preocupação os conteúdos aos quais crianças e adolescentes podem estar expostos, questões emocionais, psicológicas e de desenvolvimento. “Os riscos que vão desde questões de intimidade até situações que podem envolver abordagens por estranhos e até pornografia infantil. Novamente, a Internet é a grande rua, a praça pública da Sociedade atual, uma criança sozinha na internet é equivalente a dizer que temos um ‘menor abandonado digital’. Ela precisa estar assistida e protegida”, indica Patrícia.

Sobre as medidas adotadas por cada empresa, a advogada acredita que ainda há um grande desafio técnico e jurídico em relação à remoção completa de um conteúdo vazado ou exposto. Já a decisão por informar melhor os usuários menores de idade, ela vê com bons olhos, já que eles terão a chance de entender como o compartilhar conteúdo e excesso de exposição pode gerar riscos e entender que nem tudo deve parar na internet. “Isso se constrói a partir de um diálogo sincero e respeitoso”, diz.

“Entendo que as plataformas precisam ter um programa educativo condizente com os perfis de idades, o que pode significar que determinados recursos podem estar mais restritos para uso conforme idade e condição do menor, ou necessitar de algum controle, supervisão ou autorização do responsável legal. A questão da proteção da criança deve vir de fábrica, pensando na aplicação do princípio de Privacy by design”, argumenta Patrícia.

Em relação à reação de tais mudanças, Thiago acredita que elas virão atreladas com uma sensação de perda de liberdade, já que mecanismos de controle adicionais não são muitas vezes bem-vindos apesar de necessários. “É uma evolução natural após momentos de grande euforia e descontrole. O importante é garantir transparência e evoluir a experiência para não perder o interesse das pessoas nestas plataformas. Trabalhar na conscientização dos pais também é algo que deveria estar vinculado a estas iniciativas”, conclui.

**Crédito da imagem no topo: Gremlin/Getty Images

Publicidade

Compartilhe

Veja também