Publicidade

Frances Haugen: “Temos que incentivar o boicote de anunciantes”

Whistleblower da Meta (Facebook Inc.) elogiou práticas de transparência da Apple e Google e detalhou problemáticas dos algoritmos da plataforma

Thaís Monteiro
14 de março de 2022 - 19h39

Frances Haugen ficou conhecido pelo público geral quando, no final de 2021, denunciou a Meta, até então Facebook Inc., por colocar a saúde e segurança de usuários, principalmente adolescentes, em risco em detrimento de práticas de crescimento. Aplaudida de pé no SXSW 2022, a cientista de dados comparou as práticas da empresa de Mark Zuckenberg em relação às demais big techs e apresentou as problemáticas que observou na plataforma homônima entre 2019 e 2021.

(Crédito: Thaís Monteiro)

O Facebook reproduz o sistema de recompensar publicações com grande engajamento aumentando seu alcance. Em uma pesquisa realizada por Haugen em 2019, a cientista descobriu que 12% dos estadunidenses que publicavam conteúdo na plataforma eram responsáveis por 80% do impacto recebido na plataforma.

Da mesma forma foi desenvolvido o recurso que exibia conteúdos relacionados quando o usuário compartilhava notícias no feed em 2016. “O Facebook quer continuar te dando conteúdo que você possa continuar na plataforma. Todas as histórias que apareciam eram parecidas, mas elas eram 15% mais sensacionalistas, como conspiração”, explicou.

O problema com desinformação e extremismo se intensificou em 2019. Notando que o público estava produzindo menos conteúdo próprio, a plataforma começou a comunicar com maior intensidade a sua iniciativa de grupos, pressionando usuários a entrarem em comunidades de interesses. “Eles fizeram experimentos em indivíduos e descobriram que o jeito era te dar mais dopamina”, contou. Isso se tornou um problema ainda maior em 2020, quando ainda buscando reter a atenção do usuário, a ferramenta permitiu que um usuário compartilhasse a mesma mensagem em vários grupos. Aumentou de 20% a 30% a desinformação.

Denunciados pela desinformação na plataforma, mesmo em outras questões, o Facebook começou a trabalhar com inteligência artificial para aplicar técnicas de fact-checking. Segundo Frances, IA resolve de 3% a 5% do conteúdo violento. “Quando você dá um livro o IA consegue entender sobre o que é, mas se você dá menos texto para o sistema, não há muito dado e você precisa de um forte IA para entender”, explicou. Dessa forma, a leitura do conteúdo publicado no feed não é efetiva. Com mais investimentos, esse número pode chegar a 12%. Com um olhar humano, o conteúdo demora até três dias para ser eliminado, mas até isso acontecer, o conteúdo já atingiu 75% do alcance esperado.

Além disso, a profissional argumentou que o Facebook não cria sistema de machine learning para atender todas as línguas e dialetos globais, então o combate à desinformação novamente não é efetivo ao redor do mundo, principalmente para aquelas comunidades que têm o Facebook como sua principal plataforma de informação.

Comparação de gigantes

“Por que não aparecem whistleblowes da Apple a cada três semanas?”, perguntou Frances durante sua palestra. A delatora se referia ao fato de que, apesar de ela ser considerada a whiseblower do Facebook, a empresa acumula uma lista de denunciantes que foram a público antes e depois dela. Para ela, empresas como o Google e Apple, apesar de também serem passíveis de críticas, têm estratégias de comunicação e transparência superiores comparados ao da Meta.

O Google coloca seus engenheiros e especialistas em software para escrever textos explicativos sobre o funcionamento dos seus produtos, que são publicados em seus blogs. Já a Apple trabalha com produtos físicos. É possível acessar seu sistema operacional e criar benchmarks para entender o funcionamento deles.

“A Apple vende produtos físicos, que tem outputs físicos. Nós podemos entrevistar pessoas da Apple. Há muito menos incentivo para a Apple mentir para nós. O Facebook é um sistema fechado. Não conseguimos acessar seus documentos. Há muita personalização, então a experiência de cada um é pessoal e individual. Eles mantêm a cortina fechada”, colocou. 

Haugen também elogiou o recurso desenvolvido pelo Twitter em que, para compartilhar um conteúdo externo, o usuário tem que notificar que leu o conteúdo. “Essa pequena fricção abaixa a desinformação de 10 a 15%. Mark Zuckenbert poderia nos deixar seguros, mas ele escolheu não o fazer porque o sistema de hoje é mais lucrativo. Ele não requer que você compartilhe. Ele não espera que você leia para você compartilhar”, dividiu.

Para ela, a solução envolve uma contingência de fatores, sendo o principal deles a regulamentação que exija maior transparência das big techs. Os consumidores devem entrar no loop de reflexão sobre o conteúdo compartilhado e é necessário incentivar o boicote entre os anunciantes, como aconteceu no movimento Stop Hate For Profit, quando grandes marcas pararam de anunciar na plataforma durante um período acusando o Facebook de negligência em relação a conteúdo violento e discurso de ódio. Ela também defende que há outros modos de entregar mensagens publicitárias apoiando criadores de conteúdo responsáveis.

Publicidade

Compartilhe

Patrocínio