“Diversidade: caminho para promover justiça social e nas tecnologias não será diferente”

Buscar
Meio e Mensagem – Marketing, Mídia e Comunicação

“Diversidade: caminho para promover justiça social e nas tecnologias não será diferente”

Buscar
Publicidade

Notícias

“Diversidade: caminho para promover justiça social e nas tecnologias não será diferente”

Sil Bahia, da PretaLab, aborda a exclusão digital e o perigo do racismo algorítmico


21 de março de 2022 - 6h00

Silvana Bahia (Crédito: Divulgação)

Sil Bahia é cplataforma que conecta mulheres negras que são ou gostariam de ser da tecnologia. A executiva fala sobre sua experiência na área e os problemas do racismo algorítmico.

Meio & Mensagem – Por que que você decidiu fundar o PretaLab?
Sil Bahia – Comecei a trabalhar no Olabi no final de 2015 e trabalhei durante muito tempo em organizações sociais focadas em direitos humanos. Quando fui trabalhar no Olab, comecei a entender mais sobre esse universo das tecnologias. Depois de um ano trabalhando lá com os coordenadores de comunicação, percebi a ausência da presença, que era a ausência das pessoas negras nesses lugares que comecei a frequentar como eventos de inovação, de tecnologias etc. E pensei que precisava fazer alguma coisa para ter mulheres parecidas comigo também nessa discussão. O que me motivou a criar o PretaLab? Foi perceber que a presença negra nesses espaços, até então, era muito pouca e eu queria estimular mulheres negras nesse campo.  

M&M – Por que que você acredita que é importante incluir mulheres negras nas tecnologia?
Sil – É importante incluir mulheres negras na tecnologia, assim como outros grupos vulneráveis socialmente, porque tecnologia é uma ferramenta, é um espaço, é pauta muito poderosa no mundo de hoje. A tecnologia faz parte da nossa vida e, inclusive, pauta muito dos nossos gostos, nossas escolhas, tanto no micro quanto no macro. Falo desde escolhas individuais a questões políticas e econômicas. E ainda é muito restrita a bolha de quem produz as tecnologias. Acredito que é importante incluir as mulheres negras porque o mundo é plural e as mulheres negras, olhando principalmente pro Brasil, representam 28% da população. Por que que elas não estão nesses espaços? É importante que elas estejam porque é a possibilidade de também criar outros tipos de tecnologia como tecnologias mais inclusivas que olham pra um todo, a visão ainda é muito limitada olhando para quem cria. A diversidade é um dos caminhos pra promover uma justiça social e nas tecnologias isso não vai ser diferente. Que tenhamos diversidade na tecnologia, porque se temos alguma certeza de futuro, acho que uma delas é que vamos consumir mais tecnologia. Ou seja, isso vai continuar nos impactando. Se formos olhar os índices da educação remota, quem é que pode e consegue estudar remotamente? Quem tem internet, celular, computador pra isso. Isso também, quando olhamos para o Brasil, vemos que isso é uma forma que o racismo que aparece aí, crianças de pobres e negras fatalmente são as mais afetadas. Isso é uma forma de racismo que se dá por meio das tecnologias.  

M&M – O que é o racismo algorítmico e por que acontece?
Sil – Algoritmo é, basicamente, essa sequência, um comando infinito de números que as máquinas usam pra fazer determinadas ações. Ou seja, quando você vê um filme ou escuta uma música e depois músicas parecidas com aquelas são oferecidas pra você, isso é o algoritmo trabalhando para te entregar baseado no que você disse pra ele que você gosta, coisas que talvez você possa gostar. O racismo algorítmico é a forma que o racismo se expressa por meio de máquinas e por meio de digitais. Isso acontece porque quem cria as tecnologias, em geral, é um perfil bem padrão de pessoas, pessoas que, geralmente, são homens brancos, classe média, classe alta, ou seja, a produção da tecnologia tem pouca diversidade e o mundo é diverso. Acabamos vendo vários exemplos de tecnologias que usam estereótipos para definir coisas. Então, por exemplo, o reconhecimento facial, quando usado pela segurança pública, prende mais pessoas negras a partir do aprendizado de máquina, que é o que chamamos de machine learning. Os filtros do Instagram, por exemplo, sempre clareando o rosto porque essa produção, quem cria essas tecnologias são pessoas que não são diversas. Elas estão dentro de uma visão de mundo que também é limitada. Porque a diversidade é isso, promove inovação e ampliação de visão de mundo. Quando você tem diversidade na produção de tecnologia, acaba não tendo tantos casos de racismo algorítmico, acaba produzindo serviços e produtos melhores, porque você consegue dialogar com uma gama maior de consumidores. Ou seja, o racismo algoritmo acontece porque tem pouca diversidade na produção das tecnologias e essa produção é feita por um tipo padrão de pessoas que não conseguem incluir também questões sobretudo raciais, nesse caso, que são importantes pra sociedade também. Você vê o racismo estrutural off-line se reproduzir também nas máquinas, ou seja, se, pelo reconhecimento facial, a polícia diz que prende mais pessoas negras, também através da inteligência artificial os créditos de pessoas negras são menos aprovados. Por que que isso acontece? É porque não se separa o off-line do online. Se vivemos numa sociedade que é patriarcal, machista e racista, isso também se reproduz nas tecnologias. 

M&M – E como as empresas como o Twitter e Instagram podem tentar melhor a questão?
Sil – Acredito que o Twitter e o Instagram já estão vendo isso porque, de alguma forma. como são plataformas muito usadas, vemos algumas repercussões quando acontece um caso muito grave. Mas, para além de incluir pessoas diversas, é entender o contexto dos lugares. Porque, se formos pensar no Brasil, onde 56% da população é negra, a coisa tem que acontecer aqui de forma diferente. É entender muito sobre esse assunto, ter muita consultoria, aprender sobre o contexto dos lugares, incluir pessoas diversas também no desenvolvimento dessa tecnologia e, principalmente, não desassociar a tecnologia, essas plataformas e todas essas ferramentas das questões sociais. Fazemos muito isso, achamos que a que tecnologia é uma coisa que não tem nada a ver com as questões sociais e acho que é totalmente o contrário.  

M&M – Qual o impacto do racismo algoritmo na realidade, fora das redes?
Sil – Existem alguns estudos que dizem que os conteúdos de pessoas negras não são tão intregáveis quanto conteúdos de pessoas brancas. Lembro que, no ano passado, isso foi uma discussão muito latente nas redes onde as pessoas começaram a perceber. Inclusive por isso essa pauta do racismo algorítmico começou a crescer mais. É muito reforçado por essa questão da segurança pública, é um dado que mais me chama atenção, que é de que mais de 90% das pessoas presas por reconhecimento facial serem negras, é um dado que traz muito para a realidade qual é o impacto que o racismo algoritmo traz, ou seja, de reforçar estruturas que já são excludentes, mas agora com uma escala muito maior. Essa é a questão da inteligência artificial e do digital. É a mesma coisa que você pensar, por exemplo, nas fake news. Mentiras e fofocas sempre existiram, a questão é que quando isso vem para o digital, o impacto é muito maior, chega em muito mais pessoas. Esses são os maiores efeitos, porque é impactar de uma forma com muito mais desigualdade de quem já existe no off-line e agora,  com o poder do digital, isso tem um impacto em mais pessoas.  

 

Publicidade

Compartilhe

Veja também