Joy Buolamwini alerta para vieses e riscos envolvendo biometria e IA
Fundadora da Algorithmic Justice League, Dra. Joy Buolamwini explicou como a IA potencializou danos envolvendo reconhecimento facial
Fundadora da Algorithmic Justice League, Dra. Joy Buolamwini explicou como a IA potencializou danos envolvendo reconhecimento facial
Thaís Monteiro
13 de março de 2024 - 21h39
Vieses inconscientes são um desafio significativo na era da automatização tecnológica. Presente no SXSW 2024, Dra. Joy Buolamwini é uma das expoentes desse assunto. Sua tese de graduação no MIT revelou vieses nos sistemas de reconhecimento facial de grandes empresas de tecnologia, como Microsoft, Face++ AI e IBM. As maiores prejudicadas eram mulheres negras, que frequentemente foram confundidas por homens nessas plataformas.
O problema ganha escala quando essas mesmas tecnologias de identificação facial são utilizadas pela polícia, como de fato muitas foram, até 2020, quando a morte de George Floyd reacendeu o debate sobre racismo e acusações falsas de crimes não cometidos por diferentes indivíduos, sobretudo negros. Esse fato, unido com diversas notícias de acusações falsas por sistemas de reconhecimento facial fizeram com que as big techs recuassem nesses avanços.
Porém, isso não resolveu o problema. Conforme a pesquisadora e fundadora da Algorithmic Justice League, aeroportos, escolas e hospitais estão implementando sistemas de reconhecimento facial. Segundo a Dra. Joy, a maioria das pessoas não sabem que essa submissão facial é voluntária, pois as instituições não comunicam isso. A ascensão da inteligência artificial faz com que imagens e vídeos falsos estejam ao alcance da mão. “Se você tem um rosto, você tem espaço na conversa sobre IA”, disse.
A função da Algorithmic Justice League é dar visibilidade aos vieses inconscientes incutidos na IA e defender aqueles que tiveram sua vida, de alguma forma, prejudicada pela tecnologia do momento. Segundo ela, ninguém está imune de ser prejudicado pela IA, inclusive estrelas como Taylor Swift.
“Continuamos pressionando o Departamento de Segurança Interna quanto a isso. Faz parte de um esforço maior em torno dos direitos biométricos mais amplos. Não apenas o direito de recusar, mas também o direito de ter seus dados excluídos. Se já foram coletados, o direito de não ter deepfakes não consensuais criados a partir deles”, argumentou.
Segundo a fundadora da Algorithmic Justice League, a IA deve ser melhorada para ganhar robustez, assim servindo a todos. Por ora, ela acredita que todos estão muito focados nas potencialidades da IA e não suas limitações. “Se você cria ferramentas que não funcionam para a maioria global, é uma boa ferramenta. Você pode ter boas intenções ao usar a IA, mas precisa ter certeza que está desenvolvendo ela de forma ampla”, pontuou.
Também é necessário contexto e auditoria cultural. Ela usou o caso em que o Gemini produziu imagens de papas negros como uma forma de ampliar diversidade nas imagens, mas de forma decontextualizada da realidade.
“Eu ouço as pessoas falando para se livrar de vieses, mas você só irá se livrar de vieses se se livrar de humanos. O valor das pessoas sempre será inserido. O objetivo não é tornar a IA equalitária. Temos que ser mais específicos em como nós reduzimos danos, quem se beneficia nos sistemas e quem tem que carregar os fardos”, disse.
Adicionalmente, a organização tem interface com o governo e foi chamada para reuniões com o atual presidente dos Estados Unidos, Joe Biden, quando ele estava formulando o The AI Act.
Segundo a Dra. Joy, nas reuniões em que ela esteve presente, havia grande preocupação sobre o uso de dados biométricos dos cidadãos em deepfakes. Foi o que aconteceu com Biden tempos depois. O presidente foi alvo de gravações de áudio falsas em que ele pedia para que os eleitores não fossem votar na primária de seu partido.
Para ela, é importante que as desenvolvedoras de IA não liberem novos produtos antes da eleição, para evitar mal usos. Ela acredita que selos de autenticidade ou que indicam que o conteúdo foi feito com auxílio de IA são soluções viáveis. Ela ainda frisa a importância de direitos biométricos. “Se não nos protegermos, vai comprometer nosso entendimento do que é verdade e o que podemos acreditar ou não”, complementou.
Dra. Joy Buolamwini também é poetisa e argumentou contra o uso indevido da arte para inspiração dos sistemas de inteligência artificial. “Nossa arte é frequentemente usada sem consentimento, compensação e não temos nenhum tipo de controle”, disse.
No entanto, o que a faz temer mais sobre o futuro da IA é a automação de armas letais, pois muitas mortes são decorrentes da aplicabilidade da IA em guerras. Ela apresentou um poema autoral que aborda o assunto e pediu um cessar-fogo no conflito que ocorre entre Israel e a Faixa de Gaza:
Precisamente, quem morrerá?
Alguns dizem que a IA é um risco existencial
Vemos que a IA não está exterminando a realidade,
Acelerando a aniquilação,
Aumentando a destruição.
Ouvi falar de um novo evangelho,
Entregando morte com a promessa de precisão
O nome de código para um nome antigo
Para mirar seu inimigo, “o outro”, reduzido a escombros
Rosto apagado, nome deslocado
Enquanto os drones executam em uma formação que soletra última sombra
As guerras de IA primeiro aparecem às portas de nossos vizinhos
Em seguida, as bombas caem em suas câmaras privadas
Cesse acreditar que fogo sobre fogo trará paz
Precisamente, quem morrerá?
Anulado por uns e deuses.
Compartilhe
Veja também
SXSW confirma Arvind Krishna, CEO da IBM, como primeiro keynote
Além do executivo da big tech, festival confirma nomes já veteranos da programação, como Amy Gallo e Rohit Bhargva
SXSW 2025 anuncia mais de 450 sessões
Pertencimento e conexão humana estão entre os principais temas da programação do evento, que conta com 23 trilhas de conteúdo