Racialidade x dados: como treinar uma tecnologia mais diversa

Buscar
Publicidade

Summit

Racialidade x dados: como treinar uma tecnologia mais diversa

Artista digital e professora da FAU-USP, autora do livro “Políticas da imagem”, Giselle Beiguelman, explica a problemática do treinamento de inteligências artificiais em relação à diversidade


21 de março de 2023 - 14h59

Giselle Beiguelman, artista digital e professora da FAU-USP, autora do livro “Políticas da imagem” e a moderadora Dora Kauffman, pesquisadora dos impactos éticos e sociais da IA, debatem os impactos do comportamento racial no treinamento de tecnologias de inteligência artificial (Crédito: Eduardo Lopes/ Imagem Paulista)

“Os dados são massivamente masculinos”. Essa frase foi dita pela artista digital e professora da FAU-USP, autora do livro “Políticas da imagem”, Giselle Beiguelman, no palco do Women To Watch Summit nesta terça-feira, 21, durante o painel “Cyber-vigilância, privacidade e reprodução de preconceitos”, moderado por Dora Kaufman, pesquisadora dos impactos éticos/sociais da IA.

A profissional utiliza esse paralelo para explicar a problemática das inteligências artificiais, explicando sobre como falta diversidade afeta a programação das formas de vigilância e até mesmo chats de Inteligência Artificial (IA).

A professora explica que questionamentos levantados a respeito da segurança e de vigilância a respeito do preconceito racial gerado por essa tecnologia, ou mesmo uma inteligência que não capta características femininas, são consequência do treinamento do dataset, que fazem com que comportamentos racistas, machistas e até mesmo ageístas sejam reproduzidos por esses sistemas.

Essa ambivalência aponta problemas de viés raciais que são, ainda, resultado do sistema de raízes colonialistas, que muitas culturas tentam se libertar das consequências dessas ações.

Para Giselle, as artes e as ciências sociais serão as responsáveis pela reprogramação do sistema de dados e inteligência artificial. “Esse paradigma de normalidade é exacerbado pelas inteligências artificias. Ela racializa a vigilância, mais do que já é, e foca em corpos que são excluídos racialmente. Esse aspecto maximiza alguns problemas, por isso, é do âmbito das ciências sociais e das artes que essa reprogramação pode ser feita”, diz.

Publicidade

Compartilhe

Veja também

  • Alice Pataxó eleva a voz indígena nas redes sociais e no mundo

    Alice Pataxó eleva a voz indígena nas redes sociais e no mundo

    A jovem fala sobre sua trajetória no ativismo e como se tornou uma influenciadora e porta-voz das pautas indígenas

  • W2W Summit 2024: A engenharia reversa da campanha pela Real Beleza de Dove

    W2W Summit 2024: A engenharia reversa da campanha pela Real Beleza de Dove

    Confira o painel sobre os impactos da campanha para a discussão sobre propósito de marca, com Andreza Graner, Silvia Lagnado e Luiz Fernando Musa