Assinar

Racialidade x dados: como treinar uma tecnologia mais diversa

Buscar
Publicidade
Evento

Racialidade x dados: como treinar uma tecnologia mais diversa

Artista digital e professora da FAU-USP, autora do livro “Políticas da imagem”, Giselle Beiguelman, explica a problemática do treinamento de inteligências artificiais em relação à diversidade


21 de março de 2023 - 14h59

Giselle Beiguelman, artista digital e professora da FAU-USP, autora do livro “Políticas da imagem” e a moderadora Dora Kauffman, pesquisadora dos impactos éticos e sociais da IA, debatem os impactos do comportamento racial no treinamento de tecnologias de inteligência artificial (Crédito: Eduardo Lopes/ Imagem Paulista)

“Os dados são massivamente masculinos”. Essa frase foi dita pela artista digital e professora da FAU-USP, autora do livro “Políticas da imagem”, Giselle Beiguelman, no palco do Women To Watch Summit nesta terça-feira, 21, durante o painel “Cyber-vigilância, privacidade e reprodução de preconceitos”, moderado por Dora Kaufman, pesquisadora dos impactos éticos/sociais da IA.

A profissional utiliza esse paralelo para explicar a problemática das inteligências artificiais, explicando sobre como falta diversidade afeta a programação das formas de vigilância e até mesmo chats de Inteligência Artificial (IA).

A professora explica que questionamentos levantados a respeito da segurança e de vigilância a respeito do preconceito racial gerado por essa tecnologia, ou mesmo uma inteligência que não capta características femininas, são consequência do treinamento do dataset, que fazem com que comportamentos racistas, machistas e até mesmo ageístas sejam reproduzidos por esses sistemas.

Essa ambivalência aponta problemas de viés raciais que são, ainda, resultado do sistema de raízes colonialistas, que muitas culturas tentam se libertar das consequências dessas ações.

Para Giselle, as artes e as ciências sociais serão as responsáveis pela reprogramação do sistema de dados e inteligência artificial. “Esse paradigma de normalidade é exacerbado pelas inteligências artificias. Ela racializa a vigilância, mais do que já é, e foca em corpos que são excluídos racialmente. Esse aspecto maximiza alguns problemas, por isso, é do âmbito das ciências sociais e das artes que essa reprogramação pode ser feita”, diz.

Publicidade

Compartilhe

Veja também

  • Women to Watch 2024: Novas narrativas femininas

    Women to Watch 2024: Novas narrativas femininas

    Confira na íntegra o painel sobre longevidade, envelhecimento e ocupação de novos espaços pelas mulheres com Rita Lobo, Milly Lacombe e Candice Pomi

  • Women to Watch: homenageadas celebram o poder da coletividade

    Women to Watch: homenageadas celebram o poder da coletividade

    Em evento realizado em São Paulo, Briza Rocha Bueno, Cecília Preto Alexandre, Fernanda Doria, Liliane Rocha, Nathalia Garcia e Rafaela Alves celebraram o reconhecimento