Assinar
Meio e Mensagem – Marketing, Mídia e Comunicação

Data Ethics e Algoritmos

Buscar
Publicidade

Opinião

Data Ethics e Algoritmos

A crescente dependência de algoritmos para analisar as informações, acompanhada da redução gradual do envolvimento humano, representam questões urgentes de responsabilidade e de respeito pelos direitos humanos


19 de julho de 2021 - 6h00

(Crédito: Reprodução)

Mesmo sem perceber, cada dia mais as tecnologias de inteligência artificial (IA) fazem parte da nossa rotina. O que há alguns anos parecia somente roteiro de ficção científica, hoje nos auxilia em compras e operações financeiras. E o Brasil lidera esse movimento de transformação digital entre os países da América Latina.

De acordo com a pesquisa Global AI Adoption Index 2021, elaborada pela IBM, 40% dos profissionais de TI entrevistados afirmam usar IA em seus negócios, enquanto a média na região ficou somente em 21%. É sinal de que está crescendo a importância dada para esses recursos, assim como o entendimento no que pode ser aplicado, seja para o atendimento ao cliente, para efetivar o compliance ou aumentar a cibersegurança na instituição.

Outro fator fundamental para viabilizar o sucesso da implantação de projetos de IA é o viés nos dados e as consequências que podem ser geradas por modelos tendenciosos. Apesar de nem todo viés ser ruim, é um item sensível considerado crucial para ampliar os investimentos e o grande desafio nos desenvolvimentos dos sistemas de inteligência artificial.

Isso porque ainda não sabemos se é possível criar um conjunto de dados plural e complexo o suficiente para representar e entender toda a diversidade humana. Como é difícil alcançar essa abrangência, os sistemas reproduzem desequilíbrios e vieses encontrados nas informações originais, sendo tendenciosos para determinados resultados e podendo influenciar experiências de maneira negativa.

Por isso que a transparência é indispensável para atingir a ética de dados em projetos que envolvem uso de algoritmos e tudo o que estiver relacionado às decisões pela inteligência artificial (IA), aprendizado de máquina e robôs. A ideia é evitar vieses no tratamento de dados que possam ser discriminatórios.

Nessa linha, importante citar o documentário “Coded Bias” (2020), dirigido por Shalini Kantayya, que investiga o viés racista e machista da inteligência artificial (IA) por trás dos algoritmos de reconhecimento facial. Surgiu a partir dos estudos realizados pela pesquisadora Joy Buolamwini, do MIT, que descobriu falhas na tecnologia.

Ou ainda o livro “Algoritmos de Destruição em Massa”, de Cathy O’Neil, doutora em matemática pela Universidade Harvard. Na publicação, a autora defende que os algoritmos geram injustiças porque se baseiam em modelos matemáticos concebidos para reproduzir preconceitos, equívocos e vieses humanos.  Por trás deles há sempre uma opinião, alguém que estabelece definições e decide o que é importante, em parâmetros fundamentados por discriminações feitas por humanos.

Diante dessas ameaças, senadores dos Estados Unidos propuseram uma lei sobre responsabilidade algorítmica, em 2019, chamada de Algorithmic Accountability Act. Pela proposta, as empresas devem auditar sistemas de Machine Learning no que diz respeito a preconceitos e discriminação de algoritmo, bem como auditar os processos de aprendizado que lidem com dados confidenciais para observar possíveis riscos de privacidade.

Isso tudo abrange a medição do grau de Data Ethics, que varia conforme a transparência presente nas práticas das organizações. Por ter que ser acompanhada de protocolos de segurança e mecanismos criados para garantir o respeito à privacidade, equivale a uma equação que resulta em maior confiança digital – que é difícil de ser conquistada e fácil de ser perdida. A própria legislação de dados LGPD exige em seu artigo 20 a possibilidade de revisão da decisão automatizada e prevê eventual auditoria pela Autoridade Nacional (ANPD) se houver suspeita de prática discriminatória.

No início de maio, a UNESCO divulgou diretrizes e princípios ilustrativos para contribuir com o diálogo global e aumentar a transparência das empresas de Internet, tido como elemento fundamental para aumentar a responsabilidade, promover e proteger os direitos humanos no ecossistema digital. São 26 pontos que tratam de questões relacionadas a conteúdo e processo, diligência e reparação, capacitação, dimensões comerciais, coleta, uso e acesso a dados pessoais.

Tudo que foi exposto até aqui é justamente para enaltecer como esse novo modelo irá definir as estruturas para a Sociedade Smart, da Inteligência Artificial, e que precisa levar em conta os desafios éticos do uso maciço dos dados pessoais. A crescente dependência de algoritmos para analisar as informações, com o intuito de tomar as melhores decisões, acompanhada da redução gradual do envolvimento humano, representam questões urgentes de responsabilidade e de respeito pelos direitos humanos.

*Crédito da foto no topo: 

Publicidade

Compartilhe

Veja também