Assinar

Algoritmos têm licença para matar. E aí, quem vai preso?

Buscar
Meio e Mensagem – Marketing, Mídia e Comunicação

Algoritmos têm licença para matar. E aí, quem vai preso?

Buscar
robots killing people
Publicidade

Blog do Pyr

Algoritmos têm licença para matar. E aí, quem vai preso?

Modelos matemáticos, ao contrário do que se pensou até hoje, passam a ser também ambientes morais e éticos. Um algoritmo pode decidir entre atropelar, preferencialmente, um negro, um branco ou um transgênero. Mas quem de fato decidiu isso?


28 de setembro de 2017 - 12h40

Os carros sem motoristas são dirigidos por robôs, máquinas compostas fundamentalmente de softwares, por sua vez construídos a base de algoritmos.

Pois uma questão quente neste exato momento do desenvolvimento da indústria automotiva com tecnologia driverless é que decisão o algoritmo deve tomar diante de jogar o carro contra um muro, atropelar uma pessoa ou atropelar várias numa rua. E outras desse tipo, que envolvam questões éticas e de segurança tipicamente humanas. O que a máquina deve fazer?

Os críticos ao uso da tecnologia em situações em que a decisão envolva conceitos hoje bem humanos, de ordem moral, política, religiosa, social, de gênero, etc., alegam que algoritmos não podem decidir sobre essas coisas, porque não tem discernimento para tanto.

Pode até ser. Só que eles terão, sim, esse poder, na medida em que cada vez mais estarão no comando de decisões envolvendo inúmeros aspectos da nossa vida em sociedade.

O exemplo do carro, acima, é emblemático e radical, mas há um volume enorme de questões igualmente complexas impactando já o desenvolvimento tecnológico de máquinas que tomem decisões humanas.

Vamos a um exemplo corriqueiro. Por exemplo, quando procuramos no Google a expressão “transgênero”, em Português, o resultado que aparece (apareceu para mim, mas pode aparecer diferente para você, dependendo do seu perfil e, quem sabe, do seu gênero), trouxe links que definem o que o termo significa, imagens de personalidades consideradas publicamente como transgênero, serviços para esse perfil de público, etc.

Quem selecionou tudo isso foi um algoritmo. Ao meu olhar, o que me foi apresentado me pareceu ok para uma busca no Google. Mas o ponto aqui é: foi uma máquina que escolheu conteúdos sobre um tema que envolve questões ligadas a comportamento, diversidade, sexualidade, preconceito, etc.

Então, acompanhe aqui um pouco da complexidade de que estou falando …

Quem imputou os primeiros dados que acabaram por orientar a construção do algoritmo foram seres humanos. Que tipo de ser humano? Constituído de que padrões éticos e morais?

Mas não para aí. Os algoritmos habitam hoje dentro de todas as plataformas de inteligência artificial, sistemas que evoluem e aprendem sozinhos. E se um algoritmo embarcado num carro autônomo decidir, porque evoluiu dessa forma, atropelar um negro, em vez de um branco, ou vice-versa, por uma decisão baseada na raça da vítima? Onde fica o certo e o errado nessa decisão?

Voltando ao título aqui deste texto, depois do atropelamento, vamos prender quem? Vamos prender alguém?

Algoritmos estão embedados com bancos de dados que, por exemplo, definem o perfil de pessoas para análises feitas pelo mercado financeiro. São dados que não se restringem mais hoje a questões meramente financeiras e de ratings frios para definir, quem sabe, uma linha de crédito. Cada vez mais esses bancos de dados trazem perfis sociográficos. Então … quem decide o que colocar em cada perfil?

O mesmo acontece quando alguém vai procurar um emprego, fazer uma compra no ecommerce, se candidatar a uma vaga escolar, entrar no serviço público, etc. Pessoas, empresas e órgãos públicos estão tomando decisões como essas todo dia. Alguém está se importando com isso?

Boa pergunta.

Artigo intitulado “Biased Algorithms Are Everywhere, and No One Seems to Care”, publicado pelo MIT, mostra como essa questão se coloca hoje em nossas vidas e alerta para o fato de que estamos acreditando demais em algoritmos e modelos matemáticos, como se eles fossem imunes a questões morais e éticas. Como se fossem isentos.

Mas como o próprio título do artigo já entrega, não é nada disso. Eles têm sim “bias”, ou “viés”. São fruto de decisões anteriores e estão hoje em operação em uma série de processos do nosso cotidiano social em que haja qualquer instância de automação.

O artigo revela que um grupo de cientistas e pesquisadores preocupados com essas questões constituiu, nos EUA, uma iniciativa chamada “AI Now Initiative”, em que conclama a sociedade a se debruçar sobre o assunto de forma mais determinada e profunda.

Mas vamos abordar o tema por outro aspecto bem diverso: os textos jornalísticos escritos por robôs.

A automação das redações, algo ainda praticamente inédito no Brasil, está rapidamente se espalhando em órgãos de comunicação nos EUA. Em artigo intitulado “Automation in the Newsroom”, o portal especializado em tecnologia e jornalismo Nieman Report traz ampla cobertura de como as máquinas com seus algoritmos estão invadindo as redações e coloca como pano de fundo exatamente as questões éticas e morais que estão envolvidas nesse novo processo de geração de conteúdos.

Num trecho, diz assim … “nesse novo processo, a automação está levantando questões sobre o que significa produzir algoritmos com códigos de julgamento sobre que notícias publicar ou como customizar reportagens para audiências e targets específicos que não escorreguem em preconceitos éticos”. Por aí vai.

Máquinas não são amorais, esse é o ponto. E elas vão, sim, tomar decisões sobre quem empregar, que empréstimo conceder ou a quem matar.

E aí?

Publicidade

Compartilhe

Veja também