Assinar

Na hora de atropelar alguém, quem você escolhe matar?

Buscar
Meio e Mensagem – Marketing, Mídia e Comunicação

Na hora de atropelar alguém, quem você escolhe matar?

Buscar
self driving cars 2
Publicidade

Blog do Pyr

Na hora de atropelar alguém, quem você escolhe matar?

Esse não tem sido tema usual de discussões entre nós, humanos, até o advento dos carros autônomos. Agora é. Foi em busca de respostas morais e éticas para os inevitáveis acidentes que irão ocorrer quando máquinas estiverem ao volante, que o MIT entrevistou, durante anos, em vários países do mundo, milhões de pessoas. Dá uma olhada nos primeiros resultados.


20 de novembro de 2018 - 7h50

Obstáculos a frente na estrada moral da Inteligência Artificial.

Na direção ética do que fazer com a vida de pessoas reais, no trânsito real, decisões algorítmicas virtuais terão que ser tomadas. Antes. Programaremos nossas máquinas automotivas para matar quem? Jovens ou velhos? Pretos ou brancos? Muitas ou poucas pessoas? Prioridade para quem está no carro ou para quem está na rua?

Bom, daria pra fazer aqui uma lista enorme de opções difíceis, basta você parar um minuto e pensar no assunto.

Provoco você, no entanto, antes de entrar nas questões que o MIT propôs a milhões de pesquisados em seu recém revelado estudo Moral Machine, que decisões você tomaria (ou quem sabe, infelizmente, já teve que tomar) em sua vida real. Você não é máquina, é um ser moral. Quais respostas daria às perguntas acima?

Sejam quais forem suas respostas, armadilha: moralmente, elas estariam todas erradas. Ética e moralmente, não há opção entre matar ou deixar viver. Matar é sempre amoral, mesmo que, em seu código de conduta subjetivo, particular e pessoal, matar menos gente, por exemplo, possa ser menos pior do que matar mais gente. Errou !

A provocação vem para nos fazer refletir que, no âmbito da ética e da moral, as respostas que teremos todos que dar quando os carros autônomos estiverem circulando pelas nossas ruas, eventualmente tendo que decidir entre uma ou outra vida, estarão todas contaminadas irremediavelmente por um erro anterior, que foi termos criado máquinas para dirigir automóveis. E que sejam quais forem as respostas, elas vão conter a lógica (e põe lógica matemática nisso) da morte intencional.

Agora ferrô. Teremos que enfrentar essa bucha e teremos que enfrentá-la mesmo antes dessas máquinas estarem circulando por aí. Teremos que, já, dotá-las de algoritmos assassinos, que vão lhes dizer o que fazer. E a quem matar.

Pois foi em busca dessas respostas nada fáceis que o MIT foi a campo nos últimos anos, em vários países do mundo, para entender o que pensamos sobre o que fazer.

Descobriu, por exemplo, preferências que nos parecem mais óbvias, como por exemplo, matar uma pessoa mais velha é menos pior do que matar uma pessoa mais jovem, que crianças em geral tem preferência à vida, e que matar menos tem prioridade sobre matar mais pessoas.

Mas leia o estudo e algumas outras conclusões a que ele chegou, para ver como ainda estamos muuuuito longe de ter essa questão de fato mapeada e como as opiniões podem variar de cultura para cultura, induzindo a uma conclusão de que matar na Ásia pode ser diferente de matar na Europa.

A questão das etnias, por exemplo, nem foi colocada.

Mas não se esqueça do que lembrei acima: por mais bizarro que tudo isso seja (e é), não são só as máquinas que estarão sujeitas a essas dúvidas. Nós já estamos expostos a elas todos os  dias que dirigimos nossos carros por aí.

 

Clique aqui e leia resumo do estudo do MIT, segundo o The Verge.

 

 

 

Publicidade

Compartilhe

Veja também