Pyr Marcondes
20 de novembro de 2018 - 7h50
Obstáculos a frente na estrada moral da Inteligência Artificial.
Na direção ética do que fazer com a vida de pessoas reais, no trânsito real, decisões algorítmicas virtuais terão que ser tomadas. Antes. Programaremos nossas máquinas automotivas para matar quem? Jovens ou velhos? Pretos ou brancos? Muitas ou poucas pessoas? Prioridade para quem está no carro ou para quem está na rua?
Bom, daria pra fazer aqui uma lista enorme de opções difíceis, basta você parar um minuto e pensar no assunto.
Provoco você, no entanto, antes de entrar nas questões que o MIT propôs a milhões de pesquisados em seu recém revelado estudo Moral Machine, que decisões você tomaria (ou quem sabe, infelizmente, já teve que tomar) em sua vida real. Você não é máquina, é um ser moral. Quais respostas daria às perguntas acima?
Sejam quais forem suas respostas, armadilha: moralmente, elas estariam todas erradas. Ética e moralmente, não há opção entre matar ou deixar viver. Matar é sempre amoral, mesmo que, em seu código de conduta subjetivo, particular e pessoal, matar menos gente, por exemplo, possa ser menos pior do que matar mais gente. Errou !
A provocação vem para nos fazer refletir que, no âmbito da ética e da moral, as respostas que teremos todos que dar quando os carros autônomos estiverem circulando pelas nossas ruas, eventualmente tendo que decidir entre uma ou outra vida, estarão todas contaminadas irremediavelmente por um erro anterior, que foi termos criado máquinas para dirigir automóveis. E que sejam quais forem as respostas, elas vão conter a lógica (e põe lógica matemática nisso) da morte intencional.
Agora ferrô. Teremos que enfrentar essa bucha e teremos que enfrentá-la mesmo antes dessas máquinas estarem circulando por aí. Teremos que, já, dotá-las de algoritmos assassinos, que vão lhes dizer o que fazer. E a quem matar.
Pois foi em busca dessas respostas nada fáceis que o MIT foi a campo nos últimos anos, em vários países do mundo, para entender o que pensamos sobre o que fazer.
Descobriu, por exemplo, preferências que nos parecem mais óbvias, como por exemplo, matar uma pessoa mais velha é menos pior do que matar uma pessoa mais jovem, que crianças em geral tem preferência à vida, e que matar menos tem prioridade sobre matar mais pessoas.
Mas leia o estudo e algumas outras conclusões a que ele chegou, para ver como ainda estamos muuuuito longe de ter essa questão de fato mapeada e como as opiniões podem variar de cultura para cultura, induzindo a uma conclusão de que matar na Ásia pode ser diferente de matar na Europa.
A questão das etnias, por exemplo, nem foi colocada.
Mas não se esqueça do que lembrei acima: por mais bizarro que tudo isso seja (e é), não são só as máquinas que estarão sujeitas a essas dúvidas. Nós já estamos expostos a elas todos os dias que dirigimos nossos carros por aí.
Clique aqui e leia resumo do estudo do MIT, segundo o The Verge.