Pyr Marcondes
7 de janeiro de 2019 - 8h00
Estava eu lá entregue a minhas conjecturas e leituras (intensas ambas) de final de ano, chegando a triste e apavorante conclusão de que a Inteligência Artificial na mão de cientistas toscos, pesquisadores socialmente despreparados, tecnólogos rasos, startups idiotas e as Big Techs (parte delas, ao menos) está aberta e francamente desgovernada e que todo esse povo está se lixando para a segurança e a sustentabilidade da vida no Planeta … estava lá eu, então, viajando na maionese, dizia, quando dei de cara com esta capa abaixo, da Wired dos EUA.
Foi o estopim. Copiei o genial título da capa da revista (quase que integralmente dedicada a minha mesma preocupação) e resolvi aqui alinhar alguns princípios e trechos de textos que considero importante que todos leiam, para tentarmos entender um pouco melhor o que está acontecendo e o efetivo perigo que corremos.
Acho que deveríamos caminhar para a redação de um HUMAN INTELLIGENCE MANIFEST, franca e abertamente em contraposição ao desenfreado e anti-humano desenvolvimento da ARTIFICIAL INTELLIGENCE. Uma espécie de Direitos Humanos para o novo mundo digital.
Parece-me mais do que razoável que todos nós, em sociedade, tenhamos direito a defender a vida. A vida biológica. Eventualmente com os ganhos que a tecnologia possa nos proporcionar. Mas do jeito que a ciência e a tecnologia tratam o tema hoje, somos solenemente excluídos e ignorados, por definição e de facto, das decisões tomadas em centros de pesquisa e laboratórios, que poderiam estar (e, de fato, muitos estão, justiça seja feita) desenvolvendo soluções para melhorar a vida no Planeta. Só que não.
Entenda um pouco mais e caia na real, please!
Uma preocupação estrutural básica em relação a AI é que, tecnicamente, não temos agora mais controle sobre ela. Alimentamos sua base de dados e ela, a partir daí, faz suas próprias conexões na busca da resolução de algum desafio/problema/objetivo e … foi. Ela vai fazendo isso sozinha. Nenhum ser humano pode mais acompanhar sua velocidade e suas “deduções”. Ela simplesmente cospe, depois, um resultado qualquer. Que não controlamos como será e qual será.
AI é já, hoje, uma caixa preta para os seres humanos. Está fora do nosso controle. Isso não dito por mim, mas por técnicos que mexem como o assunto.
Veja abaixo trecho de excelente artigo do engenheiro de software e blogueiro, Ben Dickson, cujo título revelador é Learning How AI Makes Decision. Nele (que transcreverei na íntegra amanhã aqui, não perca!), ele cita um cientista e faz o seguinte comentário: “In classical computer programming, you have precision with the algorithm. You know exactly in mathematical terms what you are doing,” said Sheldon Fernandez, CEO of DarwinAI, an Ontario-based AI company. “With deep learning, the behavior is data driven. You are not prescribing behavior to the system. You are saying, ‘here’s the data, figure out what the behavior is.’ That is an inherently fuzzy and statistical approach.”
This means that when you let a neural network develop its own behavioral model, you are basically losing visibility into its reasoning process. And mostly, the inner parameters and connections that neural networks develop are so numerous and complex that they become too difficult for humans to understand“.
Sacou? Sacou que ferrou? Sacou que não sou eu que estou dizendo, mas gente muito mais qualificada que eu? Ainda duvida?
Pois olhe este exemplo bem prático.
Esse texto acima foi retirado da newsletter da Singularity University, que recebo periodicamente. Eles defendem a tese da exponencialidade. Que todos os problemas humanos vão ser resolvidos. Sabe por quem? Pela AI. Aí, depois, perto da data que o Azimov previu, vamos virar todos máquinas imortais. Mas essa é uma história para outra ocasião. Voltando ao post. Nele esta narrada a historinha singela de um projeto de AI do Google em que a AI enganou as instruções humanas e, em busca do que seria para ela mais eficiência, cuspiu resultados esdrúxulos e perigosos. Ela “interpretou” imagens de ruas e regiões para o sistema Google Maps e reconfigurou as imagens segundo sua própria vontade. Resultado: os mapas não tinham nada a ver com a realidade. E são esses mapas que todos nós, além de empresas e governos, muitas vezes usamos para nossa vida cotidiana. Tudo errado.
No texto, o redator cita orgulhoso como o time de AI do Google conseguiu reverter a cagada do seu próprio sistema de AI, que saiu pensando sozinho, por conta própria, usando para isso um outro sistema de AI que enganou as enganações do sistema de AI original. Juro que é isso que está escrito no post. Ufa! Mas e todos os demais empreendimentos de AI do mundo, como ficam?
Não basta?
Tome mais.
A Avast, uma das maiores empresas de segurança digital do mundo, acaba de divulgar relatório em que alerta que a AI, mais e mais, vai evoluir sozinha, burlando as instruções humanas e enganando seus próprios criadores.
Em matéria publicada pela Tele Síntese, fica assim o resumo dessa ópera: “A Avast lança relatório anual sobre as ameaças que irão impactar o mundo digital no ano de 2019. Entre elas, a “DeepAttacks”, que gera conteúdo criado por inteligência artificial para escapar dos controles de segurança da própria inteligência artificial, provocando sérios danos aos humanos. Aumentará o uso de inteligência artificial para burlar a própria segurança da IA, como se verificou no ano passado, quando um algoritmo enganou o outro, trocando um sinal de “pare” por outro de “velocidade de 70 KM por hora”.
Fudeu! Leis regulatórias já!
Minha posição é que deveríamos buscar, através de direito instituído em leis (portanto, sim, sou a favor do controle legal das pesquisas de AI), a defesa da vida na Terra. É isso, caso tenha dúvida, que está em jogo. O fim dela, aliás.
Na verdade, gostaria que todos lessem o que vem abaixo, mas escrevi, antes e acima de tudo, de mim para minha própria consciência. E volta. Um bumerangue de preocupação e consciência digital sobre o destino de todos nós.
Quero pelo menos deixar registrado, antes que me façam andróide. Ou a meus filhos e netos. E aos seus também.
As três primeiras regras desse eventual HUMAN INTELLIGENCE MANIFEST já foram escritas há décadas. Começo por aí minhas citações. Essas regras você, provavelmente, já conhece, mas nunca elas foram mais atuais do que agora.
Trata-se das Três Leis da Robótica, escritas por Isaac Azimov em 1942. Azimov, como você sabe, escreveu uma série de romances sobre o avanço da tecnologia, particularmente, da evolução da robótica. Seu livro possivelmente mais famoso é I, Robot, que inspirou o filme como o mesmo nome, com Will Smith (até Hollywood anda preocupada com o tema).
Lá vão:
1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.
2. A robot must obey orders given it by human beings except where such orders would conflict with the First Law.
3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.
Elas e apenas elas, por si só, se transformadas em lei, já nos defenderiam de grande parte do pior. São, obviamente, peça de ficção. Científica, no caso. Mas os princípios são válidos e são claros, endereçando a preocupação precoce de Azimov diante de um perigo que talvez nem ele mesmo imaginasse que fosse, da fato, virar real. Suas histórias acontecem em 2050… até a data em que a comunidade científica hoje prevê como aquela em que finalmente ocorrerá a superioridade das máquinas sobre o Homem ele acertou.
Mas vamos a textos bem mais recentes.
Artificial ou Humano? Ou os dois? Ou nenhum dos dois?
Uma das preocupações que está no coração da discussão sobre a evolução do aprendizado das máquinas, ou Machine Learning, é que elas não dominam a lógica do senso comum, não raciocinam, verdadeiramente, em última análise.
São, sim, capazes de aprender sozinhas, e de forma evolutiva, regras e formas esquemáticas e sequenciais de dedução lógica, algorítimica. Mas não são, no entanto, embedadas da faculdade de julgar, sentir, apreciar, fazer juízo, entender, perceber, sentir. Não até hoje. E fica difícil para nós, agora, imaginar que, mesmo que um robô mimetize a tristeza humana e chore, que de fato ele venha a estar triste. Digo, sentindo, profundamente … tristeza. Ou alegria. Você entendeu.
Inteligência Artificial é “garbage in, garbage out”, como dizem os próprios cientistas. Ou seja, se entra lixo, sai lixo. Nada muito mais que isso.
E quem está controlando o que entra hoje na cabecinha oca, e de fato, bem burra, de vários experimentos de AI no mundo hoje é o povinho crú que citei lá em cima. Pelamordedeus!
Um dos preocupados com esse impasse tecnológico, que é também ético e vital (já que, literalmente, afeta a continuidade da vida) é Yann LeCun, pesquisador de deep-learning e atual head de pesquisa de AI do Facebook.
LeCun concorda com todas as preocupações em curso. Acha que tem muito dado invasivo sendo controlado indevidamente, que máquinas não raciocinam, nem tem senso comum. Em suas palavras para a Wired: “I’ve been basically saying this over and over again for the past four years”.
LeCun, contudo, é um otimista e acredita que isso será superado no futuro. Pela própria AI. Aí, em minha opinião, mora o perigo. Explico.
Há uma linha de cientistas, são até os mais conscientes e preocupados com o descontrole das máquinas, que defende que a evolução da AI deveria ir no caminho de que máquinas tivessem bom senso e razoabilidade. Outros que não. Que esse é exatamente o caminho que pode piorar as coisas.
É o meu caso. Acho que não rola.
O próprio LeCun tem suas dúvidas, você vai ver adiante.
Elon Musk, como você possivelmente já leu, concorda comigo (hahahaha… eu concordo com ele). Foi o caso em vida, também, de Stephen Hawking. Para eles e tanta gente tecnologicamente qualificada, esse momento nunca chegará. Burrão que sou, estou entre eles. É meu ponto aqui.
O Instituto Paul Allen, criado pelo precocemente falecido fundador, com Bill Gates, da Microsoft, tem uma verba sem fim só para pesquisar AI. E um de seus princípios e buscas maiores, preocupados exatamente com o rumo sem rumo da prosa, é tornar a AI mais segura para os seres humanos, tentando que ela seja exatamente mais “razoável”. É a busca da máquina em direção a sua própria humanização. E razoabilidade humana.
O milionário já havia percebido, anos trás, o risco da AI. E criou um instituto, igualmente milionário, só para pesquisar como evitar maiores danos a Humanidade.
Voltando a LeCun, leia trecho da reportagem da Wired: “Sitting beneath the images from 2001, LeCun makes a bit of a heretical point himself. Sure, making artificial intelligence more humanlike helps AI to navigate our world. But directly replicating human styles of thought? It’s not clear that’d be useful. We already have humans who can think like humans; maybe the value of smart machines is that they are quite alien from us. They will tend to be more useful if they have capabilities we don’t have,” he tells me. “Then they’ll become an amplifier for intelligence. So to some extent you want them to have a nonhuman form of intelligence … You want them to be more rational than humans.” In other words, maybe it’s worth keeping artificial intelligence a little bit artificial”.
Ou seja, deixemos as máquinas, máquinas, e mantenhamos os humanos, humanos. Exatamente no caminho inverso do que propõem os experimentos de vários setores da comunidade científica mundial, destacando-se aí, como você certamente sabe, os conceitos e arrazoados futuristas de Ray Kurzweill e Peter Diamandis, da já citada Singularity University.
Fei-Fei
Uma das vozes mais destacadas recentemente no discurso de alerta sobre a evolução sem controle da AI é o da pesquisadora e cientista, ela mesma, de AI, a chinesa-norte-americana Fei-Fei Li.
Se quiser ver um vídeo legal sobre o que ela pensa, clique no link adiante. Mas, basicamente, o que ela defende é o óbvio. Num caso tão radical como o poder de transformação da raça humana, ou melhor, o poder de extinção da raça humana, o que ela defende é que, em se tratando de AI, “With Great Power Comes Great Responsibility,”.
Assim a Wired descreve Fei-Fei: “As a researcher at Stanford and Google, Li has helped perfect and spread machine-learning technology that allows computers to understand the world through images and video. She’s been part of a recent AI boom that has led to fleets of autonomous cars and made facial recognition powerful and ubiquitous”.
Para Fei-Fei, com todos esses feitos, ao invés de irmos na direção que estamos indo, em que sistemas de AI tenham autonomia individual e, em verdade, andem para o lado que a cabeça de um cientista maluco qualquer deseje, ou ela mesmo defina, teríamos que, como Humanidade, “think more about how smart software can work with people, for people. What’s really important is putting humanity at the center.”
Para ela, todo o poder adquirido e atingido pela AI hoje – fora o que se avizinha, que é exponencialmente maior – é extremamente perigoso. E temos que, como defendo, agir já. Em suas palavras: “Those powers, of course, can be dangerous. We will hit a moment when it will be impossible to course-correct. That’s because the technology is being adopted so fast, and far and wide. We have to act now”.
Complementando, ela coloca: “If we make fundamental changes to how AI is engineered—and who engineers it—the technology will be a transformative force for good. If not, we are leaving a lot of humanity out of the equation”.
E voltando à questão do “artificial” versus “humano”, ela é categórica: “There’s nothing artificial about AI.”
Wow!
E explica: “It’s inspired by people, it’s created by people, and—most importantly—it impacts people. It is a powerful tool we are only just beginning to understand, and that is a profound responsibility.”
Phoda ela.
A perda de empregos humanos é só o começo do pior
Indo além, o que pega em suas declarações é sua consciência social sobre a revolução tecnológica (algo que parte significante dos cientistas não tem em seu próprio HD): “With proper guidance AI will make life better. But without it, the technology stands to widen the wealth divide even further, make tech even more exclusive, and reinforce biases we’ve spent generations trying to overcome.”
É a mesma preocupação de Yuval Noah Harari, de Sapien e Homo Deus, em seu último livro “21 Lessons for the 21st Century”: Despite the appearance of many new human jobs (por conta da evolução tecnológica), we might nevertheless witness the rise of a new useless class. We might actually get the worst of both worlds, suffering simultaneously from high unemployment and a shortage of skilled labor. Many people might share the fate not of nineteenth-century wagon drivers, who switched to driving taxis, but of nineteenth-century horses, who were increasingly pushed out of the job market altogether. In addition, no remaining human job will ever be safe from the threat of future automation, because machine learning and robotics will continue to improve.”
É o resultado social do desgoverno. Mas a perda de postos de trabalho e o alijamento ainda maior dos desvalidos e das classes de menor poder, ou seja, a parcela mais significativa das pessoas do Mundo, de qualquer ambiente de trabalho ou expressão social será só o começo. Vai piorar. E piorar muito.
Estamos alimentando e retroalimentando os neurônios das máquinas durante anos com zilhões de dados, ensinando-as a “pensar” como pensa um cérebro humano e nem sequer temos mais controle sobre o que os algoritmos estão, de fato, “pensando”. Nem que “decisões” irão tomar. Eles são estupidamente espertos (com perdão do trocadilho) por conta disso. Mas era o que deveríamos ter feito? É o que temos que continuar fazendo? Mesmo?
Nope.
My opinon:
Proponho que a sociedade se manifeste global e publicamente contra a evolução indiscriminada da AI. Que leis internacionais sejam votadas pelo controle das pesquisas de AI. Que elas sejam transparentes e possam ser avaliadas pela Humanidade como um todo e não apenas por um bando de manés cientista, geniais muitos deles, mas que nem sempre se pautam pela Ética e pelo Humano, prioritariamente. Já vimos isso ocorrer mais de uma vez na História e deu merda forte.
Manifesto-me totalmente contra a liberdade irrestrita da pesquisa científica da Inteligência Artificial por acreditar sinceramente que esse é o começo do nosso fim.
Fim.
OBS.: Já publiquei aqui os piores momentos da tecnologia no ano passado, num post sob o título “Quando a Inteligência Artificial dá ruim”. Dois apanhados, na verdade. Clique e leia.
Agora veja também este, do AI Now Institute, de NY. Estudos assim não param de aparecer em todo lugar. É deles que tiro minhas informações. Informe-se você também. Está tudo na internet, para quem quiser ver.