Incerteza é o novo normal

Buscar
Publicidade

Opinião

Incerteza é o novo normal

Com o fim da Lei de Moore, o desempenho de produtos chega ao ápice, confundindo as diferenças entre papeis e responsabilidades


15 de dezembro de 2017 - 11h23

Créditos: reprodução

A Intel, maior fabricante de chips do mundo, cuja marca é sinônimo de desktops e notebooks, anunciou que seu antigo CEO Paul Otelini morreu dormindo, aos 66 anos. Como o quinto executivo da empresa, Otelini presidiu a marca durante o período de maior crescimento da companhia, aumentando a receita de US$ 34 bilhões para US$ 53 bilhões. Na verdade, mais dinheiro foi feito em seus oito anos de reinado do que nos 37 anteriores, ou seja, desde que a empresa foi criada.  Nenhuma outra companhia pode produzir um processador melhor e mais rápido, o motor que coloca seu computador para funcionar quando você o liga.

Em 1965, o cofundador da Intel, Gordon Moore, fez uma previsão corajosa sobre o crescimento exponencial do poder de computadores. Do tubo de vácuo ao transístor discreto aos circuitos integrados, a miniaturização do hardware progrediu rapidamente. Extrapolando a tendência, Moore afirmou que o número de transístores de microchips instalados em uma área específica dobraria a cada dois anos. Já que a densidade de transístores está relacionada ao poder do computador, o mesmo também dobraria a cada dois anos. Tão improvável quanto possa parecer, a Intel vem entregando o prometido, imortalizando a “Lei de Moore”.

É difícil prever os efeitos deste crescimento exponencial. Pegue um pedaço de papel do tamanho de uma carta e dobre na metade. Dobre de novo e, ainda, uma terceira vez. A grossura do papel dobra toda vez. Isso é crescimento exponencial. Esse movimento explica o porquê, hoje em dia, um único iPhone tem mais poder de processamento do que a espaçonave Apollo, que atingiu a superfície lunar em 1969. Sem a lei de Moore, não haveria Google, nem Facebook, nem Uber, nem Airbnb. O Vale do Silício só seria um vale comum.

As tentativas de se basear na força bruta dos hardwares para mascarar um design de softwares ineficiente têm sido muito fortes

Quando estive em uma conferência em Israel, um ex-executivo da Intel me disse que o Gordon Moore poderia ficar “bastante filosófico” sobre o futuro da lei que leva seu nome. Quando perguntado por sua equipe quando essa trajetória impressionante poderia acabar, ele respondeu “nada cresce exponencialmente para sempre”. E, realmente, a Intel não era uma exceção.

Em 2016, a Intel soltou um documento aos órgãos reguladores do mercado no qual afirmou que a empresa diminuía o ritmo de lançamento de novos chips. O seu último transístor tem o tamanho de apenas 100 átomos. Quanto menos átomos compuserem um transístor, mais difícil é manipulá-lo. Seguindo essa tendência, no começo dos anos 2020, transístores terão apenas dez átomos. Nessa escala, propriedades eletrônicas teriam problemas de física quântica, fazendo com que qualquer dispositivo fosse, inevitavelmente, não confiável. Empresas como Samsung, Intel e Microsoft já usaram US$ 37 bilhões apenas para manter a mágica rolando, mas, em pouco tempo, engenheiros e cientistas encontrarão o limite fundamental da física.

Apesar disso, a queda iminente da Lei de Moore não significa uma pausa total nas novidades produzidas. Não significa que aparelhos de realidade virtual, a internet das coisas e a inteligência artificial são só fumaça. Isso não irá parar as máquinas de tirarem trabalho de executivos – apesar de isso ser um pensamento bonito. O que isso significa, entretanto, é que os produtores tecnológicos mudarão o rumo dos recursos para longe de simplesmente aumentar os cavalos computacionais, focando em outras vertentes, como design mais inteligente de softwares. Apesar de 50 anos de crescimento vertiginoso da força computacional, o desenvolvimento de softwares ficou em segundo plano. Charles Simonyi, um cientista da computação que supervisionou o desenvolvimento do Microsoft Word e Excel, disse em 2013 que softwares falharam em alavancar os avanços que ocorreram no hardware. As tentativas de se basear na força bruta dos hardwares para mascarar um design de softwares ineficiente têm sido muito fortes. Um dos principais exemplos é a área de inteligência artificial.

Até pouco tempo atrás, computadores precisavam de programadores para escrever instruções. Computadores geralmente não aprendem automaticamente; eles seguem regras. Entretanto, o Google tem demonstrado que máquinas podem aprender por si próprias, se tornando melhores e mais espertas sem a supervisão de um ser humano. Quando seu programa AlphaGo, que disputa partidas de Go – uma espécie de xadrez oriental – venceu o grande mestre do jogo, o chinês Ke Jie, em maio deste ano, o humano reparou o estilo único e até transcendental de seu oponente: “o AlphaGo está melhorando muito rápido. Ano passado, ainda parecia muito uma pessoa jogando. Agora, se tornou algo como um deus do Go”.

O todo poderoso AlphaGo se tornou possível por conta do “deep learning”, uma forma de design de software que emula a forma que neurônios funcionam no cérebro humano. Os engenheiros do Google descobriram um jeito de recompensar um programa com notas mais altas conforme eles atingem o desempenho desejado. Assim, o AlphaGo escreve suas próprias instruções de forma aleatória, gerando diversas instruções num formato de tentativa e erro, e repõe estratégias com notas baixas por àquelas de maior valor. Assim o algoritmo ensina a si mesmo como ficar melhor, sem uma supervisão humana constante.

Quando a performance de um produto é melhorada de forma exponencial, papeis e responsabilidades ficam confusas. Empresas de softwares são incitadas a extrapolar o espaço do hardware, e, em contrapartida, os produtores de hardware são levados a criar produtos de nichos. O Facebook e a Amazon já estão criando seus próprios data centers, Microsoft começou a fazer seus próprios chips e a Intel está entrando de cabeça em tecnologias de realidade virtual. Diferentemente da era dos desktops, agora não teremos mais a arquitetura dominante do Windows ou da Intel. Assim acabará a ordem existente na indústria. E, então, entraremos na era de cloud computing, inteligência artificial, internet das coisas, e a competição será disseminada.

Para as companhias que não são de inteligência da informação, aquisições se tornarão mais complicadas. Gestores não conseguirão mais procurar pelas melhores práticas de mercado e comprar soluções a granel. Mais investigação e negociação será básico. A morte de Paul Otelini sempre nos lembrará de um mundo simples e inocente do qual sentiremos saudades.

*Tradução: Salvador Strano

Publicidade

Compartilhe

Veja também

  • Quem é o anunciante e quem é o veículo?

    Os próximos anos serão críticos na consolidação do mercado de varejo tradicional e, também, dos sistemas operacionais de TVs conectadas

  • Técnica e estratégia

    Ambiente estressado pela pulverização de opções de mídia e pelas mudanças de comportamento da audiência valoriza os profissionais especialistas na atividade, mas exige desempenhos mais fundamentados