Chief trust officer
Confiança, a habilidade que inteligência artificial nenhuma consegue simular
“As bibliotecas sempre foram a metáfora suprema da esperança humana de que a razão prevalecerá sobre o caos”, escreveu Jorge Luis Borges. Se a mítica coleção de papiros abrigava, imóvel, a soma do saber antigo, a inteligência artificial (IA) promete algo muito mais ousado: ler, reinterpretar e aprimorar todo o conhecimento humano em tempo real.
Bill Gates calcula que, em menos de uma década, sistemas auto reforçados serão capazes de vasculhar bases científicas inteiras, formular hipóteses e testá-las na mesma velocidade com que um elétron percorre um circuito. Por sua vez, Brad Smith, presidente da Microsoft, adverte que, se não distribuirmos esse poder de forma equitativa, corremos o risco de reeditar, em escala planetária, as desigualdades fabricadas pela Revolução Industrial.
Para quem, como eu, passa a vida a gerir crises e reputações corporativas, a questão surge com urgência: que lugar restará ao arquiteto de narrativas num mundo em que as próprias narrativas podem ser geradas, disseminadas e monitoradas por máquinas mais sagazes do que qualquer humano?
A experiência recente oferece sinais inquietantes. Deepfakes financeiros já simulam executivos fantasma anunciando fusões inexistentes. Boatos fabricados por algoritmos irrompem nos mercados antes que analistas consigam detectar o primeiro tremor.
O tormento da velocidade foi multiplicado por vetores autônomos que inflam boatos, apostam contra ações e instauram pânico em minutos. Pesquisas recentes baseadas em social listening mostram que quase metade da população desconfia das marcas com as quais interagem.
No entanto, é precisamente nesse turbilhão que o estrategista de reputação encontrará seu novo papel. Se, até aqui, bastava monitorar menções e reagir com notas à imprensa, em breve trabalharemos lado a lado com oráculos preditivos: modelos fundacionais treinados em lógica reputacional que anteciparão tramas narrativas antes mesmo de ganharem tração pública.
Esses copilotos algorítmicos trarão cenários já ponderados (veracidade, impacto financeiro, linhas de resposta) deixando ao humano a atribuição indelegável de conferir legitimidade, interpretar nuances culturais e, sobretudo, decidir à luz de princípios.
Em vez de redigir respostas, programaremos limites éticos; em vez de taxas de engajamento, cuidaremos do eco moral de cada movimento corporativo. A função tende a metamorfosear-se num “chief trust officer”, guardião das fronteiras entre tecnologia, governança e comunicação.
Como a confiança continua sendo atributo que nenhuma máquina, por mais onisciente, consegue simular plenamente, caberá a esse profissional manter viva a rede de alianças humanas: jornalistas, acadêmicos, ONGs, etc.
Os benefícios de tal era são evidentes. Simuladores preditivos permitirão testar, num ambiente controlado, o estresse de um recall global ou as ondas sísmicas de um vazamento de dados, corrigindo fragilidades antes que a história se torne pública. Dashboards de sentimento traduzirão humores em 200 idiomas.
Algoritmos de descoberta científica, entregues a laboratórios independentes, podem acelerar vacinas, antibióticos e materiais de energia limpa. Mas o reverso da medalha é sombrio: concentrar modelos nas mãos de poucos campeões tecnológicos cria dependência estratégica e desloca o dial de visibilidade das crises para operadores invisíveis.
Já se discute a obrigatoriedade de kill-switches regulatórios e a adoção de air-gaps reputacionais (arquivos imutáveis que preservem fatos para futuras contendas jurídicas).
Tudo converge para a mesma metáfora de Gates: a super-IA será uma Biblioteca de Alexandria viva, disponível em qualquer língua, a qualquer instante. Nenhuma biblioteca, porém, é neutra; cada catálogo reflete escolhas de poder, curadoria e omissão.
Aos curadores de reputação — nós, humanos — caberá assegurar que o índice remissivo dessa biblioteca permaneça ancorado em critérios verificáveis, transparência auditável e responsabilidade intergeracional.
O desafio não é sobreviver à super-IA, mas evoluir com ela. Tal qual bibliotecários que, na Antiguidade, guardavam tochas acesas contra a noite ignorante, seremos vigias de um farol ético erguido sobre oceanos de dados.
Se falharmos, a próxima queima de livros poderá não deixar sequer cinzas: apenas ruído binário, irreversível e inaudível. Se acertarmos, confirmaremos o presságio de Borges: o futuro está inscrito nos corredores da memória; e acrescentaremos: também naquilo que soubermos programar.