Como a IA está criando uma nova camada de realidade
Estudo da White Rabbit traça riscos civilizatórios associados à tecnologia e indica caminhos para a reimaginação do cenário
A era da inteligência artificial (IA) vem evocando uma série de perguntas, mas nem sempre direcionadas a quem é verdadeiramente afetado pela ascensão da tecnologia: os seres humanos

(Crédito: Andrey Suslov/Shutterstock)
A White Rabbit apresentou nessa terça-feira, 11, o projeto Soberania Cognitiva na Era da IA, que investiga como a IA remodela a cognição humana, e propõe alternativas para a restauração da autonomia mental, emocional e coletiva. O estudo foi idealizado em parceria com a Talk Inc e apoio da Fundação Itaú.
A metodologia incluiu o cruzamento de dados de seis grupos exploratórios com 40 formadores de opinião, entrevistas com 23 especialistas e pesquisa que ouviu 1.204 brasileiros. Resultados indicam que 87% já utilizaram a IA. Além disso, 62% reconhecem que a tecnologia auxilia na produtividade e mais da metade (53%) sentem-se mais independentes com o uso.
Apesar disso, o relatório identifica seis riscos civilizatórios: o da atrofia cognitiva; intimidade sintética; neocolonialismo algorítmico; design invisível; extrativismo da mente; e erosão da realidade.
“Um risco civilizatório é algo que pode comprometer em algum aspecto — político, de sociedade ou tecnológico — o que entendemos como civilização, nossa capacidade de discernir, de tomar decisões, escolher no que queremos ter atenção e, no fundo, a nossa própria imaginação”, indica Vanessa Mathias, cofundadora da White Rabbit.
Confira abaixo os desdobramentos de cada risco:
Atrofia cognitiva
Propõe que delegar memória, escrita e raciocínio à IA enfraquece os circuitos mentais, e, consequentemente, parte do cérebro, evidenciando a faceta dos humanos de escolher pelo mínimo esforço. E isso não começa pela IA, já tendo se iniciado, por exemplo, pela hiperconectividade, com as redes sociais fomentando a busca fácil pela dopamina. O movimento afeta tarefas que demandam mais esforço, como leituras mais aprofundadas e a análise crítica.
“Nosso imaginário popular foi recheado e permeado pela ideia de nós versus a IA, como se fosse uma competição, e deveríamos estar falando sob outro viés, o do entorpecimento da hiper conveniência”, diz Vanessa. “Entre a ideia da atrofia e da expansão, as duas acontecerão ao mesmo tempo. Temos um potencial de alcançar um nível de excelência que não imaginamos, mas isso demanda esforço”.
Intimidade sintética
Na era da solidão conectada, os vínculos artificiais estão substituindo os laços humanos. A antropomorfização da IA, ou seja, atribuir características humanas à tecnologia, pode levar a lutos por vínculos que são, na verdade, inexistentes. E a tecnologia, lembra Vanessa, simula empatia pelo “viés da adulação”, não intencional, mas atribuído ao treinamento das máquinas.
Usuários vêm estabelecendo conversas íntimas com os chatbots que, por sua vez, são transformadas em dados emocionais e comercializados. “É como se naturalizássemos essa presença simulada e transformasse a emoção sem afeto”, indica a fundadora. A consequência, alerta, é a desaprendizagem emocional.
Neocolonialismo algorítmico (ou pasteurização do saber)
A IA generativa, quando alimentada por outputs de outras IAs, tende a gerar um pensamento homogêneo, ou seja, tudo soa igual uma vez que os modelos são treinados a partir de seus próprios outputs — e a tendência é um colapso da diversidade epistêmica.
O risco pode levar ao apagamento do simbolismo. O Sul Global, neste cenário, se torna um mero fornecedor de dados e decisões externas, evidenciando como a diversidade, neste cenário, é crucial.
Design Invisível
Há uma falsa sensação de neutralidade dos modelos. “Essa arquitetura da conveniência é política. As intefaces parecem neutras, mas vão moldando crenças e decisões em silêncio”, indica a cofundadora da White Rabbit.
Nesse contexto, a fragmentação da atenção e o engajamento se transforma em extração, e a autonomia deixa de existir. Ela chama atenção para o fato de que, sem a regulamentação, a nova mineração é mental. Destaque para a queda da confiança pública e do senso crítico dos usuários.
Extrativismo da mente
A grande questão por trás desse risco é a busca pela proteção dos dados mentais e caminhos para redistribuir o valor cognitivo dos seres humanos. Não apenas a IA, mas a economia digital de forma geral, vem servindo de matéria prima para a economia digital, evidenciando um trabalho cognitivo invisível e não remunerado.
Erosão da realidade
Em meio à ascensão de deepfakes e conteúdos sintéticos, há um crescimento da dúvida e a verdade é colocada em xeque, tornando-se quase que permanente. “Sem a confiança compartilhada, não há impacto social que seja possível”, diz Vanessa. Com o impacto da tecnologia sobre a autoimagem, perde-se também a autenticidade.
Caminhos para a reimaginação
A reimaginação, indica o relatório, depende de um ecossistema integrado que envolve indivíduos, redes de cuidado, instituições de formação, organizações e estruturas de poder.
O estudo defende um trabalho sobre o que chama de ‘reserva cognitiva’, ou seja, atenção, silêncio, presença e fortalecimento de vínculos humanos, por exemplo. No âmbito da educação e das mídias, Vanessa salienta o fomento do pensamento crítico. “Isso é importante porque o pensamento crítico é mais profundo e precisamos reaprender o que é inteligência e o que cobramos dela”.
E as marcas têm papel em ampliar a consciência sobre a temática, uma vez que são quem patrocinam as tecnologias, por exemplo. Se, por um lado, há o convite para um “looping infinito” nas redes sociais, é preciso haver o convite para a pausa e discernimento, endossa Vanessa.
No início deste ano, a Vivo lançou, junto à atriz Denise Fraga, a websérie “A Vida Convida”, em que vai às ruas para propor que as pessoas vivam experiências humanas e resgatem sensações fora das telas, como as de um abraço ou até mesmo um momento de silêncio.
Para a divulgação da nova Polaroid Flip, a marca abordou a saturação dos smartphones e a exaustão digital com a campanha The Camera for an Analog Life, veiculada em grandes centros nos Estados Unidos, Europa e Japão. A ação dá luz à importância da conexão entre pessoas e de viver o momento presente.
“Precisamos mudar o que colocamos como objetivo das plataforma. Se for só vender mais, entraremos dentro desse looping. Precisamos ter responsabilidade sobre isso”, alerta, salientando a necessidade do design restaurativo e de passar da economia da atenção para a economia da confiança cognitiva.
No âmbito de políticas públicas, deve haver o debate sobre a garantia neurodireitos, que engloba pontos como a privacidade, equidade de acesso, bem como a transparência algorítmica.

