IA e soberania cognitiva: os impactos da hiperconveniência
Estudo analisa como o avanço da IA pode impactar funções cognitivas, relações humanas e ampliar desigualdades

(Crédito: Shutterstock)
Em um momento em que a inteligência artificial avança e está sendo incorporada em nossas rotinas, em nossas relações e nos processos de decisões, cresce também a necessidade de refletir sobre seus efeitos menos visíveis: aqueles que atingem diretamente nossa atenção, memória, capacidade de imaginar e de pensar criticamente. É a partir dessa reflexão que nasceu o estudo “Soberania Cognitiva na Era da IA”, realizado pela consultoria de inovação e tendências White Rabbit em parceria com a Talk Inc. e apoio da Fundação Itaú. O trabalho investiga como a hiperconveniência tecnológica e a delegação crescente do pensar às máquinas podem estar redesenhando, sem que percebamos, nossas capacidades cognitivas fundamentais.
Nesta entrevista ao Women To Watch, Vanessa Mathias, cofundadora da White Rabbit, idealizadora e coordenadora do estudo, analisa os riscos, dilemas éticos e impactos sociais da IA, e propõe um debate urgente sobre autonomia mental, relações humanas e o papel das empresas, do poder público e da sociedade na preservação da nossa soberania cognitiva.
Meio & Mensagem – Pode explicar como a dependência de sistemas automatizados está ameaçando não apenas tarefas operacionais, mas o que vocês chamam de “capacidades cognitivas fundamentais”, como a atenção e o pensamento crítico?
Vanessa Mathias – Acho importante dizer que eu sou super entusiasta da IA, não sou contra a tecnologia. O principal objetivo do estudo é evitar que, no futuro, a gente olhe para trás e perceba que o nosso cérebro foi modificado sem o nosso consentimento e conhecimento. Temos uma geração de adolescentes deprimidos, não conseguimos prestar atenção em uma coisa só ou em tarefas que exijam atenção de longo prazo. Então, o objetivo do nosso estudo é investigar: qual é o impacto da inteligência artificial e da hiperconveniência na nossa capacidade cognitiva?
Ainda não existe uma resposta para isso, porque não foram feitas pesquisas suficientes. Existem alguns estudos muito preliminares, pré-publicados, sendo a mais conhecida deles do MIT Media Lab chamado “Your Brain on ChatGPT”. Ele revela que existe um déficit cognitivo: eles utilizaram uma interface cérebro-máquina (BCI ou ICM), e observaram que menos áreas do cérebro se ativam à medida que a gente utiliza ferramentas de inteligência artificial. Mas isso não quer dizer que o estudo prove que estamos “emburrecendo”. Ainda não existe essa resposta.
Porém, existe sim uma resposta inicial mais consolidada: a hiperconectividade afetou de forma significativa a nossa aprendizagem e a nossa capacidade de retenção de informação, que foram prejudicadas. É isso que a gente chama, em nosso estudo, de terceirização cognitiva. O nosso cérebro entendeu que existe um lugar externo onde a informação pode ser acessada, então não há mais a necessidade de lembrar. Com isso, a nossa capacidade de retenção diminui. Isso não tem a ver diretamente com a IA, mas com a hiperconectividade.
Alguns pesquisadores chamam isso de amnésia digital. Existe essa ideia de que a mesma coisa pode acontecer com a nossa capacidade cognitiva quando utilizamos sistemas de inteligência artificial de forma recorrente. Não estou dizendo que isso já acontece, porque não foi provado cientificamente, mas essa é uma das hipóteses que estão sendo levantadas.
M&M – O que significa o conceito de “reserva cognitiva” e de que forma podemos fortalecê-la? Qual o papel das empresas nesse contexto?
Vanessa – Falando em termos leigos, a gente tem dois modos de funcionamento do cérebro: um voltado para tarefas e outro chamado de “default mode network”, que está relacionado à nossa capacidade de introspecção e de imaginação. E a verdade é que a gente imagina cada vez menos, porque preenchemos todo o nosso espaço mental com tarefas. E esse “default mode network” só acontece quando não estamos voltado para tarefas.
Eu chamo isso de “modo banho”. Quando a gente está bordando, tomando banho, lavando louça, escutando uma música, correndo. É nesses momentos que as pessoas dão espaço para as boas ideias. E cada vez menos a gente tem esses espaços. Hoje, a gente só tem esses momentos porque está fazendo outra coisa ao mesmo tempo. Esse é um dos princípios da reserva cognitiva: ter espaço mental. Literalmente abrir espaço na agenda e na mente.
Uma das coisas que as empresas ainda não estão preparadas ou dispostas a conversar é sobre a multitarefa. Existe uma pressão para preencher toda agenda e ainda pedem que as pessoas tenham ideias fora da caixa. Mas como vão ter se estão sobrecarregadas?
Eu acho que o papel das empresas é dar espaço para a reserva cognitiva. É preciso entender que o espaço mental é importante e as pessoas não podem estar o tempo todo no modo multitarefa. Estar offline deveria ser um direito. É o espaço das férias, mas também é o espaço entre reuniões, é poder desligar depois do expediente, é o espaço para consolidar relações pessoais.
M&M – Existe também um movimento de antropomorfização das IAs. Quais os riscos que isso traz?
Vanessa – Como humanos, a gente busca padrões e quer enxergar padrões humanos para conseguir entender melhor as coisas. O que está acontecendo com a inteligência artificial, especialmente a generativa por meio de chatbots, é que estamos atribuindo qualidades humanas a esses sistemas. E, cada vez mais, existe esse esforço em deixar esses sistemas mais humanos justamente para facilitar o processo de linguagem natural para as pessoas. Com isso, muita gente passa a entender que está falando com outra pessoa, com um ser humano.
Existe até um conceito chamado “sycophantic design”, que é o viés da bajulação. É aquela lógica de que o chatbot sempre vai achar que suas perguntas são incríveis, que suas ideias são ótimas. Qual é o problema disso? Eles não oferecem resistência, não trazem fricção, obstáculos. E isso faz com que as pessoas passem a criar expectativas irreais em relação às próprias relações humanas.
Quando a gente conversou com pediatras e psicólogos, por exemplo, surgiu muito essa questão: por que eu vou falar com um psicólogo se eu posso falar com um chatbot? Por que eu vou falar com um amigo se eu posso falar com algo que sempre vai dizer que eu estou certa? Só que as relações humanas não existem para confirmação, elas existem para evolução. E esses sistemas não são construídos para isso. Eles são construídos para engajamento, para manter a sua atenção, porque atenção é retenção, e retenção é disputa entre plataformas.
Isso faz com que a antropomorfização leve à substituição das relações humanas. Para que eu vou lidar com a dureza, com a frustração, se eu posso entrar em um sistema que vai sempre me elogiar. Por que eu vou correr o risco de ter uma relação real? É aí que mora o perigo.
M&M – No estudo, vocês comentam como a IA pode ampliar as desigualdades, incluindo as de gênero, principalmente no tópico da erotização dessas tecnologias. Como isso se manifesta?
Vanessa – Quando a gente olha para os deepfakes, por exemplo, são majoritariamente mulheres em corpos nus. Isso deixa muito claro como a IA replica e amplifica desigualdades que já existem, não só de gênero, mas também de raça. Do ponto de vista de gênero, por exemplo, se você pede para o sistema mostrar a foto de um CEO sentado à mesa, quase sempre vai ser um homem, não uma mulher, porque o sistema é alimentado por imagens que já existem.
Isso se agrava quando a gente olha para quem está construindo esses sistemas, que nos leva ao tema do neocolonialismo algorítmico. Esses sistemas não são feitos na Nigéria, por exemplo. Eles foram construídos no Vale do Silício ou na China. E isso acaba replicando também questões linguísticas e culturais que seguem lógicas coloniais. É o mesmo modelo histórico: os dados são extraídos daqui, o trabalho de rotulagem acontece aqui, isso tudo é levado para fora, processado, e depois vendido de volta para a gente em forma de “inteligência”.
Só que essa inteligência vem acompanhada de um novo pacto de verdade, cuja aplicabilidade e cujo design não são claros para nós. Quando a gente pergunta por que determinada resposta é masculina, por que é branca, o que está por trás dessas decisões, não conseguimos acessar isso. Quem definiu o que é verdade? Dessa forma, a IA não só replica, mas amplifica desigualdades que já existem, reforçando estruturas históricas de poder e exclusão.
M&M – O estudo também trata do fenômeno “colapso de modelo”. Ao delegar as decisões e o pensar à máquina, quais impactos e consequências podemos prever?
Vanessa – Vou explicar do jeito que aprendi, talvez não seja a explicação mais precisa do ponto de vista técnico. Basicamente funciona assim: se você pega uma foto e pede para o sistema replicar essa mesma foto, muitas vezes ele vai alterando a imagem aos poucos. Ela nunca fica exatamente igual. Hoje, acontece algo parecido com os dados. Em muitos contextos, a maioria dos dados da internet já são dados gerados por inteligência artificial generativa. Ou seja, não são mais dados originais. São IAs conversando com outras IAs.
Imagina, por exemplo, o LinkedIn. As pessoas começam a escrever textos usando IA. Depois, outros usuários respondem esses textos também usando IA. Daqui a pouco, são robôs respondendo robôs, e depois robôs respondendo robôs que responderam outros robôs. Com o tempo, isso começa a pasteurizar os resultados. À medida que a variabilidade diminui, os modelos começam a colapsar. Você passa a ter cada vez menos diversidade nas respostas, menos nuance, menos diferença entre um resultado e outro. Então, no fim das contas, o que acontece é a perda de variabilidade causada por sistemas treinados em dados que já foram gerados por outros sistemas.
M&M – O que significa “capitalismo cognitivo” e como ele se manifesta? Quais são seus impactos?
Vanessa – Há algum tempo já falamos sobre a economia da atenção: estamos todos brigando pela atenção do cliente ou usuário. Mas aí a gente começa a se perguntar: a atenção deveria mesmo ser tratada como um valor econômico? Porque, para mim, a atenção é um direito. É por isso que a gente fala em soberania. Eu não gostaria que isso fosse simplesmente convertido em valor econômico.
Quando a gente fala de capitalismo da atenção, de capitalismo cognitivo, entramos diretamente em questões de desigualdade sobre quem tem acesso à informação e quem não tem. A soberania cognitiva se refere aos nossos próprios processos mentais, nossa liberdade, atenção, memória, sentidos, emoções e nossas decisões. Como é possível que, dentro do capitalismo cognitivo, o meu próprio processo de tomada de decisão, o meu livre-arbítrio, vire um valor monetário que não é meu?
Eu acho que no futuro, vamos olhar para trás e dizer: “não acredito que vendíamos dados cerebrais das pessoas”. Hoje, não existe praticamente nada que preserve a nossa capacidade de pensar, de imaginar. E o pior é que, algumas empresas de tecnologia, não posso dizer que são todas, simplesmente não têm interesse nesse tipo de discussão.
M&M – De modo geral, como a sociedade civil, poder público e privado podem responder às consequências da tecnologia e nos devolver soberania e autonomia cognitiva?
Vanessa – A primeira resposta é que eu não sei. O que a gente tem hoje são alguns indícios. O primeiro ponto é que todo mundo precisa conversar sobre esse assunto e participar dessa discussão porque essa resposta ainda não está dada. Isso não pode ser um assunto restrito à academia. Os chefes precisam falar disso, os cuidadores, pais e as crianças precisam conversar sobre como esse tema vai ser tratado nas escolas. Como a gente vai proteger a reserva cognitiva das crianças? Como vamos proteger a nossa própria reserva cognitiva?
As organizações têm um papel enorme, principalmente as de comunicação. Existe uma responsabilidade muito grande em relação ao design. Nem tudo que a gente pode fazer, a gente deve fazer. Essas são pautas difíceis, mas precisam estar na mesa das organizações. Quando a gente fala de políticas públicas, todo mundo também precisa participar e pautar esse debate. Ele só vai ser enfrentado quando a gente discutir, de forma coletiva, as grandes questões éticas da tecnologia.