Conexão Austin

O impacto da IA para formar jovens resilientes

Tecnologia não pode substituir relações e processos de tentativa e erro

Felipe Lemos

18 de março de 2026 - 21h00

Outra palestra muito importante que vi aqui no SXSW foi sobre um tema urgente: como formar jovens resilientes em uma era dominada pela inteligência artificial.

E o ponto principal, para mim, foi muito claro: a IA pode ajudar muito no aprendizado, mas não pode eliminar o esforço de aprender.

Porque aprender exige algo que hoje muita gente quer evitar:

esforço.

tentativa.

frustração.

dificuldade.

E isso me marcou muito porque é uma verdade simples: crianças precisam viver o processo do aprendizado. Precisam enfrentar desafio, dúvida, tentativa e erro.

Porque, se a resposta vem fácil demais, rápida demais, pronta demais… muitas vezes elas não aprendem de verdade.

Essa foi, inclusive, uma das ideias centrais trazidas pelo debate e pelo relatório da Brookings: a IA tem potencial para enriquecer a educação, mas também pode reduzir o aprendizado, limitar a criatividade e até prejudicar o desenvolvimento social e emocional, dependendo de como for usada.

Houve uma fala muito boa comparando isso ao erro de achar que a IA é apenas uma calculadora mais sofisticada.

E não é.

Uma calculadora resolve uma parte específica da matemática.

Já a IA pode escrever redações, resumir textos, responder questões de história, física, biologia e arte, dar conselhos emocionais e até fazer a lição inteira.

Ou seja: ela não está apenas ajudando em uma tarefa.

Ela pode acabar substituindo o próprio processo mental que forma repertório, pensamento crítico e autonomia.

E houve um ponto que achei muito forte: o cérebro se desenvolve de acordo com a forma como é usado.

Então, se um jovem passa a terceirizar continuamente o esforço mental para a IA, existe um risco real de ele treinar menos exatamente as capacidades de que mais precisará no futuro: pensamento crítico, criatividade, resiliência e capacidade de lidar com o erro e sustentar frustrações.

O painel também abordou um risco que me chamou atenção: a IA pode até personalizar o ensino e ajudar muito, principalmente em casos de neurodivergência, adaptação de linguagem, apoio a professores e jornadas de aprendizagem mais individualizadas. O próprio relatório cita benefícios como apoio a alunos neurodivergentes, personalização do ensino e suporte ao trabalho dos professores.

Mas, ao mesmo tempo, ela pode gerar o efeito contrário se for usada sem intenção: pode fazer o aluno pensar menos, criar menos e até convergir para as mesmas respostas.

A Brookings destaca justamente isso: quando a IA é usada sem critério, os riscos passam a superar os benefícios, ao menos no momento atual de implementação.

Outro tema muito importante foi o impacto social e emocional.

Os palestrantes trouxeram a preocupação de que muitos jovens já estão começando a usar IA não só para estudar, mas também para conversar, pedir conselhos, reclamar da vida, fugir da frustração e até substituir relações humanas.

E entra uma questão essencial: a resiliência também se aprende no atrito com o mundo real.

Na conversa difícil.

No feedback que não vem do jeito que você queria.

Na discordância.

Na convivência com outras pessoas.

No erro.

Na tentativa novamente.

Se a tecnologia apenas concorda com você, facilita tudo e elimina o desconforto do caminho, ela também pode retirar uma parte importante do que constrói maturidade.

Uma parte muito interessante da palestra foi a ideia de que precisamos sair da discussão “IA ou humano” e ir para uma lógica de intencionalidade: quando, como e por que usar IA?

Não se trata de proibir tudo.

Nem de liberar tudo.

Trata-se de usar a IA de um jeito que amplie a aprendizagem, mas que preserve o esforço cognitivo que faz alguém realmente crescer.

Os representantes do Google falaram bastante sobre segurança, filtros por idade, proteção de dados e controles parentais para menores de 18 anos. Disseram que contas de menores não são usadas para treinar modelos e que há experiências específicas por faixa etária, além de controles para pais e educadores.

Mas, para mim, o ponto mais forte veio menos da tecnologia em si e mais da postura humana diante dela.

Os pais precisam aprender sobre IA.

As escolas precisam discutir isso com mais profundidade.

E os jovens precisam desenvolver não apenas alfabetização em IA, mas também capacidade crítica para entender o que estão usando, o que estão delegando e o que não podem terceirizar.

Porque, no fundo, a grande pergunta não é: “a IA vai estar presente?” Porque ela já está.

A grande pergunta é: ela vai fortalecer a capacidade dos jovens de pensar, se relacionar e florescer… ou vai enfraquecer tudo isso?

Para mim, a síntese dessa palestra foi muito simples: aprender sem esforço pode parecer confortável no curto prazo, mas enfraquece no longo prazo.

E, se quisermos formar jovens realmente fortes para o futuro, eles não podem crescer apenas cercados de respostas.

Eles precisam continuar vivendo o processo que forma pensamento, identidade e resiliência.

Porque o futuro não precisa apenas de jovens mais produtivos com IA.

Precisa de jovens mais humanos, mais críticos e mais preparados para enfrentar a complexidade do mundo.