O impacto da IA para formar jovens resilientes
Tecnologia não pode substituir relações e processos de tentativa e erro
Outra palestra muito importante que vi aqui no SXSW foi sobre um tema urgente: como formar jovens resilientes em uma era dominada pela inteligência artificial.
E o ponto principal, para mim, foi muito claro: a IA pode ajudar muito no aprendizado, mas não pode eliminar o esforço de aprender.
Porque aprender exige algo que hoje muita gente quer evitar:
esforço.
tentativa.
frustração.
dificuldade.
E isso me marcou muito porque é uma verdade simples: crianças precisam viver o processo do aprendizado. Precisam enfrentar desafio, dúvida, tentativa e erro.
Porque, se a resposta vem fácil demais, rápida demais, pronta demais… muitas vezes elas não aprendem de verdade.
Essa foi, inclusive, uma das ideias centrais trazidas pelo debate e pelo relatório da Brookings: a IA tem potencial para enriquecer a educação, mas também pode reduzir o aprendizado, limitar a criatividade e até prejudicar o desenvolvimento social e emocional, dependendo de como for usada.
Houve uma fala muito boa comparando isso ao erro de achar que a IA é apenas uma calculadora mais sofisticada.
E não é.
Uma calculadora resolve uma parte específica da matemática.
Já a IA pode escrever redações, resumir textos, responder questões de história, física, biologia e arte, dar conselhos emocionais e até fazer a lição inteira.
Ou seja: ela não está apenas ajudando em uma tarefa.
Ela pode acabar substituindo o próprio processo mental que forma repertório, pensamento crítico e autonomia.
E houve um ponto que achei muito forte: o cérebro se desenvolve de acordo com a forma como é usado.
Então, se um jovem passa a terceirizar continuamente o esforço mental para a IA, existe um risco real de ele treinar menos exatamente as capacidades de que mais precisará no futuro: pensamento crítico, criatividade, resiliência e capacidade de lidar com o erro e sustentar frustrações.
O painel também abordou um risco que me chamou atenção: a IA pode até personalizar o ensino e ajudar muito, principalmente em casos de neurodivergência, adaptação de linguagem, apoio a professores e jornadas de aprendizagem mais individualizadas. O próprio relatório cita benefícios como apoio a alunos neurodivergentes, personalização do ensino e suporte ao trabalho dos professores.
Mas, ao mesmo tempo, ela pode gerar o efeito contrário se for usada sem intenção: pode fazer o aluno pensar menos, criar menos e até convergir para as mesmas respostas.
A Brookings destaca justamente isso: quando a IA é usada sem critério, os riscos passam a superar os benefícios, ao menos no momento atual de implementação.
Outro tema muito importante foi o impacto social e emocional.
Os palestrantes trouxeram a preocupação de que muitos jovens já estão começando a usar IA não só para estudar, mas também para conversar, pedir conselhos, reclamar da vida, fugir da frustração e até substituir relações humanas.
E entra uma questão essencial: a resiliência também se aprende no atrito com o mundo real.
Na conversa difícil.
No feedback que não vem do jeito que você queria.
Na discordância.
Na convivência com outras pessoas.
No erro.
Na tentativa novamente.
Se a tecnologia apenas concorda com você, facilita tudo e elimina o desconforto do caminho, ela também pode retirar uma parte importante do que constrói maturidade.
Uma parte muito interessante da palestra foi a ideia de que precisamos sair da discussão “IA ou humano” e ir para uma lógica de intencionalidade: quando, como e por que usar IA?
Não se trata de proibir tudo.
Nem de liberar tudo.
Trata-se de usar a IA de um jeito que amplie a aprendizagem, mas que preserve o esforço cognitivo que faz alguém realmente crescer.
Os representantes do Google falaram bastante sobre segurança, filtros por idade, proteção de dados e controles parentais para menores de 18 anos. Disseram que contas de menores não são usadas para treinar modelos e que há experiências específicas por faixa etária, além de controles para pais e educadores.
Mas, para mim, o ponto mais forte veio menos da tecnologia em si e mais da postura humana diante dela.
Os pais precisam aprender sobre IA.
As escolas precisam discutir isso com mais profundidade.
E os jovens precisam desenvolver não apenas alfabetização em IA, mas também capacidade crítica para entender o que estão usando, o que estão delegando e o que não podem terceirizar.
Porque, no fundo, a grande pergunta não é: “a IA vai estar presente?” Porque ela já está.
A grande pergunta é: ela vai fortalecer a capacidade dos jovens de pensar, se relacionar e florescer… ou vai enfraquecer tudo isso?
Para mim, a síntese dessa palestra foi muito simples: aprender sem esforço pode parecer confortável no curto prazo, mas enfraquece no longo prazo.
E, se quisermos formar jovens realmente fortes para o futuro, eles não podem crescer apenas cercados de respostas.
Eles precisam continuar vivendo o processo que forma pensamento, identidade e resiliência.
Porque o futuro não precisa apenas de jovens mais produtivos com IA.
Precisa de jovens mais humanos, mais críticos e mais preparados para enfrentar a complexidade do mundo.