Conexão Austin

Desculpe, mas a IA não vai valorizar as soft skills

Ela apenas separa as habilidades humanas com substância daquelas que o mercado sempre tratou como suficientes

Renato Mendes

Cofundador da 4Equity Media Ventures 18 de março de 2026 - 12h12

Um dos consensos que mais ouvi nesses primeiros dias de SXSW é que a IA finalmente dará às soft skills a relevância que elas sempre mereceram. A tese apareceu em pelo menos três painéis diferentes, além de várias conversas de corredor na mesma direção. A lógica parece perfeita. Num mundo em que máquinas geram texto, código, imagens e análises, sobra o humano. Comunicação, empatia e liderança. Competências que o mercado sempre tratou como “nice to have” finalmente se tornariam essenciais.

O problema é que todo mundo acertou o diagnóstico, mas errou no remédio. No fundo, a questão não é se soft skills ficaram mais importantes. A questão é quais delas realmente têm valor. A inteligência artificial não elevou todas as habilidades humanas de forma uniforme. Ela fez algo mais seletivo. Expôs quais competências têm substância e quais sempre foram, na prática, ornamentais.

A primeira habilidade que subiu de preço real é o julgamento. Não no sentido genérico de tomar boas decisões, mas no sentido técnico de saber avaliar output. A IA gera em uma velocidade e volume que nenhum humano consegue acompanhar. O gargalo deixou de ser a geração e passou a ser a avaliação.

GPT-4 gera um relatório de market analysis em três minutos. Pode afirmar, por exemplo, que o mercado brasileiro de SaaS cresce 45% ao ano. Soa plausível. Formatação impecável. Fontes citadas. Mas quem conhece o setor percebe rapidamente os problemas. Mistura ARR com GMV, inclui fintechs que não são SaaS puro e ignora churn estrutural. Julgamento é a capacidade de separar dado útil de ruído bem formatado. Isso exige experiência acumulada, contexto de negócio e senso crítico desenvolvido ao longo de anos. Exatamente o tipo de habilidade que a IA ainda não possui.

A segunda habilidade que ganhou valor é a curadoria. Vivemos um paradoxo. Nunca foi tão fácil produzir conteúdo e, ao mesmo tempo, nunca foi tão difícil criar algo que realmente mereça atenção. A abundância de geração criou uma nova escassez, critério.

Na semana passada, um cliente pediu posts sobre IA para LinkedIn. A IA gerou 30 em meia hora. Todos tecnicamente corretos. Gramática perfeita. Estrutura narrativa adequada. Zero úteis. O trabalho de verdade foi escolher três que não pareciam escritos por robô e descartar os outros 27. Curadoria é a habilidade de dizer não com fundamento. E isso continua sendo raro.

A terceira, e talvez mais complexa, é responsabilização. A IA não responde por nada. Ela não assina contratos, não enfrenta consequências e não carrega reputação. Zero accountability. Quem assume o risco, o crédito e o erro ainda é humano.

Em um ambiente em que cada vez mais decisões passam por sistemas automatizados, a disposição de colocar o nome embaixo do que foi produzido deixa de ser apenas um valor abstrato e passa a ser um diferencial concreto. IA não vai preso. Você vai.

Todo mundo sabe usar ChatGPT. Poucos sabem quando o output está errado. Pouquíssimos sabem quando está quase certo, que é o mais perigoso. O gap não é falta de curso disponível. É falta de experiência real tomando decisões com skin in the game.

Conheço dezenas de pessoas fluentes em prompt engineering. Sabem extrair output sofisticado de LLMs, dominam técnicas de few-shot learning, entendem limitações de contexto. Conheço poucas que sabem quando não usar IA. Quando o risco de alucinação é maior que o ganho de velocidade. Quando o cliente precisa de julgamento humano mesmo que demore mais. Quando responsabilização exige que você faça o trabalho sem atalho.

E aqui vai a parte que ninguém quer ouvir. Há uma boa chance de você estar treinando as habilidades erradas.

Se seu plano de desenvolvimento em 2026 inclui curso de escuta ativa, mas não inclui aprender a auditar output de LLM, você entendeu errado o momento. Se você investe em workshop de liderança situacional, mas não consegue diferenciar quando um modelo está alucinando de quando está correto, você está se preparando para a guerra anterior.

A inteligência artificial não veio valorizar soft skills de forma genérica. Ela veio revelar quais delas sempre tiveram substância e quais sobreviveram até aqui apenas porque ainda não existia uma máquina capaz de substituí-las.