Opinião MWC

Da experiência à confiança: o dilema da IA em escala

Soluções que antes eram restritas a grandes corporações agora se tornam acessíveis, permitindo que mais empresas ofereçam serviços hiperpersonalizados

José Ronaldo Rocha

sócio e líder de consultoria para da EY. 6 de março de 2026 - 10h23

Se as conversas superficiais no Mobile World Congress 2026 ainda giram em torno de velocidade e novos aparelhos, os debates mais profundos revelam uma agenda muito mais complexa e transformadora. A inteligência artificial, antes um tema futurista, agora se apresenta como uma força de democratização, prometendo acelerar a inclusão e redefinir o que entendemos por experiência do cliente. Mas, para além do otimismo, uma questão crucial começa a tomar o centro do palco: como escalar essa revolução de forma segura e responsável?

A primeira grande promessa da IA é a democratização da inovação. Soluções que antes eram restritas a grandes corporações agora se tornam acessíveis, permitindo que mais empresas ofereçam serviços hiperpersonalizados. Isso se traduz diretamente na melhoria da experiência do cliente, um dos mantras mais repetidos no evento. A capacidade de antecipar necessidades, customizar interações e resolver problemas de forma proativa não é apenas um diferencial competitivo; é uma nova e poderosa avenida de monetização, que se materializa em fidelidade, maior engajamento e novas fontes de receita.

No entanto, o que realmente chamou a atenção no MWC 2026 foi a discussão sobre o próximo passo dessa jornada: os agentes autônomos. A ideia de ter sistemas de IA que não apenas sugerem, mas tomam decisões e executam tarefas de forma independente, é o que permitirá a verdadeira aplicação dessa tecnologia em escala. Imagine um agente que negocia com fornecedores, otimiza a logística em tempo real ou gerencia o atendimento ao cliente de ponta a ponta. O potencial é imenso, mas esbarra em uma barreira fundamental: a confiança.

É aqui que o debate se torna mais denso. Como podemos garantir que esses agentes autônomos operem dentro de limites éticos e de responsabilidade bem definidos? A questão que ecoa nos corredores não é apenas técnica, mas de governança. Entregar a um sistema a autonomia para tomar decisões exige uma estrutura robusta que o impeça de expor a companhia a riscos financeiros, legais ou de reputação. Não se trata de ter medo da tecnologia, mas de construir as salvaguardas necessárias para que ela atue a nosso favor.

Esse ponto é, talvez, o maior desafio para a próxima fase da transformação digital. A tecnologia para criar agentes autônomos avança a passos largos, mas a maturidade das empresas para governá-los ainda engatinha. A solução passa por criar um framework claro de responsabilidade, com limites de atuação, trilhas de auditoria imutáveis e um entendimento profundo de que a autonomia concedida deve ser proporcional à confiança estabelecida.

O futuro, portanto, não será definido apenas pela capacidade da IA de criar experiências incríveis, mas pela nossa habilidade em construir um ecossistema de confiança ao redor dela. A escalada dos agentes autônomos depende menos de código e mais de governança. A empresa que decifrar essa equação primeiro não apenas liderará a inovação, mas definirá o padrão de como a inteligência artificial pode, de fato, se tornar uma parceira estratégica e confiável nos negócios.