MWC

Como superar a lacuna linguística nos modelos de IA?

Especialistas analisam como operadoras podem enfrentar lacuna linguística dos modelos de linguagem de IA

i 6 de março de 2026 - 7h24

lacuna linguística

Catherine Holloway, Sepi Chakaveh, Leena Sukumar, Peter John Alexander e Bejoy Pankajakshan durante palestra no Mobile World Congress (Crédito: Amanda Schnaider)

A rápida ascensão da inteligência artificial generativa reforçou um problema de décadas da sociedade: a exclusão digital baseada na linguagem. Isso porque a maioria dos modelos de IA é treinada em apenas alguns idiomas, excluindo bilhões de pessoas das oportunidades geradas por essa tecnologia.

Atualmente, o inglês representa 49% de todo o conteúdo online e somente 400 idiomas de cerca de sete mil falados em todo o mundo estão totalmente acessíveis online. Isso acaba limitando o treinamento de modelos de linguagem de IA. Além disso, muitos dos modelos apresentam um bom desempenho somente em sete idiomas.

“Quando temos sistemas de IA funcionando para apenas um punhado de idiomas dominantes, estamos embutindo a exclusão diretamente na infraestrutura, e isso é realmente inaceitável”, alertou Catherine Holloway, professora de Design de Interação e Inovação da University College London (UCL).

Na universidade, a professora também ajudou a criar e lidera o Centre for Digital Language Inclusion (CDLI) – Centro para Inclusão de Línguas Digitais, em português -, que desenvolve tecnologia de reconhecimento de fala em 13 línguas africanas e apoia empreendedores locais por meio de hackathons e programas de inovação.

Hegemonia do inglês

A hegemonia do inglês como base padrão para os modelos de linguagem é resultado de uma combinação de fatores. Um deles, segundo Sepi Chakaveh, fundadora e CEO da Pixsellar, é que grandes conjuntos iniciais da web, como o Google e a Wikipedia, eram predominantemente em inglês.

A executiva também destacou que as principais pesquisas acadêmicas de instituições como Stanford e Oxford foram publicadas em inglês, assim como o impulso comercial vindo do Vale do Silício e do Reino Unido acabaram consolidando o inglês como a língua padrão dentro do mundo da tecnologia.

Como resposta a essa lacuna linguística impulsionada pela IA generativa, o conceito de IA soberana ganha força. Peter John Alexander, presidente e diretor de negócios da MeetKai, salientou que, atualmente, os países têm escolhas para não dependerem totalmente das tecnologias da China ou dos Estados Unidos.

Na visão do executivo, a soberania em IA envolve uma série de fatores, como o desenvolvimento de modelos de raciocínio em língua local, criação de infraestrutura própria que reflita os valores e cultura de cada nação e o controle de dados dentro de fronteiras nacionais. Neste sentido, MeetKai é uma empresa que oferece soluções de IA soberana para que governos e empresas tenham controle sobre seus dados e infraestrutura de IA.

Inclusive, a empresa fechou uma parceria com a GSMA, para lançar o primeiro modelo de raciocínio aberto em suaíli, uma língua de poucos recursos digitais, apesar de ser falada por 150 milhões de pessoas na África Oriental e Central.

O papel crucial das operadoras

Bejoy Pankajakshan, diretor de tecnologia e estratégia da Mavenir, destacou que a grande lacuna está nos conjuntos de dados de idiomas que não existem para países com poucos recursos. Logo, para ela, um elemento crucial nessa equação para reduzir essa lacuna são as operadoras de telecomunicações. “Dada a vantagem que têm em relação à proximidade com o usuário, a quantidade de dados que possuem por todas as conversas que têm com os clientes, enquanto, ao mesmo tempo, controlam a privacidade, através de métricas de opt-in”, explicou.

Com isso, o que as operadoras poderiam fazer, num primeiro momento, é abordar o corpo de dados que não existe hoje para os 90% dos idiomas do mundo, que são cerca de sete mil, dos quais, segundo ele, menos de 20% têm os modelos de alto recurso, treinados com mais de 100 milhões de tokens, disponíveis atualmente.

Exemplos práticos nesse sentido já estão acontecendo. Pankajakshan destacou o “Tele AI”, da China Telecom, que é treinado com 30 mil horas de conversas em 30 dialetos diferentes.

Outro movimento que as operadoras poderiam fazer, na visão de Pankajakshan, é permitir que os usuários possam optar por fornecer seus dados para o treinamento de modelos em troca de serviços melhores, sob um modelo de “consentimento como serviço”, no qual haja a garantia de que suas informações não serão usadas para vigilância ou publicidade. “Acredito que as operadoras têm um papel fundamental a desempenhar na abordagem dessa lacuna de linguagem”, acrescentou.

Com o objetivo de ajudar as operadoras de telecom, parceiros e desenvolvedores da indústria a avaliarem modelos de linguagem e acelerarem a implantação de IA para linguagem em dispositivos e redes, durante o MWC, a MeetKai também lançou, em parceria com a GSMA, uma plataforma online: a ModelChorus.

Além da tradução textual

A lacuna linguística impulsionada pela IA generativa não é somente uma questão de tradição, mas de acessibilidade econômica e física. Em muitas regiões do mundo e para muitas pessoas analfabetas, a comunicação oral é a única possibilidade.

Logo, o desenvolvimento de ferramentas e modelos baseados em voz é fundamental. E a RingCentral faz justamente isso. A empresa desenvolve soluções de comunicações na nuvem baseadas em IA para empresas, unificando voz, mensagens, vídeo, telefone e contact center em uma única plataforma.

“Estamos no negócio de voz há décadas. Vemos o áudio como uma fonte de dados muito rica. Processamos bilhões e bilhões de minutos de dados regularmente, e garantimos que usamos esses dados, mas dentro dos parâmetros de soberania e outras regulamentações, GDPR, o que quer que a região específica precise”, disse Leena Sukumar, diretora sênior de marketing de canal para fornecedores de serviços globais da companhia. “Nosso objetivo é fechar essa lacuna de linguagem”.

Além disso, Leena pontuou que a voz é uma fonte riquíssima de dados uma vez que permite captar emoções e nuances culturais, algo que nem sempre traduções automáticas baseadas em texto conseguem fazer.

Atualmente, a maioria dos modelos de linguagem segue um processo de três etapas: converter fala em texto, traduzir o texto e converter novamente em fala. No entanto, segundo Pankajakshan, o futuro aponta para modelos “fala-para-fala” que preservam melhor o tom e a intenção do falante.