SXSW

Humanidade na era da AI: qual o posicionamento da OpenAI?

Head de inteligência da OpenAI discute usos da tecnologia com Kasley Killam e Lambert Hogenhout, da ONU

i 17 de março de 2026 - 10h01

Uma inteligência artificial generativa (AGI) que beneficie toda a humanidade. Essa é a missão da OpenAI, disse Tobias Peyerl, head de inteligência estratégica e análise da OpenAI no South by Southwest 2026. A empresa participou do painel “The Great Recalibration: Centering Humanity in the Age of AI” com a autora e especialista em saúde social Kasley Killam e o chefe de dados e IA no Secretariado das Nações Unidas (ONU), Lambert Hogenhout.

Lambert Hogenhout, Tobias Peyerl e Kasley Killam debatem saúde social e crise de confiança (Crédito: Thaís Monteiro)

Lambert Hogenhout, Tobias Peyerl e Kasley Killam debatem saúde social e crise de confiança (Crédito: Thaís Monteiro)

O debate girou em torno das conexões humanas e o impacto da inteligência artificial nesse contexto. Conforme o executivo, o objetivo da OpenAI não é trazer valor ao acionista, mas à sociedade. A OpemAI nasceu como uma empresa sem fins lucrativos, disse. A transição para uma Empresa de Benefício Público (EBP) foi decorrente da necessidade de capital para investir no poder de processamento computacional massivo.

Além da EBP, a OpenAI tem uma fundação cujo objetivo é realizar ações para saúde e cura de doenças e para maximizar os benefícios da IA e minimizar os riscos da tecnologia.

Em um de seus argumentos, Peyerl disse que o intuito da IA é potencializar capacidades humanas, dando ao usuário mais tempo para demais atividades de lazer. Kasley contra-argumentou o executivo, apontando que essa é uma justificativa utilizada em todas as revoluções tecnológicas, desde a revolução industrial até a introdução do computador em larga escala.

“Quando temos mais tempo, nós o preenchemos com mais trabalho. Para deixar claro, eu também quero isso. Eu adoraria que esse fosse o resultado, mas não estamos vendo isso acontecer”, afirmou. Peyerl lidera a equipe responsável por proteger sistemas avançados de IA contra o uso indevido e ameaças emergentes.

Relacionamentos com IA

Conforme Kasley, quase metade da Geração Z já teve um relacionamento significativo com uma inteligência artificial e cerca de 37% dos jovens da Geração Z afirmam que conseguem se imaginar apaixonados por uma IA.

Para ela, há três formas de relacionamento do usuário com a IA. O que ela considera positivo ocorre quando o usuário usa a tecnologia para apoiar conexões humanas como organizar calendários e agendar encontros com pessoas amadas ou no uso de tradução simultânea para conversar com alguém de outra cultura. Os demais a preocupam: para suplementar companhia em momentos de solidão extrema, como quando o usuário quer conversar de madrugada e não encontra amigos disponíveis; e para substituir a companhia humana, quando a IA se torna sedutora, pois não exige lidar com os desafios de um relacionamento real e proporciona maior isolamento.

Peyerl afirmou que a OpenAI observa com cautela o uso do ChatGPT para aconselhamento terapêutico e relacionamentos românticos. “Há três anos, quando o ChatGPT foi lançado, certamente não esperávamos que as pessoas o usassem para relacionamentos românticos ou mesmo para aconselhamento médico, como aconteceu. Aprendemos muito ao longo do caminho”, disse.

A OpenAI criou mecanismos de intervenção para atuar quando usuários iniciam conversas “potencialmente arriscadas”, indicando que ele busque ajuda fora do ChatGPT e em linhas diretas em caso de automutilação e suicídio.

A empresa está recrutando psicólogos e trabalha com a Associação Americana de Psicologia (APA) para se aprofundar nesse comportamento para adotar medidas adicionais, disse Peyerl. O executivo não recomenda o uso da plataforma para consultas sobre questões de saúde, mas disse que médicos têm usado para aprimoramento.

“Estamos observando muito de perto o que está acontecendo. Estamos corrigindo onde já vemos negatividade e dano para garantir que não prolifere e se torne um problema maior. Nós precisamos, obviamente, atualizar continuamente nossas salvaguardas ou políticas de segurança”, colocou.

Crise da confiança

Hogenhout pontuou que além da crise de conexão social, há uma crise de confiança causada pela ascensão de imagens e vídeos produzidos com IA, pois o público passou a acreditar que tudo é falso. “Aí, você tem uma imagem de algo real, a documentação de alguém cometendo um crime ou fazendo algo ruim. E é muito fácil para qualquer um dizer que é notícia falsa. Isso desvaloriza a validade de tudo”, afirmou.

Peyerl, da OpenAI, disse que os vídeos do aplicativo Sora intencionalmente parecem falsos. Para o executivo, a plataforma permitiu que diversos usuários se tornassem creators.

Adicionalmente, Hogenhout opinou que a sociedade não tem tempo para processar a quantidade de atualizações da tecnologia em curtos períodos. “Meus avós só viram quatro revoluções tecnológicas durante a vida toda deles: luz, carros, rádio e TV. Tiveram 80 anos para se adaptar aos novos protocolos. Agora, temos 15 minutos”, disse.

Já a especialista em saúde social apontou que há uma tendência de retorno ao consumo de conteúdo analógico, em parte por causa da nostalgia, mas também pela busca de experiências de desconexão, como festas sem celular, para garantir a autenticidade da experiência.

Quem paga a conta?

Tanto Hogenhout quanto Kasley apontaram para o medo da IA seguir os passos das redes sociais: em que tudo é animador no começo e, ao longo do tempo, a sociedade percebe as consequências negativas no uso excessivo.

Questionados pela audiência quem deve ser responsabilizado pelos danos causados pelas plataformas de IA e pela regulamentação das mesmas, Hogenhout dividiu que, embora governos e empresas tenham papéis nesses processos, o maior potencial de mudança vem do público e em como os indivíduos escolhem usar as ferramentas e manifestam publicamente suas opiniões sobre elas.

Além de apontar a sociedade e o governo como parte desse processo, Kasley Killam defende que empresas proprietárias das plataformas devem ter estratégias proativas de saúde social incorporadas ao design do produto, não apenas reagindo aos danos que eles causam conforme eles aparecem, como aconteceu com as redes sociais. “Não estou satisfeita com aprender conforme vamos, como com as redes sociais. Quero mais esforço ativo do que reativo”, disse.

Peyerl, da OpenAI, diz que a empresa está em constante diálogo com órgãos públicos para contribuir para como o futuro da tecnologia deve ser. “Estamos sempre repensando e tentando providenciar transparência. Não queremos liderar o debate, mas queremos providenciar o máximo de informação que podemos”, afirmou. O executivo disse ser defensor que sempre haja um humano parte da engenharia da tecnologia.