O diretor da OpenAI não usa o chat GPT como companhia
Depoimento do Head of Strategic Intelligence da OpenAI, Tobias Peyerl, provocou minha 1ª reflexão no SXSW 2026
Durante um painel com outros três speakers, Tobias Peyerl, head de inteligência estratégica da OpenAI, foi bastante provocado pela audiência, e por Kasley Killam, escritora e pesquisadora de Harvard, sobre o uso saudável da ferramenta (que já virou mais que uma ferramenta para solucionar e responder questões, virou companhia). Quando entrou em foco o assunto da saúde social e as relações afetivas que humanos têm buscado (e encontrado, de certa forma) com a IA, Tobias contou que ele não usa o chat GPT como companhia, que não acha que seja útil para ele. Ele confessou que o maior uso que faz é na pesquisa e curadoria para viagens. E destacou que as formas de relacionamento emocional com o app tem surpreendido até os próprios desenvolvedores. Porque, afinal, são as pessoas que validam o uso e decidem como fazê-lo.
O testemunho de Tobias me transportou até um outro, de Steve Chen, um dos cofundadores do YouTube, que afirmou em 2023 não permitir que seus filhos assistam ao YouTube Shorts. E recomendou fortemente que os pais também não liberem o formato para as crianças (por outro lado, o que mais vejo por aí são os pequenos grudados no scroll, enquanto eu luto lá em casa fortemente para evitar os shorts).
Estamos entendendo o que isso significa? Os próprios criadores selecionam como usar suas criaturas. A partir disso, da capacidade que até aqui apenas nós humanos temos de escolher as tecnologias e discernir sobre o seu peso e o seu valor nas nossas vidas, é que eu chego na palavra que, para mim, resume a experiência e os palcos do SXSW 2026. Discernimento. Uma das qualidades que nos distingue como homo sapiens. Discernimento – ou taste, conforme mencionou Lin Jeffery, da The Institute of Future, na apresentação sobre o futuro do trabalho e da educação. É preciso trazer o discernimento como protagonista das conversas sobre IA. Porque só o ser humano poderá discernir e julgar o que é bom e ruim, o que faz sentido ou não (pelo menos, até que as máquinas nos provem o contrário). Para acompanhar o nosso discernimento, não foram dois ou três, mas em mais de um palco escutei sobre a importância da intenção. Nós, publicitários, estamos carecas de saber sobre criar com intenção. E, no Brasil, mandamos muito bem tanto na intenção quanto na intuição criativa.
Então, se temos discernimento (check #1) e intenção (check #2) posso chegar até a terceira palavra que rondou meus ouvidos nos talks mais diversos e continua ressoando aqui: julgamento (check #3).
Somos capazes de discernir.
Somos capazes de colocar intenção.
Somos capazes então de julgar.
Desde julgar o uso nas pequenas tarefas – seja um agente de IA em uma campanha ou para ajudar naquele copy – até os julgamentos mais complexos, quando deixamos de avaliar e utilizar a IA apenas como ferramenta e passamos a integrá-la nos sistemas de funcionamento das nossas empresas e nas nossas relações pessoais.
Devo implantar agentes autônomos como parte do meu time?
Devo criar mundos sintéticos, os intitulados Brand Worlds, para mapear, diagnosticar e pesquisar comportamentos antes de lançar projetos e produtos?
Devo introduzir a IA na minha casa, com meus filhos, como assistentes de seus processos de aprendizado?
Por fim, surge a pergunta problematizada na palestra com Tobias: devo me envolver amorosamente com uma IA, seja ela qual for? Esther Parrel maravilhosa nos lembrou todas ferramentas são produtos de um negócio, um produto que visa dar lucro através da nossa atenção. A importância da soberania cognitiva foi tema central, todos nós vimos, ouvimos, sentimos, concluímos isso aqui em Austin. O discernimento é justamente o centro, o core, o coração dessa questão gigante.
Precisamos ser maiores do que as máquinas. Somos, na verdade. Mas não somos maiores no sentido operacional – nisso elas já nos ultrapassaram. Do ChatGPT ao Waymo, basta escalar carros autônomos por aí e as cidades se prepararem para recebê-los. Basta dar vazão à IA na educação, estruturando como, quando e porquê usar as ferramentas. E definir que operem em todos os níveis, para todos – e não como mais um fator que aumenta a distância social, cultural e, justamente, cognitiva das novas gerações. Porque nós, os Millennials e GenZs, não nascemos neste mundo, mas os Alphas, nativos da IA, precisam crescer equiparados em acesso às tecnologias. Acesso = educação intencional para o uso. Porque baixar um app é fácil. Difícil é ir além (de novo, o uso da IA na visão sistêmica, parte funcional da sociedade, não apenas ferramental).
Tobias e Steve são pais das criaturas e não se rendem a elas. Escolhem como cuidar e usá-las a cada dia. Não é você que vai se jogar sem filtro, né?