O mercado emergente dos ‘ghosts’ de IA
Avanço dos 'generative ghosts' levanta dilemas sobre privacidade e o controle das narrativas digitais após a morte
Uma das palestras mais provocativas que assisti no SXSW 2026 foi ‘Generative Ghosts: AI Afterlives & the Future of Memory’, com Meredith Ringel Morris e Iason Gabriel, do Google DeepMind, Jed R. Brubaker, da University of Colorado Boulder, e Dylan Thomas Doyle, da AI for All Tomorrows.
O tema parecia ficção científica, mas já está acontecendo. Os chamados generative ghosts são representações criadas com inteligência artificial a partir de dados, linguagem, voz, imagem e histórico digital de uma pessoa. Mais do que armazenar memórias, esses sistemas passam a simular presença, responder perguntas, gerar novas falas e criar a sensação de continuidade de alguém que já morreu.
A palestra mostrou que esse mercado já começou a ganhar forma. Foram citados exemplos de instalações artísticas baseadas em amigos e parentes falecidos, famílias que criam bots de entes queridos, empresas que animam fotos antigas e startups que oferecem a possibilidade de a própria pessoa deixar preparada uma espécie de legado conversacional para depois da morte. Em alguns casos, essas representações já foram usadas até para fins públicos, como advocacy político e depoimentos em contextos judiciais.
Mas o ponto mais interessante da conversa não foi a tecnologia em si, mas o desconforto que ela produz na maioria das pessoas.
O fato é que não estamos mais falando apenas de arquivos, fotos ou perfis memorializados, mas sim de sistemas interativos, que respondem, performam uma identidade e podem parecer, para muita gente, próximos demais da pessoa real. É aí que entram as implicações de privacidade e legais.
Uma das ideias trazidas pelos pesquisadores do Google DeepMind foi que a experiência de interagir com um ghost pode parecer íntima e privada, mas nunca envolve só duas partes. Sempre existe uma terceira camada: a empresa, a infraestrutura e os desenvolvedores por trás daquela simulação. Isso significa que alguém está definindo como essa memória será oferecida, até onde ela vai, quando pode ser interrompida e de que forma pode ser monetizada.
Por essa razão, a questão deixa de ser apenas emocional e passa a ser estrutural. Quem controla os dados que alimentam esse sistema? Quem autoriza o uso da voz, da imagem e da personalidade — a própria pessoa em vida ou a família após sua morte? Quem responde se essa representação gerar dano, manipulação ou distorção? E o que acontece quando esse “legado digital” depende de um serviço privado que pode mudar de preço, sair do ar ou simplesmente deixar de existir?
Um dos riscos emocionais é o de uma “segunda morte”. A primeira é a perda da pessoa. A segunda pode acontecer quando a família perde também o acesso àquela representação digital, seja por interrupção do serviço, falha da empresa ou dependência econômica de uma plataforma.
Além disso, os riscos de segurança são reais, já que um sistema treinado com memórias familiares pode expor informações íntimas e abrir espaço para ataques de engenharia social. Também pode haver sequestro digital, manipulação por terceiros, invasões ou uso indevido da representação para enganar pessoas emocionalmente vulneráveis. A palestra levantou inclusive cenários em que um ghost poderia ser instrumentalizado para fraude, extorsão ou influência indevida.
No campo jurídico, as perguntas se multiplicam. Se uma representação digital continua agindo no mundo, produzindo conteúdo, orientando pessoas ou até gerando renda, qual é seu status? Estamos falando de um software, de um ativo digital, de uma extensão da vontade do falecido? Como ficam consentimento, sucessão, direito de imagem, uso de voz, responsabilidade civil e herança de dados?
Outro ponto importante é que essa discussão não vale apenas para mortos. A mesma tecnologia que permite criar representações póstumas também pode ser usada para clonar pessoas vivas. Ex-parceiros, celebridades, profissionais — qualquer pessoa com volume suficiente de dados pode ser replicada sem necessariamente ter controle sobre isso. Ou seja, o problema não é apenas memorial, é também identitário, relacional e regulatório.
A palestra reforçou que a tecnologia pode até ajudar pessoas em processos de luto, preservar histórias familiares e permitir novas formas de conexão com memórias e arquivos, mas só será minimamente saudável se houver clareza sobre o que esses sistemas realmente são.
Um generative ghost é uma simulação construída a partir de rastros, padrões e probabilidades. Pode ser comovente, convincente ou até útil, mas também pode confundir as pessoas emocionalmente.
No fim, a palestra nos faz refletir: quando a IA começa a prometer presença depois da morte, estamos construindo novas formas de memória ou novos mercados de dependência emocional?
E, junto com isso, surgem questões ainda mais profundas: quem poderá continuar falando, em nome de quem, com quais dados e sob quais limites?