não dá nem pra morrer em paz
startups prometem reviver seus parentes – e quem sabe até VOCÊ quando chegar a hora – como réplicas digitais de ia
Você lembra daquela propaganda da volkswagen onde reviveram a Elis Regina com inteligência artificial pra cantar com a filha? Na época, muita gente se sentiu mal, outros acharam incrível, mas todo mundo concorda que foi estranho.
Agora, startups como a 2way e ferramentas de deepfake prometem reviver parentes falecidos com apenas 3 minutos de vídeo. Igualzinho aquele episódio de Black Mirror. Essa é, inclusive, a comparação que os noticiários e as pessoas nas redes tão fazendo.
Uma pesquisa recente da espm mostrou que 1/4 dos brasileiros já se imagina usando ia para falar com familiares falecidos. O estudo foi realizado em novembro de 2025, no contexto do dia de finados, e ouviu 267 participantes que passaram pela perda de entes queridos nos últimos dois anos. Os dados mostram que uma parte considerável das pessoas ouvidas enxerga um possível benefício emocional em manter estas interações geradas por ia.
Mas a própria pesquisadora alerta pro perigo psicológico de lidar com o luto mediado por uma ia genérica. Para quem entende minimamente como ia generativa funciona, isso está mais pra uma necromancia digital.
A ia não tem alma, não tem saudade e nem conversa com você. Ela é um motor de probabilidade e dados, se você diz “oi”, a estatística diz que 99% das vezes a resposta é “oi”. Mas o que acontece quando uma empresa transforma essa manipulação de linguagem em um produto voltado para pessoas que estão em seu momento mais vulnerável?
Imagina depender de uma assinatura mensal para continuar “falando” com a sua mãe. Imagina que, se o servidor cair ou a empresa falir, você “perde” ela de novo. A nossa imagem, a nossa voz e a nossa personalidade estão sendo transformadas em mercadoria e até depois de mortos corremos o risco de virar dados para treinar modelos de empresas que lutam ativamente contra qualquer tipo de regulamentação.
falseamento da memória
A dor, a saudade e o luto são processos humanos, complexos e essenciais. Quando a gente terceiriza isso para um avatar sintético, abrimos portas para o que já estão chamando de “psicose de ia” – um estado onde as pessoas acreditam em realidades distorcidas e criam dependência emocional de uma máquina.
Já estamos vendo bizarrices por aí como repórter da CNN entrevistando a réplica de uma vítima de tiroteio pra gerar clique, ou familiares usando a simulação de um homem assassinado “perdoando” seu assassino no tribunal… tudo isso sem o consentimento da própria pessoa que morreu.
Isso é um problema ético e social extremamente complicado e precisamos pressionar por leis firmes para evitar maiores danos aqui no Brasil, já que nos EUA com certeza não existe a intenção de regulamentar esse setor por causa de interesses econômicos.
Por fim, se permitam viver o luto como seres humanos, se permitam atribuir significados a essas experiências, por mais dolorido que seja. A tecnologia não pode resolver nem otimizar a morte. O luto é, e deve continuar sendo, uma experiência social, lenta e imperfeita.
E você, qual a sua visão sobre isso? Você usaria uma ferramenta dessas para tentar aliviar a dor de perder alguém?




