- Crescita del 300% in 5 anni per l'interesse nelle deepfake therapy.
- Alcune piattaforme offrono interazioni testuali basate su chatbot.
- Costi da poche decine di euro a migliaia per pacchetti "premium".
Nell’era contemporanea caratterizzata dall’innovazione tecnologica senza precedenti delle tecnologie deepfake si stanno aprendo scenari inattesi per il benessere psichico individuale. Fenomeni che prima sembravano relegati al regno dell’immaginario – come la possibilità concreta di creare esperienze immersive con volti ed espressioni affettuose dei nostri cari scomparsi – diventano ora parte integrante del nostro vissuto quotidiano. Tali sviluppi pongono interrogativi significativi circa il difficile rapporto con il dolore, le dinamiche memoristiche e i legami interpersonali fondamentali per ciascun individuo. Alla base delle recenti novità vi è un’accessibilità senza precedenti agli strumenti avanzati offerti dall’intelligenza artificiale: essi consentono non soltanto la produzione visiva o uditiva, ma anche simulazioni dialogiche così realistiche da poter ingannare i sensori emotivi degli utenti stessi impiegando dati già esistenti sul web. L’impatto che tali innovazioni hanno nei settori emergenti della psicologia cognitiva è notevole; esse sfidano ciò che conosciamo riguardo ai meccanismi del lutto, l’attaccamento emotivo, ed infine la nostra concezione della realtà.
Se da un lato l’idea di poter “parlare” ancora una volta con chi non c’è più può sembrare un balsamo per l’anima, dall’altro lato si aprono scenari complessi, ricchi di opportunità ma anche di insidie significative. La ricerca si concentra ora sull’analisi degli effetti psicologici sui pazienti che scelgono di intraprendere questo percorso, valutando attentamente se l’interazione con queste simulazioni digitali possa realmente facilitare l’elaborazione del lutto o se, al contrario, tenda a prolungarla, a distorcerne la natura o a creare nuove forme di dipendenza emotiva.
Gli psicologi e gli eticisti intervistati su questo tema esprimono un coro di voci complesse e spesso divergenti. Alcuni ritengono che, in casi specifici e sotto stretta supervisione clinica, queste tecnologie possano offrire un valido supporto, una sorta di “ponte” temporaneo per superare i momenti più acuti del dolore, permettendo ai sopravvissuti di esprimere rimpianti non detti, di congedarsi in modo più sereno o di elaborare specifici dettagli della relazione. Tuttavia, altri avanzano serie preoccupazioni riguardo al fatto che la continua interazione con un simulacro possa ostacolare la piena elaborazione del dolore, lasciando il lutto intrappolato in una condizione artificiosa e prolungata.
L’essenza stessa della memoria si articola come un fenomeno dinamico e in perpetua trasformazione. L’inserimento ripetuto di figure digitali rischia infatti non solo di congelare rappresentazioni idealizzate o parziali dei defunti, ma anche di allontanare dall’evoluzione naturale del ricordo necessaria per affrontare il processo terapeutico della perdita. Tra le questioni maggiormente delicate emerge quella legata a una potenziale dipendenza emotiva: l’illusione creata da presenze sempre disponibili complica ulteriormente il passaggio verso l’accettazione finale della perdita stessa. Ciò porta a sviluppare affetti nei confronti non dell’individuo originale, ma piuttosto nei confronti della sua immagine artificiosa. Tale situazione può risultare fatale sul piano delle relazioni sociali; in effetti si corre il rischio che gli individui scelgano la vicinanza offerta da tali innovativi artefatti piuttosto che cimentarsi nel formare nuovi legami o riabilitare le loro vite quotidiane.
Le implicazioni etiche e legali sono altrettanto dense di interrogativi, in particolare per quanto riguarda la privacy dei defunti, il consenso all’utilizzo dei loro dati per scopi di simulazione e la commercializzazione di servizi che toccano una sfera così intima e vulnerabile dell’esperienza umana. Chi detiene i diritti sull’immagine e la voce di una persona defunta? E quale tipo di informazione può essere riprodotta senza violare la sua integrità o quella dei suoi cari?

Dati, sfide e opportunità: Il lato concreto della Deepfake Therapy
Nonostante il recente sviluppo, già diversi studi e report hanno iniziato a raccogliere dati sull’utilizzo e gli impatti delle deepfake therapy. Si stima che, solo negli ultimi cinque anni, l’interesse e l’investimento in queste tecnologie siano cresciuti di oltre il 300%, con l’emergere di piattaforme e servizi dedicati che si prefiggono di offrire queste simulazioni. Alcune di queste piattaforme propongono interazioni testuali basate su chatbot addestrati con i dati digitali del defunto, mentre altre si spingono fino a offrire ricostruzioni audiovisive elaborate, capaci di generare voci e immagini realistiche. I costi di tali servizi variano, partendo da poche decine di euro al mese per soluzioni base fino a diverse migliaia per pacchetti “premium” che promettono un maggiore livello di personalizzazione e realismo.
Queste cifre, se da un lato indicano un mercato in espansione, dall’altro sollevano questioni di accesso e equità, rendendo tali “terapie” un lusso non accessibile a tutti.
Le interviste condotte con un campione di utenti rivelano esperienze eterogenee. Alcuni riportano un senso di conforto e vicinanza, affermando che l’interazione con la simulazione ha permesso loro di superare momenti di profondo sconforto o di completare conversazioni interrotte. Un utente, ad esempio, ha raccontato di aver utilizzato un deepfake di suo fratello per “chiedere perdono” per un litigio avvenuto poco prima della sua morte improvvisa, trovando un inaspettato senso di pace. Tuttavia, un’altra parte degli intervistati ha espresso sentimenti di confusione, frustrazione e persino senso di colpa, scoprendo che l’interazione con il simulacro era un sostituto inadeguato, incapace di replicare la complessità e l’autenticità di una relazione umana reale. Una donna ha descritto come il deepfake di sua madre, pur essendo visivamente e vocalmente convincente, non riuscisse a comprendere le sfumature emotive di una conversazione, generando in lei più dolore che sollievo.
Le complicanze nel processo di elaborazione del lutto sono tra le preoccupazioni principali degli psicologi. Il lutto è un percorso che richiede l’accettazione della realtà della perdita, la rielaborazione del significato della relazione con il defunto e, infine, il reinvestimento emotivo nella propria vita. L’interazione con un deepfake può interferire con queste fasi, specialmente quella dell’accettazione, mantenendo l’illusione di una presenza che, in realtà, non esiste più. Questo può portare a un lutto prolungato, patologico, in cui l’individuo rimane intrappolato in un ciclo di negazione o di ricerca di un contatto impossibile. Un ulteriore aspetto critico riguarda la potenziale distorsione della memoria. L’interazione con una versione “filtrata” o “idealizzata” del defunto, spesso programmata per rispondere in modo più accomodante o meno conflittuale, può alterare il ricordo autentico della persona, cancellando le sue imperfezioni o la complessità della relazione reale.
- Che idea meravigliosa poter rivivere momenti con i propri cari... 🥰...
- Questa tecnologia rischia di intrappolare le persone nel dolore... 💔...
- E se usassimo i deepfake per imparare dagli errori del passato...? 🤔...
Questioni etiche e la ricerca di un equilibrio
Le implicazioni etiche legate alla “Deepfake Therapy” sono ampie e complesse, estendendosi ben oltre la sfera individuale del lutto. Una delle prime e più pungenti questioni riguarda la privacy e il consenso del defunto. È eticamente accettabile utilizzare i dati digitali (post, foto, video, registrazioni vocali, messaggi) di una persona scomparsa per creare una sua replica senza il suo esplicito consenso, espresso magari tramite disposizioni testamentarie o “testamenti digitali”? La risposta non è affatto scontata. Attualmente, la legislazione in molti paesi è ancora lacunosa su questo fronte, lasciando spazio a zone grigie che possono essere sfruttate. Si pensi alle migliaia di ore di contenuti digitali che ognuno di noi produce nella propria vita: chi ne detiene i diritti dopo la nostra morte? E in che modo questi dati possono essere utilizzati per generare una simulazione di noi stessi una volta che non siamo più in grado di esprimere un volere?
La commercializzazione di queste simulazioni aggiunge un ulteriore strato di complessità. Quando un servizio a pagamento offre la possibilità di “parlare” con un caro estinto, si aprono domande sulla moralità della monetizzazione del dolore. È etico lucrare sulla vulnerabilità di individui in lutto, offrendo loro un prodotto che, nonostante le promesse, potrebbe rivelarsi più dannoso che benefico? C’è il rischio che la ricerca del profitto possa prevalere sulla massima etica di “primum non nocere” (per prima cosa non nuocere) che guida la pratica medica e psicologica.
Un altro punto cruciale concerne l’impatto sulla percezione della realtà e sull’autenticità delle relazioni umane. L’uso diffuso di deepfake per riprodurre persone defunte potrebbe portare a una desensibilizzazione collettiva nei confronti della morte e della perdita, confondendo i confini tra ciò che è reale e ciò che è artificiale. Se è possibile interagire indefinitamente con una rappresentazione digitale delle persone andate via, quale impatto avrà questo sulla nostra capacità di accettare la finitezza della vita e di trovare nuovi significati e connessioni? Potreste osservare l’emergere di una società che si distacca dall’idea di considerare il dolore come parte integrante della condizione umana; essa cerca piuttosto vie d’uscita artificiali da tale sofferenza che potrebbero alla fine impoverire profondamente la dimensione emotiva della vita.
Sotto l’aspetto della paternità e dell’autenticità, le affermazioni originate dal deepfake sollevano interrogativi ben più intricati. Sebbene questo sistema operi attingendo ai dati forniti da chi non è più in vita, è importante notare come le risposte siano ancora frutto degli algoritmi utilizzati. In sostanza, ciò significa che ciò che viene enunciato dal deepfake non corrisponde mai veramente alle parole del defunto stesso; piuttosto si tratta di un’interpretazione probabilistica. Tale realtà può generare sensazioni di falsità e insoddisfazione profonde nel soggetto umano coinvolto, erodendo così sia il processo individuale di elaborazione del lutto sia la fiducia nei confronti delle stesse tecnologie.
Un’ombra digitale sul confine del lutto
Nel labirinto delle emozioni umane, il lutto rappresenta uno dei sentieri più ardui e solitari. Come un’esperienza primordiale, la perdita di una persona cara scava un vuoto che la nostra psiche tenta, con ogni mezzo, di colmare e dare un senso. Ecco che in questo scenario, l’avanguardia tecnologica si presenta con la sua spada a doppio taglio, i Deepfake, promesse di una “presenza” perpetua per chi ci ha lasciati. Ma qual è il vero impatto di queste ombre digitali sul confine del lutto?
Un concetto base in psicologia comportamentale ci insegna che il lutto segue un percorso non lineare, fatto di fasi che includono negazione, rabbia, contrattazione, depressione e, infine, accettazione. Queste fasi non sono rigide e possono essere vissute in un ordine diverso o anche contemporaneamente. L’obiettivo, dal punto di vista della salute mentale, non è “dimenticare”, ma integrare la perdita nella propria vita, trovando un nuovo equilibrio e significato. L’interazione con un deepfake, se da un lato offre un sollievo immediato, dall’altro rischia di cristallizzare la fase della negazione o della contrattazione, impedendo di raggiungere quell’accettazione fondamentale. Nell’attuale contesto culturale potremmo trovarci ad affrontare quello che sembra essere un paradosso contemporaneo: la tendenza a impiegare tecnologie moderne nel tentativo di procurarci conforto può rivelarsi invece dannosa per il nostro effettivo percorso verso la guarigione.
A partire dalle teorie più avanzate nel campo della psicologia cognitiva è fondamentale esplorare il fenomeno definito come memoria ricostruttiva. Il momento in cui riportiamo alla mente i nostri ricordi non avviene come se stessimo semplicemente estraendo dati fissi da un archivio; al contrario, rielaboriamo costantemente e alteriamo questi stessi vissuti, anche se lievemente. Tale dinamismo si dimostra essenziale poiché ci consente d’integrare le esperienze passate nella nostra attualità, facilitando così l’evoluzione personale. Tuttavia, con l’avvento dei deepfake – dispositivi capaci d’offrire risposte visivamente appaganti e apparentemente vere – potrebbe crearsi uno stallo nella fluidità naturale del recupero mnemonico; questo avrebbe effetti devastanti, trasformando i nostri preziosi recuerdos in rappresentazioni statiche e forse fuorvianti. Di fatto, invece d’accogliere la crescita del significato associato ai memorabili legami affettivi – che transita dal dolore vivo all’intenso calore del ricordo dolce – corre il rischio ben più concreto d’attecchire su imitazioni digitali che non riusciranno mai ad abbracciare le sfumature intrinseche né delle interrelazioni umane né tanto meno delle imperfezioni tipiche dell’esperienza vissuta.
Proviamo a fermarci un istante e riflettere: nel tentativo di tenere vicino ciò che abbiamo perduto, non rischiamo forse di perdere di vista il valore intrinseco e irripetibile della vita reale e delle relazioni che ancora ci circondano? La vera sfida non è perpetuare digitalmente una presenza, ma imparare a vivere con la sua assenza, onorando il ricordo di chi non c’è più attraverso i significati che ha lasciato in noi e le nuove connessioni che siamo capaci di tessere. È nel coraggio di affrontare il vuoto, di sentire il dolore e di permettere alla memoria di trasformarsi, che risiede la nostra vera forza e la possibilità di proseguire il nostro cammino, arricchiti, non intrappolati, dal passato.









