- Mikaela Wild, 28 anni, ha usato ChatGPT dopo una rottura.
- Il 41% dei giovani adulti si rivolge all'IA per consigli.
- L'IA offre un "ascolto" non giudicante e anonimo.
- Nicole Matteson, assistente vendite di 33 anni, ha usato ChatGPT per approfondire le proprie dinamiche amorose.
L’algoritmo confidente: un nuovo paradigma per le relazioni affettive
Il panorama delle relazioni umane sta subendo una trasformazione silenziosa ma profonda, guidata dall’ascesa delle piattaforme digitali e, più recentemente, dall’intelligenza artificiale (IA). Sempre più persone, in particolare i giovani, si rivolgono a strumenti online e chatbot come ChatGPT per ottenere consigli sentimentali e processare le proprie esperienze emotive. Questa tendenza, se da un lato offre un accesso immediato a un “ascolto” non giudicante, dall’altro solleva interrogativi cruciali sulla natura stessa dell’intimità, della fiducia e della salute mentale.
Un caso emblematico è quello di Mikaela Wild, una strategist di social media di 28 anni, che dopo una dolorosa rottura, ha cercato conforto non in amici o terapeuti, ma in ChatGPT, digitando un riassunto della sua relazione triennale e chiedendo: “Perché le cose non hanno funzionato?”. Questo episodio non è isolato; evidenzia come l’IA stia diventando un interlocutore privilegiato per elaborare traumi affettivi e decifrare le complessità delle dinamiche relazionali. L’attrattività dei suddetti strumenti si deve principalmente alla loro facilità d’uso e all’anonimato che garantiscono; caratteristiche particolarmente appealing per individui riluttanti ad affrontare tematiche sensibili in presenza altrui. Tuttavia, la crescente propensione a ricorrere a conversazioni facilitate dall’intelligenza artificiale nella sfera delle relazioni affettive desta timori riguardo alla possibilità stessa di edificare legami genuini e alla crescita emotiva personale. Pur riuscendo a fornire punti di vista razionali e articolati—come dimostrato dal caso esemplificativo dell’assistente vendite Nicole Matteson (33 anni), la quale ha impiegato ChatGPT per approfondire le proprie dinamiche amorose—l’insufficienza d’interazione umana reale può ostacolare il progresso verso competenze comunicative fondamentali nonché quella ricchezza emozionale disponibile esclusivamente attraverso i rapporti interpersonali. L’abitudine a cercare orientamenti su internet—particolarmente tramite AI—può tradursi nell’emergere di un contesto surrogato dove problematiche relazionali vengono trattate astrattamente; viene così omesso il fondamentale processo complesso e imprescindibile dell’interazione genuina che consente vera negoziazione e comprensione reciproca tra esseri umani. Gli esperti evidenziano come l’uso di questi strumenti possa privare gli individui della loro “voce autentica”, spingendoli a costruire risposte “perfette” che, paradossalmente, aumentano la distanza emotiva anziché ridurla.
L’illusione dell’obiettività: rischi e dipendenze nascoste
L’illusione di imparzialità rappresenta uno degli stimoli principali che inducono numerosi individui a cercare supporto nell’intelligenza artificiale per questioni personali. A differenza delle figure affettive come amici e familiari, i quali possono fornire consigli influenzati da pregiudizi o esperienze soggettive, l’IA è considerata un’entità neutra e razionale. Sebbene questa visione possa risultare rassicurante, cela un ventaglio di potenziali rischi, sia sul piano psicologico sia in ambito relazionale.
Una ricerca del 2024 effettuata da Wingmate ha messo in luce che il 41% della popolazione giovane adulta si è rivolta a…