Intimità artificiale: è possibile socializzare con l’intelligenza artificiale?
Chatbot e assistenti virtuali permettono di simulare relazioni e rapporti, ma quali sono i rischi dell'intimità artificiale?
Chatbot e assistenti virtuali permettono di simulare relazioni e rapporti, ma quali sono i rischi dell'intimità artificiale?
Sempre più spesso si parla di “intimità artificiale”, ma cosa significa? Quali sono i rischi?
Con il termine “intimità artificiali” si indicano le connessioni tra esseri umani e le entità di intelligenza artificiale. Storicamente, tra umani e macchine si sono sviluppate relazioni di tipo utilitaristico, focalizzata quasi esclusivamente su efficienza e produttività.
L’intelligenza artificiale, che è in grado di simulare interazioni simili a quelle umane hanno cambiato questa dinamica, con sistemi che vanno dagli assistenti vocali ai robot emotivamente reattivi.
Prodotti come Replika, Hey PI e Claude di Anthropic simulano i legami parasociali utilizzando l’elaborazione avanzata del linguaggio naturale. Questo ha aperto la strada a connessioni emotive più profonde, che offrono l’illusione di relazioni, amicizia e talvolta anche rapporti sentimentali senza le esigenze che caratterizzano le interazioni umane umane.
A essere sempre più numerose non sono solo le interazioni umani-intelligenza artificiale, ma anche le cosiddette “relazioni virtuali”, ovvero i rapporti tra persone che si sviluppano nel mondo digitale, alimentate da piattaforme online e social media, che offrono agli individui la possibilità di connettersi e interagire con persone di tutto il mondo, creando legami e intrecciando rapporti che possono – ma non è una conclusione necessaria – evolvere nel mondo analogico.
Le relazioni virtuali possono includere amicizie online, relazioni amorose, collaborazioni professionali e molto altro ancora e si sviluppano senza che le persone che le intraprendono si siano incontrate faccia-a-faccia.
Generalmente, online siamo portati a rivelare più rapidamente informazioni e aspetti intimi, per questo le relazioni virtuali generalmente diventano più intense in tempi più brevi e sembrano più intime e significative. Questo sarebbe legato anche al fatto che è più facile manipolare ciò che si rivela, avendo più tempo per elaborare le risposte e presentarsi in una luce più positiva, quella che viene definita “autopresentazione selettiva”.
Chatbot, assistenti virtuali e in generale le varie entità artificiali possono creare l’illusione della socializzazione grazie a interazioni in cui molte persone trovano conforto e compagnia. Non possiamo però dimenticare che l’IA manca dell’empatia e della comprensione emotiva tipica delle interazioni umane, e quindi le relazioni con l’IA possono non essere in grado di sostituire pienamente quelle umane.
Nel 2018, la psicologa Sherry Turkle aveva scritto sul New York Times:
Non ci sarà mai un’era di intimità artificiale. […] I robot potranno essere meglio di niente, ma non saranno comunque sufficienti”. Le macchine possono acquisire la capacità di provare empatia, ma senza l’esperienza delle relazioni umane possono solo emulare, e mai replicare, quel je ne sais quoi che costruisce le relazioni umane.
La sua affermazione sembra vera solo in parte: se è vero che l’intelligenza artificiale non può (ancora) imitare le connessioni umane e autentiche, l’era dell’intimità artificiale è qui.
Perdita di connessione emotiva e autenticità nelle relazioni umane sono tra i principali rischi che vengono segnalati quando parliamo di intimità artificiale. Le interazioni online possono spesso essere superficiali e prive di profondità emotiva, portando a una diminuzione del senso di appartenenza e soddisfazione. L’eccessiva dipendenza dalle relazioni con entità virtuali, inoltre, può portare all’isolamento sociale e alla riduzione delle interazioni faccia a faccia e con altre persone, con conseguenze negative sulla salute mentale e sul benessere emotivo degli individui.
Ci sono anche altri aspetti da considerare: quando Replika ha bloccato la funzionalità che permetteva i giochi di ruolo erotici ai profili a pagamento (che è stata poi ripristinata) gli utenti sono insorti perché si consideravano ”sposati” con i chatbot. Secondo gli utenti di un subreddit questo cambiamento è stato paragonabile al dolore provato per la morte di un amico. Il moderatore del subreddit ha notato che gli utenti provavano “rabbia, dolore, ansia, disperazione, depressione e tristezza”.
Ma non c’è solo questo: le app di AI generativa di partner virtuali come Replika, Character.AI e Soulmate – che permettono di creare la persona “perfetta” da ogni punto di vista – dall’aspetto alla personalità, fino al desiderio sessuale – secondo gli esperti potrebbero rappresentare una minaccia per le donne. Non solo alimentando stereotipi e pregiudizi, ma riproducendo e amplificando le relazioni abusanti, dando spazio (e spesso intensificando) a atteggiamenti e comportamenti violenti e violazioni del consenso. Abusi che possono spesso trasferirsi dal mondo virtuale a quello reale.
Il punto fondamentale è ricordare sempre che per quanto le interazioni con entità artificiali possano essere soddisfacenti e coinvolgenti, imitando quasi perfettamente i modi di comunicare che abbiamo nella realtà, non sono reali. Questo significa che dietro allo schermo non c’è una persona con cui entriamo in connessione ma un algoritmo specificamente disegnato per apprendere rapidissimamente linguaggi, stili, abitudini e sfruttare tutto quello che impara per migliorare sé stesso.
Non possiamo ignorare che per molte persone trovare connessioni digitali rappresenta un antidoto alla solitudine e alle difficoltà relazionali, ma questo non deve portarci a sottovalutarne limiti e rischi. Che, come abbiamo visto, possono essere ben più ampi e diventare anche un veicolo di negazione dei diritti delle donne.
Curiosa, polemica, femminista. Leggo sempre, scrivo tanto, parlo troppo. Amo la storia, il potere delle parole, i Gender Studies, gli aerei e la pizza.
Cosa ne pensi?