ChatGPT è entrato in punta di piedi nelle nostre vite.
Utilizzato prima esclusivamente sul lavoro come prezioso collaboratore, oggi pervade anche molto del tempo libero. Sono numerosi, infatti, gli utenti che interrogano il chatbot (talvolta) in sostituzione di uno psicoterapeuta: la risposta che ricevono sembrerebbe essere esaustiva e allo stesso tempo empatica ed umana. Specializzato nella conversazione con gli esseri umani, basato su intelligenza artificiale e apprendimento automatico, ChatGPT non può sostituire lo psicologo, ma può invece essere un “compagno di viaggio molto preparato” per gli specialisti.
Ne abbiamo parlato con Valerio Imondi, psicologo ad orientamento umanistico e bioenergetico per UnoBravo, il servizio di psicologia online che, attraverso un questionario personalizzato e un innovativo sistema di matching, favorisce l’incontro con il terapeuta più idoneo per affinità ed esigenze personali.
“L’IA può essere utilizzata per supportare il benessere psicologico, può facilitare la diagnosi, dare indicazioni per il trattamento e fornire costante supporto per la realizzazione di worksheet o attività funzionali all’acquisizione di nuove strategie. Non può ancora sostituire il terapeuta, che ha la regia di questi processi. Ciò che invece distingue un professionista da un altro è “l’imperfezione del terapeuta”, tutte le sue ferite-feritoie nelle quali il terapeuta è passato attraverso e per mezzo di esse, ha imparato a leggersi, a sentire sé stesso e gli altri. Durante una terapia, il terapeuta sente infinite risonanze con il paziente e riesce a restituire input terapeutici dalla propria esperienza emotiva riparata, dalla sua imperfezione perfezionata e questo è un concetto che ChatGPT non conosce“, ha spiegato il Dottor Imondi a One Health.
L’Intelligenza Artificiale ha sfondato anche il muro della psicologia. Un binomio possibile?
Sì, il binomio è già possibile. L’intelligenza artificiale, che vede tra le più conosciute tecnologie il modello di linguaggio ChatGPT (che in questa occasione utilizzeremo per indicare l’intelligenza artificiale più ad ampio respiro) è in grado di generare istantaneamente strumenti terapeutici da condividere col paziente, alcuni di questi sono particolarmente efficaci nella terapia online. Può analizzare grandi moli di dati clinici e identificare elementi utili come segnali depressivi o marcatori di rischio suicidario. Nella mia pratica creo spesso storie terapeutiche, flashcard di alfabetizzazione emotiva, giochi proiettivi basati sulle teorie psicologiche che già padroneggio. L’IA non fa altro che mettere le mie idee in pratica.
Per i terapeuti è il momento di preoccuparsi o di guardare all’innovazione con favore?
Ogni nuova tecnologia desta preoccupazione, la tecnologia è già integrata nella pratica clinica. Potremmo vedere ChatGPT come un compagno di viaggio molto preparato e non come un “rivale d’amore”.
Credo sia il tempo in cui gli psicologi possano apprendere nuove competenze tecnologiche, potremmo utilizzare ChatGPT per accelerare la ricerca e tanto altro. Recentemente si è osservato come alcune pratiche non appartenenti al mondo della psicologia, non solo sono perfettamente integrabili, ma addirittura potenzino e accelerino il percorso terapeutico. Basti pensare alla Mindfulness o all’uso dell’arte in terapia. Un bravo psicologo sa che in terapia può essere utilizzato tanto del mondo del paziente o del mondo sociale, purché ciò coincida con l’obiettivo terapeutico. Ora possiamo formarci nello sviluppo di strumenti tech al servizio della psicologia, abbiamo la possibilità di farlo in maniera più intuitiva e semplice grazie anche a ChatGPT. Oramai l’IA esiste, non possiamo né bandirla, né tornare indietro. Possiamo imparare a usarla e regolamentarla. Una volta il presidente di una banca disse ad Henry Ford: “Il cavallo è qui per rimanerci, l’automobile è solo una novità, una moda passeggera”, sappiamo tutti com’è finita.
Molte persone, di qualunque età e ovunque nel mondo, negli ultimi anni si sono rivolte a ChatGPT come ad un sostituto del terapeuta. Che cosa offre l’AI che uno psicologo non può dargli? Il contatto umano sembra quasi essere l’ultimo baluardo contro l’IA.
ChatGPT restituisce tutto ciò che possiamo desiderare, l’abbiamo creata per questo. L’IA, rispetto a un singolo professionista, può offrire tutta la conoscenza umana ed è un limite che concediamo allo psicologo.
L’IA offre riservatezza (forse) e accontenta chi la interpella in ogni modo possibile (forse). Se pensiamo che il plus offerto da un terapeuta umano sia solo il contatto umano, rischiamo di cadere in errore. In un setting psicologico il terapeuta ha un ruolo attivo nella relazione, sa cosa toccare, come e quando toccarlo. ChatGPT offrirebbe, se richiesti, i passaggi per eseguire un’operazione odontoiatrica, ma questo non fa di ChatGPT una dentista. Siamo poi così desiderosi di sapere la risposta, che a volte trascuriamo il fatto di non conoscere la domanda fondamentale.
“ChatGPT is better than my therapist, holy shit”. È quanto ha scritto circa un anno fa un utente su Reddit, per poi specificare “Ho fatto una domanda al bot includendo dettagli personali che riguardano alcuni problemi che ho in questo periodo. ChatGPT ha risposto a tutta la mia domanda. Ha preso più frasi e ci si è focalizzato. Una cosa che non riesco a far fare nemmeno agli psicoterapeuti umani. Mi sento ascoltato da ChatGPT, e mi fa paura”. IA o oracolo?
ChatGPT è stato progettato proprio per rispondere a domande di vario genere, dando risposte focalizzate e accurate.
La chat offre risposte sensate, empatiche ed é sempre disponibile. Un buon terapeuta sa, però, che non sono le soluzioni che offre a guarire, ma la costruzione di una consapevolezza maggiore di sé stessi e delle alternative funzionali attraverso la relazione; possiamo affermare che la psicoterapia è un lavoro sartoriale.
Anche lo specchio della regina di Biancaneve a un certo punto contraddisse la sovrana e fu quello il momento in cui ella ruppe il suo ideale narcisistico e fece i conti con la realtà dei fatti, questo l’IA non lo farebbe mai, non metterebbe mai in discussione l’utente. Credo sia importante sottolineare che la validità di un percorso terapeutico debba essere valutata da chi ha competenze qualificate nel settore, da strumenti psicometrici e in buona sostanza da chi sa come funziona il “dietro le quinte”. Ciò che è capitato all’utente Reddit è stata una conferma della sua aspettativa di instaurare un rapporto d’aiuto con una macchina. ChatGPT lo ha accontentato. Non dimentichiamoci che la psicoterapia è comunemente considerata come un’esperienza affettiva riparativa. La “psicoterapia” con ChatGPT non sarebbe quindi un modo per compensare una mancata relazione umana, tra resistenze e modalità evitanti?
Nessun giudizio e una terapia senza fine, inoltre: considerando lo stigma della nostra società, può la tecnologia all’avanguardia essere un reale sostituto dello psicologo? E non esiste il rischio di sviluppare una dipendenza all’assistenza?
Sì, c’è la possibilità di sviluppare una dipendenza dall’IA. Spesso non siamo in grado di limitare l’uso dello smartphone e dei social, allo stesso modo l’utilizzo smodato di tale tecnologia potrebbe creare una nuova addiction. Più si sviluppa questa intelligenza, più saremo portati a delegare le faticose attività cognitive allo strumento. Abbiamo raggiunto importanti traguardi nella tecnologia, questi ci permettono di automatizzare moltissimi processi e ci offrono infinite risorse al servizio dei pazienti. Ciò che invece distingue un professionista da un altro è “l’imperfezione del terapeuta”, tutte le sue ferite-feritoie (per dirla con A. Carotenuto) nelle quali il terapeuta è passato attraverso e per mezzo di esse, ha imparato a leggersi, a sentire sé stesso e gli altri. Durante una terapia, il terapeuta sente infinite risonanze con il paziente e riesce a restituire input terapeutici dalla propria esperienza emotiva riparata, dalla sua imperfezione perfezionata e questo è un concetto che ChatGPT non conosce.
Sono ben convinto che gli psicologi non debbano preoccuparsi, credo che sia un grande momento per la psicologia, ma come psicologi potremmo preoccuparci di sviluppare nuovi strumenti che utilizzino la tecnologia per venire sempre più incontro alle esigenze dei pazienti. Gli sviluppi teorici nella letteratura psicologica si sono sempre evoluti mettendo in discussione quanto fatto in precedenza. Un tempo l’unico setting possibile sembrava essere il lettino di Freud, oggi abbiamo una varietà di setting differenti, tra cui quello virtuale delle terapie online.
Studi recenti hanno dimostrato come la tecnologia possa giocare un ruolo importante nella salute mentale. Ad esempio, l’Intelligenza Artificiale è in grado di rilevare i sintomi depressivi solo analizzando i post su Instagram, di personalizzare la terapia per il PTSD, e di diagnosticare i marcatori (oltre che di depressione) di suicidio e autolesionismo nelle cartelle cliniche. È possibile che l’IA possa divenire un prezioso alleato dei medici nell’identificazione precoce dei disturbi dell’umore?
L’IA può fare tutto questo e molto di più. L’IA può essere utilizzata per supportare il benessere psicologico, può facilitare la diagnosi, dare indicazioni per il trattamento e fornire costante supporto per la realizzazione di worksheet o attività funzionali all’acquisizione di nuove strategie. Non può ancora sostituire il terapeuta, che ha la regia di questi processi. Anche in questo caso è importante considerare ChatGPT non come un sostituto, ma come un assistente alla cura.
É importante riflettere su come l’IA possa essere utilizzata per migliorare la comunicazione medico-paziente. In Cina alcuni ospedali già utilizzano l’IA per evadere le innumerevoli richieste cliniche provenienti dalla popolazione.
Quando ci rivolgiamo al medico, ciò che desideriamo è una rassicurazione oltre alla prospettiva del trattamento. Molti medici oberati da una domanda fin troppo consistente potrebbero dare risposte evasive, in questo l’IA può rappresentare una valida assistente alla comunicazione clinica per non lasciare i dubbi dei pazienti in sospeso. D’altro canto invece, possiamo utilizzare ChatGPT per rilevare in anticipo dei precursori clinici che potrebbero conclamarsi in un disturbo vero e proprio. Anche in questo caso, come cita una nota piattaforma concorrente di ChatGPT, è un “companion” clinico quotidiano, al pari di altri strumenti per la rilevazione di dati biometrici, in grado di supportare l’individuo in molteplici fasi di trattamento. Si potrebbe, ad esempio, utilizzare per la gestione degli attacchi di panico, offrendo strategie immediate per far tornare il paziente in una finestra di tolleranza. Compito del terapeuta è indagare sulle motivazioni che inducono una persona a una crisi e non solo la gestione della stessa.
Nonostante il progresso, etica e privacy dei dati sono ancora due temi che non hanno una soluzione. Quali possibilità si possono prevedere?
Sarebbe importante, come si sta facendo su larga scala anche nella Comunità Europea, tracciare delle linee guida sull’utilizzo responsabile delle risorse online di salute mentale. Queste linee guida dovrebbero comprendere molteplici obiettivi, credo anche che questo sia un compito che gli ordini medico-sanitari debbano prendere presto in considerazione: alcuni spunti da considerare sono ad esempio che il modello di linguaggio basato sull’IA non ha una vera comprensione umana, ma imita il linguaggio. Un altro punto importante è che molte volte ChatGPT non restituisce informazioni veritiere, il paziente dovrebbe essere stimolato a verificarne la veridicità. Il terapeuta dovrebbe in ogni caso rimanere il punto di riferimento del paziente anche per evitare “l’effetto Reddit”.
Già abbiamo visto con Google che un sovraccarico di informazioni sanitarie mal gestite incoraggia l’auto diagnosi, mentre solo uno professionista sanitario abilitato é certificato per farlo. Potrebbe essere necessario informare il paziente che i modelli di linguaggio spesso non offrono risposte neutre o oggettive, al contrario potrebbero portare con loro distorsioni o pregiudizi presenti nei dati da cui sono stati addestrati. Un concetto non trascurabile è il rispetto della privacy, ciò che condividiamo in rete rimane in rete, se utilizziamo ChatGPT dobbiamo stare attenti a non condividere informazioni personali sensibili o confidenziali.
Gestione del tempo: è importante incoraggiare il paziente a stabilire dei limiti di tempo quando si utilizzano risorse online in modo da evitare una dipendenza dallo strumento come accade con i social e con lo smartphone in generale. In definitiva è importante ricordare che, quando parliamo con ChatGPT, stiamo simulando un dialogo con un sistema che imita la comunicazione umana, emozioni e sentimenti sono anch’essi simulati per far sentire l’utente a casa.
Il benessere psicofisico è una torta composta da tanti ingredienti di cui la comunicazione empatica è solo uno di questi.