Il termine Intelligenza Artificiale è stato sviluppato da John McCarthy per spiegare la capacità di una macchina di eseguire funzioni considerate intelligenti in termini umani. Ad esempio, il ragionamento, l’apprendimento, il processo decisionale, l’adattamento, il controllo e la percezione.
Russell e Norvig (2009) postulano la definizione di intelligenza artificiale ad oggi più accettata e condivisa: “la progettazione e la costruzione di agenti che ricevono percezioni dall’ambiente e intraprendono azioni che influenzano quell’ambiente”.
Negli ultimi anni il focus degli scienziati si è spostato da un’intelligenza artificiale basata sulla logica, intesa come rappresentazione cristallizzata della conoscenza (KR), all’apprendimento automatico (ML) e agli algoritmi statistici.
Man mano che l’intelligenza artificiale estende la sua portata, sta diventando sempre più importante per psicologi, terapeuti e consulenti comprendere le capacità esistenti e il potenziale di questa tecnologia per migliorare l’assistenza alla salute mentale.
Possibili campi di intervento
Una recente ricerca (Montag et al., 2024) ha provato a individuare quali contributi e in quali ambiti l’intelligenza artificiale potrebbe essere utile per supportare la salute mentale.
Ad esempio fornire assistenza durante l’inserimento in psicoterapia, durante la formazione oppure come primo strumento di intervento. Supportare pazienti e terapeuti fornendo informazioni sul decorso dei disturbi anche attraverso lo studio di biomarcatori digitali. Aiutare nella progettazione di farmaci specifici e trattamenti ad hoc.
Intelligenza artificiale generativa
ChatGPT è lo strumento più rappresentativo di modelli linguistici di grandi dimensioni (LLM). Tali modelli possono produrre risposte testuali fluenti seguendo le istruzioni avviate dall’utente.
Ormai è possibile parlare con ChatGPT in modo che gli esseri umani possano credere in modo convincente di parlare con un loro simile. La presenza di capacità di ragionamento cognitivo complesso in Chat-GPT4 (versione più recente e aggiornata del modello) sono state confermate attraverso una recente ricerca che indagava campi cognitivi come la matematica il senso comune, compiti linguistici complessi e modelli di analisi statistica (Dhingra et al., 2023).
Ad oggi tuttavia, sarebbe difficilmente immaginabile che ChatGPT possa sostituire uno psicoterapeuta, anche se fosse formato su dati appropriati, inclusi manuali che descrivono come eseguire la psicoterapia cognitivo comportamentale (CBT) e far diagnosi.
Possiamo immaginare che nel prossimo futuro l’intelligenza artificiale generativa potrebbe essere vista come un partner da integrare in un percorso di psicoterapia piuttosto che sostituire la figura del terapeuta. Quest’ultimo, in quanto essere umano, continuerà ad avere qualità che per l’AI sarà impossibile imitare.
Oggi esistono già vari chatbot per la salute mentale che possono aiutare ad affrontare lieve ansia, depressione, stress e dipendenza (Woebot Health, Wysa, Youper, Talkspace, Ginger, 7 Cups of Tea).
Questi strumenti possono aiutare a sviluppare benessere emotivo e strategie di coping di fronte a situazioni stressanti. In questo modo, possono fungere da coach, incoraggiando a uscire dalla zona di comfort o a costruire abitudini utili nel tempo.
Gli impieghi come sussidio di auto-aiuto
L’utilizzo di suggerimenti per sollecitare la psicoeducazione e la proposta di strumenti di auto-aiuto basati sulla terapia cognitivo-comportamentale (CBT), forniti dall’intelligenza artificiale, potrebbe essere considerato come un’opzione promettente per i primi stadi di un percorso psicoterapeutico. Oppure come un’alternativa efficace in casi in cui gli individui potrebbero non richiedere interventi terapeutici ad alta intensità.
Ad esempio, nei casi di sintomi lievi di depressione o ansia, potrebbe essere vantaggioso l’utilizzo di brevi interventi forniti dall’intelligenza artificiale che raccomandano azioni specifiche e stabiliscono obiettivi comportamentali.
Tali interventi potrebbero essere monitorati attraverso l’utilizzo di tecnologie avanzate di rilevamento, come il monitoraggio dell’attività fisica (ad esempio tramite GPS), del sonno e dell’esposizione al sole.
Gli impieghi da evitare
E’ importante sottolineare che i chatbot non sono progettati per essere utilizzati in caso di emergenza, interventi di crisi oppure condizioni di salute mentale più gravi e croniche.
In casi in cui si manifestino sintomi di comportamenti a rischio o disturbi patologici strutturati, alcuni chatbot terapeutici possono indirizzare l’utente verso risorse appropriate. Ad esempio i servizi di salute mentale, terapia tradizionale, operatori sanitari governativi o organizzazioni di supporto registrate.
In questo senso potrebbero fungere da filtro e da screening per analizzare i sintomi riportati, valutare la richiesta d’aiuto e comprendere gli obiettivi terapeutici, così da poter indirizzare chi ne fa uso verso un approccio, un tipo preciso di percorso e, perché no, addirittura un terapeuta specifico.
L’utilizzo delle chatbot inoltre potrebbe risultare molto importante in contesti di formazione specialistica. La possibilità di fare pratica ed esperienza dialogando con una simulazione verosimile a condizioni patologiche potrebbe aiutare gli specializzandi a fare pratica prima di confrontarsi con persone in carne ed ossa che richiedono un aiuto psicologico.
Biomarcatori e profilazione digitale
Per quanto le parole siano importanti per esprimerci, ciò che non diciamo potrebbe essere ancora più determinante nel trasmettere emozioni e fornire informazioni.
L’integrazione dell’intelligenza artificiale nella psicoterapia sta vedendo una nuova frontiera con la fenotipizzazione digitale e i biomarcatori digitali. Questi ultimi rappresentano le impronte digitali che offrono un legame diretto con la neurobiologia di un individuo, come evidenziato da recenti studi (Montag et al., 2024).
L’analisi dei dati raccolti tramite dispositivi mobili e l’applicazione di tecniche di apprendimento automatico consentono di trasformare queste impronte digitali in informazioni rilevanti per comprendere lo stato attuale di depressione o altre psicopatologie.
Questo approccio consente ai sistemi di intelligenza artificiale di rilevare i sintomi e affrontare proattivamente comportamenti malsani, come nel caso della gestione del gioco d’azzardo patologico o della riduzione del comportamento sedentario sul lavoro.
Ciò significa che i terapeuti possono avere accesso in tempo reale a informazioni cruciali sullo stato di salute mentale dei loro pazienti, consentendo interventi mirati e tempestivi.
Il riconoscimento delle emozioni
In quest’ottica, anche il riconoscimento delle emozioni, tramite l’osservazione dell’espressione facciale da parte dell’AI, può risultare di grande supporto per i professionisti della salute mentale.
Il facial expression recognition (FER) basato sull’intelligenza artificiale è utilizzato per riconoscere le espressioni emotive dei pazienti, aiutando i medici a individuare segnali di stress o depressione (Sajjad et al., 2023).
Questo approccio non solo supporta i professionisti sanitari nel prendere decisioni informate, ma può anche aiutare i pazienti stessi a comprendere e affrontare meglio i loro problemi psicologici.
L’intelligenza artificiale odierna si può avvalere anche di altri elementi per fornire informazioni sull’emotività del paziente che ha dinanzi. Una recente ricerca (Diemerling et al., 2024) ha dimostrato che i modelli di machine learning (ML) possono identificare con precisione le emozioni da brevi clip audio, raggiungendo un livello di precisione paragonabile a quello umano.
Questo studio ha rivelato che le reti neurali profonde (DNN) e un modello ibrido (C-DNN) sono particolarmente efficaci nel riconoscere emozioni come gioia, rabbia, tristezza, paura, disgusto e neutralità da brevissime clip audio, non influenzate dal linguaggio o dal contenuto.
Questa svolta apre nuove possibilità per lo sviluppo di sistemi in grado di fornire un feedback immediato sugli stati emotivi in varie applicazioni, dalla terapia alla tecnologia della comunicazione.
I risultati indicano la possibilità di sviluppare sistemi capaci di interpretare istantaneamente segnali emotivi, offrendo un feedback intuitivo e immediato in una vasta gamma di contesti.
Tali modelli potrebbero consentire la classificazione continua delle emozioni in scenari in tempo reale, rivoluzionando il modo in cui comprendiamo e interagiamo con le emozioni attraverso il linguaggio non verbale incorporato nella nostra voce.
Creazione di psicofarmaci e ricerca sugli stessi
L’intelligenza artificiale sta aprendo nuove prospettive anche nel campo della psicofarmacologia, consentendo lo sviluppo di farmaci più mirati e personalizzati.
Attualmente, molti pazienti sono trattati con farmaci sviluppati decenni fa, ma l’avvento dell’intelligenza artificiale promette di rivoluzionare questo approccio.
Grazie alla sua capacità di analizzare enormi quantità di dati e di individuare correlazioni complesse, l’intelligenza artificiale può guidare la progettazione di nuovi psicofarmaci che agiscono in modo specifico su percorsi cerebrali precedentemente sconosciuti.
Questo approccio di precisione potrebbe portare a trattamenti più efficaci e con minori effetti collaterali, migliorando così la salute mentale dei pazienti.
La sinergia tra intelligenza artificiale e psicofarmacologia rappresenta una promettente frontiera nella ricerca biomedica, con il potenziale di trasformare radicalmente il trattamento dei disturbi mentali.
Abilità umane inimitabili
Come abbiamo avuto modo di vedere, l’ascesa dell’intelligenza artificiale (IA) suscita interrogativi sulla sua possibile sostituzione delle competenze umane in vari settori professionali, compreso quello della psicologia.
Affinché gli psicologi evitino l’obsolescenza, devono concentrarsi sullo sviluppo delle competenze che li distinguono dall’IA.
Secondo recenti studi (Chuang & Szufang, 2022), ci sono tre serie di competenze essenziali che gli psicologi devono coltivare per rimanere rilevanti in un contesto di continua automazione e crescita dell’IA.
Abilità sociali
Le competenze sociali sono il cuore della professione psicologica. Mentre l’IA può analizzare dati, manca della capacità di promuovere connessioni umane autentiche. Le competenze sociali vitali includono la compassione, la collaborazione e la costruzione di relazioni.
Compassione: implica la capacità di leggere segnali sociali ed emotivi e rispondere con empatia, una qualità essenzialmente umana che manca nell’IA.
Collaborazione: essenziale per lavorare in modo cooperativo e coordinato, promuovendo una comunicazione aperta e l’allineamento verso obiettivi comuni.
Costruzione di relazioni: la capacità di costruire relazioni basate sulla fiducia è fondamentale per creare modalità di rapporto che favoriscono il raggiungimento di obiettivi comuni.
Capacità decisionali creative
L’IA può mancare di competenze cognitive cruciali proprie della mente umana, come la creatività, la curiosità, il pensiero critico, l’intuizione e la risoluzione dei problemi.
Creatività: la capacità di sviluppare soluzioni innovative e fantasiose a problemi complessi.
Curiosità: la spinta continua ad apprendere, crescere ed esplorare nuovi concetti.
Pensiero critico: l’applicazione della logica e del ragionamento per formulare giudizi più ragionati.
Intuizione: l’istinto e i sentimenti viscerali che guidano le nostre scelte in situazioni ad alto rischio.
Risoluzione dei problemi: la capacità di analizzare questioni complesse da diverse prospettive e proporre soluzioni innovative.
Abilità fisiche
Mentre l’IA può superare gli esseri umani in alcune competenze cognitive, le abilità fisiche, la capacità di interagire fisicamente con gli altri e di svolgere attività pratiche restano un’esclusiva umana. Basti pensare a quanto può risultare importante un banale contatto fisico come una stretta di mano o una carezza.
Conclusioni
L’intelligenza artificiale non sembra dunque destinata a competere contro gli esseri umani, ma piuttosto a collaborare con loro.
Affinando le competenze umane uniche, gli psicologi possono guidare la direzione verso un futuro in cui la tecnologia aumenta, anziché sostituire, le capacità umane.
In questo modo, possono mantenere la loro rilevanza e continuare a offrire valore nel campo della psicologia nonostante l’avanzamento dell’IA.
Il coinvolgimento dell’intelligenza artificiale nelle terapie psicologiche solleva una serie di questioni legittime che richiedono un esame critico approfondito. Una delle principali preoccupazioni riguarda la supervisione umana delle terapie basate sull’IA per garantire che i pazienti non subiscano danni.
È essenziale comprendere come il processo psicoterapeutico potrebbe cambiare con l’integrazione naturale degli strumenti di intelligenza artificiale. L’idea di un triangolo composto da paziente, terapeuta e strumenti di intelligenza artificiale potrebbe essere vista come una simbiosi “naturale”, ma ci sono problematiche da considerare.
Le potenziali problematiche
Innanzitutto, la questione della privacy diventa cruciale quando si tratta di utilizzare l’IA nelle terapie psicologiche. Dati sensibili e personali dei pazienti potrebbero essere coinvolti e devono essere protetti adeguatamente per evitare abusi o violazioni della privacy.
Inoltre, la costruzione degli algoritmi utilizzati nell’IA deve essere guidata da codici deontologici universalmente condivisi per garantire che i risultati siano etici e rispettosi dei diritti dei pazienti.
Oltre alla privacy, la cultura che influisce sulla creazione degli algoritmi è una preoccupazione importante. Gli algoritmi sono sviluppati da esseri umani che possono portare con sé pregiudizi, stereotipi o altre influenze culturali. Questo potrebbe influenzare negativamente la qualità delle terapie basate sull’IA e la loro efficacia nel trattare pazienti provenienti da diverse culture o contesti socio-culturali.
La responsabilità della supervisione è un altro punto critico da considerare. Chi sarà responsabile della supervisione delle terapie basate sull’IA? Come saranno garantite la qualità e l’accuratezza delle terapie fornite attraverso l’IA? È necessario sviluppare meccanismi di supervisione efficaci e trasparenti per garantire che le terapie siano sicure ed efficaci.
In questo contesto, l’intervento di istituzioni globali come l’Organizzazione Mondiale della Sanità (OMS) e la World Psychiatric Association è fondamentale.
Queste organizzazioni possono svolgere un ruolo chiave nel plasmare il panorama dell’IA per la salute mentale, stabilendo linee guida etiche e operative basate sull’esperienza mondiale e sulla ricerca scientifica.
Attraverso il coinvolgimento di esperti e la promozione delle migliori pratiche, queste organizzazioni possono contribuire a garantire che l’uso dell’IA nella salute mentale sia responsabile, etico ed efficace per migliorare il benessere dei pazienti in tutto il mondo.
(Questo articolo è stato scritto con l’aiuto di Chat-GPT 3.5)
Bibliografia
- Chuang, Szufang. (2022). Indispensable Skills for Human Employees in the Age of Robots and AI. European Journal of Training and Development. 10.1108/EJTD-06-2022-0062. https://www.psychologytoday.com/us/blog/happybytes/202403/the-10-skills-psychologists-need-to-thrive-in-the-age-of-ai
- Sifatkaur Dhingra, Manmeet Singh, Vaisakh S.B., Neetiraj Malviya, Sukhpal Singh Gill 2023, Mind meets machine: Unravelling GPT-4’s cognitive psychology, BenchCouncil Transactions on Benchmarks, Standards and Evaluations, Volume 3, Issue 3
- Diemerling H, Stresemann L, Braun T and von Oertzen T (2024) Implementing machine learning techniques for continuous emotion prediction from uniformly segmented voice recordings. Front. Psychol. 15:1300996. doi: 10.3389/fpsyg.2024.1300996
- Christian Montag, Raian Ali, Dena Al-Thani, Brian J. Hall, 2024, On artificial intelligence and global mental health, Asian Journal of Psychiatry, Volume 91
- Muhammad Sajjad, Fath U Min Ullah, Mohib Ullah, Georgia Christodoulou, Faouzi Alaya Cheikh, Mohammad Hijji, Khan Muhammad, Joel J.P.C. Rodrigues, 2023, A comprehensive survey on deep facial expression recognition: challenges, applications, and future guidelines, Alexandria Engineering Journal, Volume 68