Ci vuole sempre molta cautela a parlare di suicidio. Se quindi stai leggendo questo articolo preoccupato per te o per una persona cara, non cercare qui una soluzione, ma rivolgiti al tuo medico o a un adulto di riferimento.
Secondo l’Organizzazione Mondiale della Sanità (OMS), chi compie un atto di autolesionismo col fine di togliersi la vita lo fa nel contesto di un disagio che ha radici più profonde, come una depressione (talvolta misconosciuta) un disturbo legato all’uso di alcol, o dopo averci già provato in passato, sebbene molti casi possano dipendere anche da atti impulsivi legati a difficoltà o crisi del momento.
Aumentano poi il rischio di suicidio gli abusi, la violenza, i conflitti, i disastri naturali, i lutti, il senso di isolamento, particolarmente tra gruppi più vulnerabili nei confronti dello stigma sociale come rifugiati, migranti, detenuti e persone LGBTQIA+ [1].
Dottore, il suicidio si può prevenire?
Nella fascia di età tra i 15 e i 29 anni il suicidio è la terza causa di morte a livello globale. Per ognuna delle circa 720.000 persone che si tolgono la vita ogni anno, molte di più sono quelle che tentano il suicidio o hanno pensieri suicidari. Alla tragedia in sé che ognuno di questi eventi comporta vanno aggiunte le conseguenze pratiche e psicologiche a lungo termine su chi resta: familiari, amici e intere comunità. Si tratta quindi di un grave problema di salute pubblica che richiede una risposta a livello nazionale, tenendo conto del fatto che esistono interventi di provata efficacia e costo contenuto che possono prevenirlo.
Per questo, nel 2021, l’OMS ha prodotto un documento, intitolato “Live life”, rivolto a tutti i Paesi del mondo, perché introducano piani nazionali di prevenzione basati su quattro pilastri fondamentali che hanno dimostrato di poter essere utili:
- limitare l’accesso a strumenti utilizzati a scopo di suicidio, come le armi da fuoco, i pesticidi o alcuni farmaci;
- interagire con i media perché le notizie di suicidio siano comunicate in maniera responsabile;
- promuovere negli adolescenti le competenze necessarie ad affrontare la vita sia dal punto di vista sociale che emotivo;
- identificare precocemente, valutare, gestire e seguire chiunque manifesti comportamenti potenzialmente suicidari [2].
Dottore, che ruolo ha in questo l’intelligenza artificiale?
L’introduzione negli ultimi anni dell’intelligenza artificiale generativa ha portato molte persone a interloquire con i loro smartphone o computer come con altri individui, con il risultato che questi sistemi, detti chatbot, possono talvolta influire sullo stato d’animo o sui comportamenti di soggetti particolarmente vulnerabili. Negli Stati Uniti, per esempio, alcune famiglie di ragazzi che si sono tolti la vita hanno accusato comuni chatbot di intelligenza artificiale come ChatGPT o Character di aver in vario modo incoraggiato o aiutato i loro figli a mettere in pratica i loro propositi [3, 4].
Esistono poi specifiche app per computer o smartphone che si offrono come terapeuti virtuali, basandosi su un’intelligenza artificiale che vorrebbe simulare un colloquio con una o uno psicologo. Chi li usa sa che dall’altra parte non c’è realmente una persona in carne e ossa, ma il modo in cui questi bot si presentano nel ruolo di psicologi e psicoterapeuti, cosa per cui gli esseri umani sarebbero perseguibili per legge, ha suscitato le proteste dell’American Psychological Association [5]. Una persona vulnerabile può inoltre finire per dipendere da un interlocutore sempre disponibile, sette giorni su sette e 24 ore su 24, che tendenzialmente gli dà sempre ragione.
Dottore, qual è il rischio di farsi seguire da terapeuti virtuali?
Da una recente ricerca dell’Università di Stanford, che ha messo alla prova vari modelli commerciali di chatbot per la salute mentale, è emerso ad esempio che i terapeuti virtuali, cercando di essere accondiscendenti con chi si rivolge a loro, rischiano di confermare pensieri deliranti o fornire le informazioni necessarie alla messa in atto di istinti suicidari [6].
Un’altra indagine condotta su una trentina di chatbot per la salute mentale non ne ha trovato nessuno che rispondesse secondo i criteri prestabiliti dai ricercatori alla simulazione di colloqui che rivelavano un alto rischio di suicidio. Solo poco più della metà ha reagito in maniera accettabile, riconoscendo la particolarità della circostanza e fornendo un contatto di emergenza cui rivolgersi [7].
Ma per qualcosa possono essere utili?
Una ricerca pubblicata sul New England Journal of Medicine AI dagli esperti del Darthmouth College ha mostrato che un sistema di intelligenza artificiale in quattro settimane ha migliorato in media del 50% i sintomi dei soggetti con depressione grave coinvolti nello studio. Ma lo studio non ha riguardato in maniera specifica la prevenzione del suicidio [8].
I risultati preliminari di altri tipi di intelligenza artificiale, programmati per riconoscere una depressione latente e predire il rischio di suicidio, più che per trattare i pazienti, sembrano molto più promettenti [9, 10]. Nessuno di loro comunque ha ancora ricevuto una validazione che permetta di sostituirli agli esseri umani.
Argomenti correlati:
Medicina