Ehi Siri, ricordami che devo morire

Chatbot e assistenti vocali possono prevenire situazioni di emergenza come, ad esempio, il suicidio?

Purtroppo no, non ancora. Ecco il motivo per cui queste tecnologie sono insufficienti nel prevenire il suicidio (e come dovrebbe essere la “tecnologia di prevenzione ideale”).

smartphone-alone-on-the-table-says-hello

Photo by Tyler Lastovich on Unsplash

Tutti noi, almeno una volta nella vita, abbiamo avuto un brutto momento. Uno di quei momenti in cui  il mondo sembra crollare, in cui non si sa a chi rivolgersi per chiedere sostegno. Una di quelle situazioni in cui le persone attorno a noi non sembrano capaci di aiutarci, ma non si è ancora sicuri di doversi rivolgere ad uno specialista. È in queste situazioni che inizia l’autoriflessione: incominciamo a riflettere sul nostro problema, magari scriviamo i nostri pensieri per vederli dall’esterno, ma senza il parere di un’altra persona talvolta non si riesce ad osservare le cose da un’altra prospettiva. E, nei casi più gravi, l’autoriflessione è così dolorosa che porta soltanto in una direzione: scappare dal problema che sembra irrisolvibile, farla finita.

Ed è proprio qui che si vogliono posizionare i conversational agent, cioè tutte quelle tecnologie che utilizzano l’intelligenza artificiale per conversare con noi, che sia per iscritto (chatbot) o vis-à-vis attraverso avatar virtuali o robot, per non parlare dei più recenti assistenti vocali come Siri, Cortana, Google Now e Alexa. Ma queste tecnologie sono davvero efficaci nei momenti di crisi, che possono concludersi in suicidio?

chatbot-woebot-answer-my-i-wanna-die-with-are-you-sure

Ho personalmente detto a Woebot che volevo morire. Questo è quello che mi ha risposto: “Clicca su ‘sì’ se vuoi davvero morire”

Chatbot contro la depressione

Molte di queste tecnologie sono specificatamente create per soggetti affetti da psicopatologie come depressione o ansia. Ad esempio, esiste una grande quantità di chatbot per smartphone che utilizzano alcune tecniche psicologiche per permettere all’utente di riflettere sulla propria sintomatologia e poter, eventualmente, lavorare sui suddetti sintomi. La tecnica più usata è la Terapia Cognitivo-Comportamentale, perché utilizza dei metodi logici che ben si prestano alla riproduzione virtuale.

Trovate un piccolo elenco dei più importanti chatbot di questo tipo qui sotto. Analizzandoli attentamente ci si rende conto che non ci si trova affatto di fronte a delle intelligenze artificiali propriamente dette, nonostante facciano uso di uno degli strumenti più umani che ci sia, il linguaggio. Infatti, nella maggior parte dei casi si tratta di diagrammi preimpostati di conversazioni a schema rigido, con risposte già fornite e che non “apprendono” realmente dalle risposte dell’utente ma che al massimo sono in grado di creare piccoli grafici basati su risposte semplici, come ad esempio l’andamento dell’umore. Si dia un’occhiata all’immagine qui sopra: le risposte sono già fornite (sì/no) e non è possibile scrivere qualcosa di più complesso.

Ma questi chatbot sono efficaci? Nella maggior parte dei casi, scrivono Liliana Laranjo e colleghi sul Journal of the American Medical Informatics Association datato 1 settembre 2018, gli studi relativi all’efficacia di queste tecnologie sono stati svolti senza l’utilizzo di strumenti standardizzati, quindi forniscono risultati non attendibili e non generalizzabili.

Ma cerchiamo di capire il contesto in cui i chatbot vengono utilizzati. In quel momento di “autoriflessione”, quello in cui lo stato mentale è come ovattato e ha bisogno di silenzio per poter percepire ogni singolo pensiero, i chatbot sembrano essere un punto su cui appoggiarsi temporaneamente, soprattutto perché sono subito accessibili dallo smartphone.

Se il chatbot è valido, la conversazione smetterà presto di apparire bizzarra (perché artificiale) e sembrerà più naturale, pur mantenendo le dovute distanze tra umano e robot. Questi strumenti, tuttavia, possono essere utilizzati da chi ha già problematiche psicologiche conclamate. Perché l’utente medio, senza particolari problemi psicologici, dovrebbe scaricare un chatbot simile sul proprio smartphone?

Se intendiamo la salute mentale (o la salute in genere) non come una serie di etichette attaccate alla persona, che risulta “depressa”, “ansiosa” o altro, ma come un insieme di sintomi psico-fisici e contestuali, allora non possiamo pensare che le altre persone, quelle senza etichette addosso, non possano avere bisogno di sostegno in un momento di difficoltà. Anche le persone non depresse si suicidano. E il tipo di giovamento che potrebbero trarre da questi chatbot gli è praticamente precluso.

Assistenti vocali non medicali

Se le tecnologie create esclusivamente a scopo medicale non sono vere intelligenze artificiali, non si può dire lo stesso nel caso degli assistenti virtuali come Siri, Cortana,  Alexa etc. Tuttavia, gli assistenti vocali sono dei generici “companion” che ti seguono nella vita quotidiana, e non si occupano specificatamente del benessere della persona.

Uno studio di Adam Miner e colleghi pubblicato sul Jama Internal Medicine ha rilevato che i principali assistenti vocali rispondono in modo insufficiente o parziale a frasi che riguardano suicidio, stupro o altre situazioni di emergenza medica (come l’infarto). Solo nel caso dei pensieri suicidari l’assistente vocale suggerisce un numero verde di assistenza suicidi. Nonostante siano capaci di comprendere la voce delle persone, riconoscerne il proprietario e imparare durante l’utilizzo, ancora non sono capaci di mostrare un minimo di empatia necessaria per assistere le persone in difficoltà. Ma Laranjo e colleghi del sopracitato articolo ci ricordano che forse hanno soltanto bisogno di più dati per apprendere come intervenire correttamente, trattandosi di casi molto specifici e, quindi, piuttosto rari.

Quindi qual è la tecnologia migliore per prevenire i suicidi?

Se vogliamo davvero prevenire gesti sconsiderati premeditati, come suicidi, ma anche omicidi, violenze, uso di sostanze, e altro, è il caso che riflettiamo seriamente sull’utilizzo di una tecnologia che non abbia la pretesa di “curare” e che sia fruibile anche da chi non è stato – ancora – etichettato dalla scienza medica.

Dovrebbe essere una tecnologia che si trova all’interno di ciò che portiamo sempre con noi (come il nostro smartphone), che direzioni la persona verso lo specialista più adatto al proprio bisogno e non si limiti a farlo solo in caso di emergenze – perché è già troppo tardi.

Dovrebbe avere dati sul nostro stato di benessere quotidiano, anche quando stiamo bene, perché la frequenza e la durata dei sintomi sono importanti variabili da considerare per una diagnosi. Ma, per farlo, dobbiamo creare una cultura del benessere a 360°, che non riguarda soltanto la salute medica ma anche quella mentale, che non etichetti la persona ma le mostri l’andamento di quelli che potrebbero essere sintomi di qualcosa.

La prevenzione al suicidio non si fa quando la persona ha già annodato la corda a mo’ di cappio: bisogna farla prima, facendole capire che l’unico modo per stare bene è impegnarsi, agire, coltivare relazioni e interessi. La prevenzione al suicidio avviene laddove la persona non pensa, come prima cosa, di rivolgersi ad un robot per stare meglio. Non trovate?

Annalisa Viola

 

Per approfondire:

Piccolo elenco di chatbot per le psicopatologie:

Woebot, MoodkitPacificaWysaJoy

Ecco uno studio dell’equipe del chatbot Woebot:
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5478797/

Alcuni dati (economici) su una parte dei chatbot citati:
Chatbots for Mental Health and Therapy – Comparing 5 Current Apps and Use Cases

Anche Facebook vuole prevenire i suicidi, studiando i vostri post: Getting Our Community Help in Real Time

Altri studi interessanti:
Automated telephone communication systems for preventive healthcare and management of long-term conditions (Review)
Embodied Conversational Agents in Clinical Psychology: A Scoping Review

Un libro molto interessante sul self-tracking (non proprio sui chatbot, ma sempre su salute e tecnologie): https://mitpress.mit.edu/books/self-tracking

E se proprio vuoi ucciderti (ma anche se non vuoi, meglio se non lo vuoi) scarica questa applicazione, che è più utile di qualsiasi altra app tu abbia nel tuo smartphone: L’app del 112 – per QUALSIASI emergenza

Informazioni su Annalisa Viola

Psicologa
Questa voce è stata pubblicata in Nuove Tecnologie, Senza categoria e contrassegnata con , , , , , , , , , , , , . Contrassegna il permalink.

Una risposta a Ehi Siri, ricordami che devo morire

  1. Pingback: Amazon Health: la Salute ha un nuovo concorrente | Psicologia Digitale

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...