Competenze relazionali e abilità comunicative nell’era della sanità digitale
Anna Zanatta
[Un ringraziamento ad Antonella Capobianco per il suo contributo]
Indipendentemente dal contesto di interazione tra medico e paziente, è necessario adottare una comunicazione efficace per costruire una relazione di fiducia. A tale scopo, gioca un ruolo cruciale l'integrazione tra il linguaggio verbale e quello non verbale (Fuertes et al. 2007). L'affidabilità del medico è necessaria per instaurare una relazione di fiducia e questa viene rafforzata dalla coerenza tra ciò che viene detto e da come viene detto (Mast 2007)
Il contesto sanitario tradizionale
Un'interazione efficace, che influenza positivamente l'ambiente di cura e lo rende collaborativo ed orientato verso il paziente è rappresentata da un linguaggio verbale connotato dai seguenti elementi:
• Chiarezza comunicativa: L'uso di parole complesse o di un linguaggio medico rischia di non permettere al paziente di comprendere appieno ciò che gli si sta comunicando. L'utilizzo di un linguaggio semplice, chiaro e comprensibile rende più facile per i pazienti comprendere la loro situazione. Inoltre, è necessario che il linguaggio della comunicazione verbale sia personalizzato in base all'età, al background culturale e al livello di istruzione del paziente, assicurandosi che le informazioni siano rilevanti e facilmente comprensibili (Fuertes et al. 2007);
• Empatia: L'utilizzo di frasi che riconoscono e validano le preoccupazioni e le emozioni del paziente, come ad esempio "Capisco che questa situazione possa essere difficile per te" fanno sentire il paziente accolto e compreso (McCabe and Timmins 2013);
• Ascolto attivo: La formulazione di domande aperte, di parafrasi e il riepilogo di quanto detto dal paziente, mostrando interesse autentico, rende la comunicazione aperta e bidirezionale (Fuertes et al. 2007);
• Supporto emotivo: Fornire rassicurazioni verbali può aiutare a calmare i pazienti che presentano uno stato d'ansia. Frasi come "Siamo qui per aiutarti" o "Faremo del nostro meglio per gestire la tua condizione" possono essere molto confortanti e possono favorire un clima di accoglienza.
Allo stesso modo, il linguaggio non verbale partecipa attraverso i seguenti elementi (Mast 2007):
• Contatto visivo, attraverso il quale dimostrare attenzione e interesse, rafforzando il legame con il paziente e trasmettendo empatia e comprensione;
• Espressioni facciali: possono comunicare interesse, preoccupazione o gioia e che possono aiutare i pazienti a sentirsi compresi e supportati emotivamente;
• Tono di voce: una voce calma può aiutare il paziente a ridurre le emozioni negative. La modulazione della voce è importante per trasmettere il giusto messaggio perché può esprimere empatia, accoglienza e rassicurazione;
• Gestualità: l'utilizzo di gesti appropriati come ad esempio l'azione di annuire può incoraggiare il paziente a continuare a parlare, mentre gesti nervosi o distratti potrebbero indurre gli effetti opposti;
• Prossimità: rispettare una distanza fisica appropriata in base alle preferenze del paziente e alla cultura di appartenenza, considerando lo spazio personale del paziente e avvicinarsi quando necessario, come ad esempio un tocco leggero sulla spalla o una stretta di mano, può fornire conforto e mostrare empatia.
La sanità digitale
L'esordio della sanità digitale ha cambiato radicalmente il modo di fornire e ricevere cure in sanità, portando a un cambiamento negli schemi di comunicazione e in base a ciò richiedendo ai professionisti di acquisire nuove competenze relazionali (Weinstein et al. 2014). Queste ultime implicano la capacità di instaurare e mantenere relazioni positive e di fiducia con i pazienti, nonostante l'assenza di un contatto fisico diretto, in quanto si deve necessariamente tenere conto del grado di vulnerabilità e sensibilità presente nel corso di un'interazione in ambito sanitario (McCabe and Timmins 2013).
Da parte loro, i professionisti sanitari devono essere in grado di creare un ambiente virtuale favorevole alla trasparenza, al rispetto e alla comprensione reciproca (Haleem et al. 2021). Questo richiede un elevato livello di empatia e la capacità di ascoltare realmente e di rispondere alle esigenze e alle emozioni del paziente, anche quando si utilizzano strumenti elettronici come videochiamate, e-mail o messaggistica istantanea (McCabe and Timmins 2013).
Inoltre, il tema della fiducia diventa centrale in quanto, anche se il processo è digitale, i pazienti devono fidarsi di consegnare le proprie informazioni personali e la propria salute a un sistema percepito come degno di fiducia e rispettoso (Haleem et al. 2021).
Nell'ambito della sanità digitale, un punto cruciale è l'intelligenza artificiale. L'IA sta acquisendo un ruolo sempre più importante non solo per supportare la diagnosi e il trattamento, ma anche per aiutare le relazioni tra i pazienti e i fornitori di cure. La capacità di relazionarsi e comunicare è uno dei requisiti necessari per un'efficace esecuzione del compito dell'IA, che mira a migliorare la qualità di assistenza e l'esperienza dei pazienti, cercando di garantire interazioni efficaci e umanizzate, e sostenendo i professionisti sanitari (Senbekov et al. 2020).
Tuttavia, l'IA presenta ancora numerosi limiti, uno tra questi riguarda la comunicazione non verbale: infatti, l'IA attualmente non è ancora adeguatamente in grado di dare significato ai segnali non verbali dell'interlocutore e di interpretare accuratamente i messaggi impliciti che si celano sotto la forma verbale esplicita (Kumar and Martin 2023).
Affinché l'interazione risulti efficiente, le abilità relazionali e comunicative dell'Intelligenza Artificiale dovrebbero includere:
1. Chiarezza e semplicità comunicativa
Fornire informazioni critiche o complesse in modo semplice e chiaro deve essere l'obiettivo principale. Quando l'IA fornisce una diagnosi, un piano di trattamento o una raccomandazione medica, dovrebbe essere in grado di comunicarlo in modo comprensibile, senza ricorrere a termini medici complessi o a un linguaggio specifico per gli operatori. L'abilità di comunicare attraverso gli strumenti digitali significa riuscire ad adattarsi a una vasta gamma di piattaforme tecnologiche (Morrow et al. 2023). I professionisti sanitari devono essere in grado di utilizzare un linguaggio chiaro e comprensibile, adattando il messaggio al canale utilizzato e alle specifiche esigenze del paziente (Weinstein et al. 2014). La chiarezza e la precisione sono fondamentali per evitare malintesi, soprattutto quando si trasmettono informazioni critiche sulla salute. L'uso della comunicazione visiva, attraverso grafici, immagini o video, può aiutare a illustrare concetti complessi, rendendo più facile per i pazienti comprendere le proprie condizioni e i trattamenti consigliati (Weinstein et al. 2014).
2. Personalizzazione dell'interazione
Il primo aspetto in cui l'IA fallisce è adattare le risposte e il proprio modo di comunicare alle preferenze personali dell'individuo, alla sua storia medica e a ciò di cui ha bisogno (McCabe and Timmins 2013). L'abilità di parlare e interpretare le parole umane è fondamentale, poiché la funzione dell'IA in questa situazione dovrebbe essere quella di creare una risposta appropriata e coerente alle domande del paziente, evitando risposte complicate o confuse che possono essere facilmente create se l'AI non vede differenze tra i vari contesti. Tale risposta dovrebbe essere appropriata non solo in senso informativo, ma anche nel modo in cui viene presentata, prendendo in considerazione il tono della conversazione e gli elementi emozionali e soggettivi dell'utente (Morrow et al. 2023).
3. Affidabilità
Le informazioni offerte all'utente dovrebbero essere non solo coerenti con le sue richieste ma anche presentare un elevato livello di accuratezza e precisione; si devono basare su fonti di letteratura aggiornata e affidabile affinché si possa instaurare un rapporto di fiducia (Haleem et al. 2021).
4. Ascolto attivo e risposta rapida
Le informazioni devono essere raccolte dall'IA in modo efficace attraverso l'analisi del testo o l'ascolto dell'utente e, in base a queste, dovrebbero essere prodotte delle risposte inerenti, precise e complete nel minor tempo possibile, in modo che il paziente si senta accolto (Morrow et al. 2023).
5. Empatia digitale
Sebbene l'IA non sia in grado di provare emozioni, dovrebbe essere programmata per riconoscere i segnali emotivi dell'utente attraverso l'analisi del linguaggio, in modo tale che possa rispondere in modo sensibile e appropriato, offrendo supporto emotivo e comprensione (Morrow et al. 2023). Anche la compassione è un elemento importante da tenere in considerazione. La compassione è una reazione emotiva connotata di sensibilità per la propria sofferenza e per quella degli altri, con il conseguente sforzo impiegato per alleviarla e prevenirla. In particolare, essa comprende la consapevolezza dell'esistenza del dolore psichico sperimentato, la comprensione del suo significato, la risposta verbale e non verbale di connessione e infine la messa in atto di comportamenti volti ad alleviare tale disagio psicologico. Di conseguenza, l'approccio caratterizzato da una reazione e un'assistenza compassionevole riesce ad alleggerire il peso della sofferenza (Durkin, Jackson, and Usher 2021). In quanto tale, la compassione deve essere parte della pratica professionale di cura, in quanto predice la qualità dell'assistenza (McCabe and Timmins 2013). Nonostante essa abbia notevoli risvolti positivi, la compassione non è ancora stata presa adeguatamente in considerazione in relazione alle tecnologie di Intelligenza Artificiale applicate alla sanità (Morrow et al. 2023).
6. Rispetto della privacy
La fiducia dell'utente viene stabilita anche attraverso l'utilizzo sicuro delle informazioni personali e sanitarie. È essenziale, quindi, che l'IA sia progettata per operare eticamente e responsabilmente, garantendo che tutte le interazioni siano protette dalla privacy, avvengano in un ambiente sicuro, rispettino la confidenzialità dei dati del paziente e le normative vigenti. I sistemi sanitari digitali devono essere centrati sui pazienti e quindi sulla protezione dei loro dati, specialmente quando si tratta di informazioni personali sensibili e del loro utilizzo (Haleem et al. 2021). Il concetto di privacy include elementi quali la sicurezza, la riservatezza, gli usi non intenzionali delle informazioni mediche e il diritto dei pazienti di conoscere il modo in cui vengono utilizzati i loro dati. Attualmente, nonostante manchino regolamenti etici universali per proteggere i dati sanitari, è comunque possibile migliorare la privacy utilizzando tecnologie di de-identificazione che coprono l'intero ciclo di vita della raccolta e della gestione dei dati (Haleem et al. 2021).
7. Collaborazione con professionisti umani
Sebbene l'IA possa essere addestrata per rendere l'interazione più simile possibile a quella umana, è indispensabile che vi sia la supervisione di un professionista. Collaborare con gli operatori sanitari, sapendo quando indirizzare i pazienti agli operatori umani per problemi che richiedono supporto emotivo profondo, decisioni difficili o giudizio clinico, è da considerarsi una priorità. Inoltre, l'IA dovrebbe essere in grado di apprendere e migliorare le proprie capacità comunicative interagendo con gli utenti, per svilupparsi e adattarsi meglio alle esigenze che cambiano nel settore sanitario (Morrow et al. 2023).
Problematiche di automazione e Bias dell'IA
Sebbene i progressi della tecnologia abbiano portato innovazione e migliorie in campo medico, come nel campo delle protesi o nella gestione a distanza del paziente o nello studio dei processi di pensiero, l'implementazione dell'IA nel campo della salute e della cura del paziente presenta parecchie controversie in ambito etico e pratico.
Analizziamo quindi i punti di debolezza dell'Intelligenza artificiale, partendo dalla sua definizione: essa è una sotto-disciplina della scienza dei computer, che si propone di scrivere programmi che simulano l'intelligenza umana ("APA Dictionary of Psychology — Dictionary.apa.org," n.d.). La definizione di intelligenza umana dell'American Psychology Association dichiara che: essa è l'abilità di dedurre informazioni, imparare dall'esperienza, adattarsi all'ambiente, capire e utilizzare correttamente il pensiero e la ragione ("APA Dictionary of Psychology — Dictionary.apa.org," n.d.).
Le parole chiave da evidenziare in queste due definizioni sono: "adattamento", "utilizzo corretto di pensiero e ragione" e "simulazione dell'intelligenza umana". Dal punto di vista dell'intelligenza umana la capacità di adattarsi all'ambiente circostante consta di abilità fondamentali quali:
• Il discernimento nella selezione delle informazioni secondo un grado di pertinenza, rilevanza e importanza, che ha come scopo l'inquadramento anamnestico e diagnostico del paziente.
• La flessibilità, necessaria per personalizzare l'output comportamentale in base al contesto e ad una serie di informazioni che non possono essere estrapolate da una mera stringa di dialogo, come le variabili circostanziali o culturali, l'emotività, la prossemica, il tono della voce del paziente, ecc…
• La variabilità nell'utilizzo dello stile e nel registro comunicativo in base al paziente con cui avviene l'interazione.
Un'Intelligenza Artificiale è addestrata ad elaborare una miriade di dati, sotto forma di stringhe di testo o di associazioni input-output. La tecnica di addestramento attualmente utilizzata viene definita Deep Learning (DL). In un'opera di Assunta di Martino (Weinstein et al. 2014) è spiegato come essa sia basata su reti neurali multistrato, che consentono l'apprendimento di dati non forniti dall'uomo, ma appresi grazie all'utilizzo di algoritmi di calcolo statistico applicati a dati che la macchina desume dalla realtà.
L'apprendimento dei dati viene attuato nella fase di addestramento dell'algoritmo (training), che è considerata positivamente conclusa quando, nella fase denominata test set, cioè quando l'algoritmo si confronta con la realtà da cui i dati sono stati estrapolati, il sistema si mostra in grado di valutare correttamente, con un'altissima percentuale di successi, un'ampia serie di dati fornitagli. L'operatore umano, poi, imposta la ricerca, l'accompagna a dati specifici necessari e valuta la bontà del risultato dell'elaborazione, scegliendo se adottare la soluzione proposta dalla macchina, in un'ottica di ottimizzazione dei modelli decisionali affidata in buona parte, ma non del tutto e non automaticamente, a processi di apprendimento automatico. Allo stato attuale della ricerca e dell’implementazione, le reti neurali che sottendono alle IA sono dotate intrinsecamente di un proprio margine interno di discrezionalità. Tuttavia quest’ultima non è indagabile a priori, né facilmente discernibile a posteriori, poiché le reti neurali assumono autonomamente decisioni che non dipendono meccanicamente dalla precedente attività di programmazione, ma sono essenzialmente il frutto di un processo di apprendimento progressivo attraverso l’interazione con l’ambiente.
Problemi di chiarezza e semplicità comunicativa
L’intelligenza Artificiale, in altre parole, è quella che gli scienziati definiscono “un modello a scatola nera”. Il modello predittivo di tipo black box è in grado di fare deduzioni predittive di tipo Sì/No, ma non è in grado di spiegare perché (Musacchio et al. 2018). Essa non filtra i dati che elabora e non è dato sapere, se non dopo anni di studi dei processi di calcolo della macchina, perché essa abbia dato un certo output piuttosto che un altro, e quindi quali sono i dati utilizzati per prendere una certa decisione piuttosto che un’altra. Il problema di questo modello è, inoltre, il fatto che, finché la macchina fornisce agli scienziati i risultati che occorrono loro, non c’è nessuna ragione per cercare o per studiarne i processi di decisione. Questo non consente una comunicazione chiara ed efficace medico-paziente, in quanto anche il paziente che riceve una diagnosi, non riuscirebbe a sapere quali sono i fattori che hanno portato alla formulazione della stessa da parte dell’IA, fattori che per altro potrebbero essere non pertinenti allo stato di salute presente del paziente (Pizzetti et al. 2023).
Problemi di personalizzazione dell’interazione
Questo tipo di sistema di addestramento, purtroppo, allena l’IA su dati intrinsecamente parziali, che la portano a riprodurre i pregiudizi razziali e di genere che esistono nella nostra società, poiché è da essa che desume i dati analizzati (Pizzetti and others 2023). In uno studio condotto negli USA (Larson et al., n.d.), un sistema chiamato COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), è stato addestrato con l’obiettivo di dare il potere di prendere decisioni ad una AI. Lo studio ha esaminato più di 10.000 imputati criminali nella contea di Broward, in Florida, e confrontato i loro tassi di previsione di recidiva con il tasso effettivamente verificatosi in un periodo di due anni. Quando la maggior parte degli imputati vengono messi in prigione, rispondono a un questionario COMPAS. Le loro risposte vengono inserite nel software COMPAS per generare diversi punteggi, comprese le previsioni di “Rischio di recidiva” e “Rischio di recidiva violenta”. Dall’analisi del COMPAS, gli scienziati hanno scoperto che gli imputati di colore avevano il doppio delle probabilità rispetto agli imputati bianchi di essere erroneamente classificati come a rischio più elevato di recidiva violenta, e i recidivi bianchi venivano classificati erroneamente come a basso rischio il 63,2% più spesso degli imputati di colore.
Problemi di Affidabilità
I bias razziali descritti precedentemente, purtroppo, si possono verificare anche in macchine che sono addestrate a diagnosticare malattie gravi (“Study Reveals Why AI Models That Analyze Medical Images Can Be Biased — News.mit.edu,” n.d.). Nel 2022, i ricercatori del MIT hanno riferito che i modelli di intelligenza artificiale possono fare previsioni accurate sulla razza di un paziente dalle radiografie del torace, qualcosa che i radiologi più esperti non possono fare. Quel gruppo di ricerca ha ora scoperto che i modelli più accurati nel fare previsioni demografiche mostrano anche le maggiori “lacune di equità”, ovvero discrepanze nella loro capacità di diagnosticare con precisione immagini di persone di razze o generi diversi. I risultati suggeriscono che questi modelli potrebbero utilizzare “scorciatoie demografiche” quando effettuano le loro valutazioni diagnostiche, che portano a risultati errati per donne, persone di colore e altri gruppi, dicono i ricercatori. Gli studiosi, inoltre, hanno scoperto che questi modelli non sempre funzionano bene in tutti i gruppi demografici, di solito vanno peggio per le donne e le persone di colore (“Study Reveals Why AI Models That Analyze Medical Images Can Be Biased — News.mit.edu,” n.d.). Ciò testimonia come un’IA non ha la capacità di discernere le informazioni in modo corretto e equo, come potrebbe fare un essere umano, poiché attraverso processi di estrapolazione statistica trova correlazioni significative con dati non pertinenti alla formulazione diagnostica per ottimizzare il percorso diretto allo scopo, che è fondamentalmente ciò per cui l’IA è stata progettata.
Problemi di ascolto attivo e risposta rapida
Durante il COVID, sono nate parecchie applicazioni per la gestione clinica del paziente via remoto. Tuttavia, per chi doveva affrontare o stava affrontando un percorso terapeutico in ambito psicologico, è stato necessario utilizzare piattaforme di comunicazione a distanza in modo che il paziente potesse rimanere in contatto visivo con il terapeuta. La relazione terapeutica con il medico, soprattutto se presenta indici alti di intelligenza emotiva, è un fattore correlato positivamente con migliori outcome terapeutici, miglior compliance nei pazienti, e minor numero di episodi di drop-out (Kaplowitz, Safran, and Muran 2011). Ovviamente, l’intelligenza emotiva è un’abilità che l’IA non possiede. McCarthy e colleghi (Sedlakova 2024) nell’ambito degli studi sulle Learning Machines, hanno provato ad usare un modello di IA già addestrato a simulare conversazioni, le CAI (Intelligenza Artificiale Conversazionale) con l’obiettivo di aiutare il soggetto a risolvere un problema. Questi modelli sono i Chatbot che si trovano a sostituire il personale di assistenza clienti in alcune aziende. Questa descrizione dà già un’idea di una delle principali narrazioni riguardanti questa tecnologia. CAI è stata sviluppata con caratteristiche simili a quelle umane e con l’obiettivo di emulare caratteristiche e abilità umane come intelligenza, ragionamento o empatia e nel contesto della salute mentale e del benessere è spesso descritta come “terapeuta digitale”. Come conseguenza di ciò, gli utenti sono incoraggiati a formare una relazione terapeutica con essa e a comprendere le loro esperienze con CAI in modo simile a un’esperienza con un essere umano. Tuttavia lo studio ha evidenziato come, a causa della natura interattiva dell’utilizzo, gli utenti tendono a fidarsi eccessivamente di questa tecnologia e dei consigli che potrebbe dare loro (Chow, Sanders, and Li 2023). Ciò è problematico prima di tutto perché le risposte di CAI dipendono dalla formulazione del problema o delle domande (Dowling 2023) e non tengono conto delle variabili circostanziali e dello stato di salute in generale del paziente. Inoltre, è accaduto che CAI abbia fornito consigli sulla salute sbagliati e dannosi, così come è accaduto alla National Eating Disorders Association, che ha dovuto mettere offline il suo chatbot, Tessa, perché forniva agli utenti risposte dannose.
Problemi in Empatia e il fenomeno dell’Uncanny Valley
Se la sostituzione della figura professionale, soprattutto psicologo, con un Chatbot presenta aspetti problematici riguardo l’eccessivo affidamento da parte degli utenti, c’è un altro fenomeno che risulterebbe dannoso per il paziente stesso e controproducente per l’alleanza terapeutica eventualmente raggiunta dal Chatbot: viene chiamato Uncanny Valley. Esso è il fenomeno per cui gli esseri umani provano estremo disagio nel vedere rappresentazioni della realtà quasi, ma non perfettamente, realistiche. La ricerca analizza sperimentalmente come la sensazione di familiarità e di piacevolezza sperimentata da un campione di persone e generata da un’IA possa aumentare col crescere della somiglianza con la figura umana, fino a un punto in cui l’estremo realismo rappresentativo produce un brusco calo delle reazioni emotive positive, a causa della non realisticità, destando al contrario sensazioni spiacevoli come repulsione e inquietudine paragonabili al perturbamento (Lierop 2021; Ciechanowski et al. 2019).
Problemi con il rispetto della Privacy
In materia di protezione dei dati, sin dai primi tentativi di applicazione delle tecnologie d’intelligenza artificiale ai trattamenti di dati personali, il Garante ha evidenziato il rischio insito nell’affidare la vita e la privacy di persone fisiche a processi di decisione automatizzata basati sulla lettura e l’elaborazione algoritmica di dati e meta-dati. Il GDPR Europeo si è espresso richiedendo, nella vigenza del Codice pre-novella del 2018, che qualsiasi decisione frutto di modelli predittivi IA che possa avere delle implicazioni “legali” debba avere anche una spiegazione esplicita, debbano essere quindi modelli trasparenti e non debbano quindi essere basati su un modello Black Box: “Le persone hanno il diritto di non essere soggette a decisioni basate esclusivamente su processi automatizzati” e ancora: “I processi decisionali completamente automatizzati dovrebbero essere soggetti a salvaguardie, che dovrebbero includere informazioni specifiche da fornire alla persona interessata e al suo diritto di ottenere un intervento umano, di esprimere il suo punto di vista e di ottenere una spiegazione della decisione presa – in base a quali valutazioni – e di poter quindi contestare tale decisione” (Musacchio et al. 2018). Nel resoconto dell’intervento di Ginevra Cerrina Feroni, vice Presidente del Garante per la protezione dei dati personali del 2023, si legge: “Nel 2021, però, dopo la Risoluzione del Parlamento europeo sull’intelligenza artificiale, con la presentazione del Regolamento sull’Intelligenza artificiale si è compiuto un passaggio decisivo. La proposta è quella di accogliere con favore l’approccio basato sul rischio, ma di accertarsi che la natura e il grado rischio per i diritti fondamentali sia uniformato ai parametri del GDPR e del Regolamento 2018/1725” (“Intelligenza Artificiale E Ruolo Della Protezione Dei Dati Personali. L’analisi Di Ginevra Cerrina Feroni (Garante Privacy) — Garanteprivacy.it,” n.d.).
Problemi nella collaborazione con professionisti umani
In uno studio del 2023, un gruppo di ingegneri e dottorandi delle Università di New York e del Michigan ha redatto una review in cui disquisiscono sul modo in cui viene influenzata l’accuratezza diagnostica quando ai medici vengono forniti modelli di intelligenza artificiale (AI) con spiegazioni di modelli di intelligenza artificiale basati su immagini (Jabbour et al. 2023). Poiché, come abbiamo spiegato in precedenza, il problema delle intelligenze artificiali sono i bias di automazione e di correlazione, la conclusione di questa ricerca è ovviamente quella aspettata. Si legge infatti che l’intelligenza artificiale (AI) potrebbe supportare i medici nella diagnosi dei pazienti ospedalizzati; tuttavia, i bias sistematici nei modelli di intelligenza artificiale potrebbero peggiorare l’accuratezza diagnostica del medico. Recenti orientamenti normativi hanno richiesto che i modelli di intelligenza artificiale includano spiegazioni per mitigare gli errori commessi dai modelli, ma l’efficacia di questa strategia non è stata stabilita.
Un esempio di supporto digitale efficiente: Il follow-up sanitario digitale
Quando si tratta di malattie che persistono o di altre condizioni che richiedono un continuo controllo da parte di uno specialista, il follow-up digitale è particolarmente efficace. Questa soluzione può aiutare i professionisti sanitari a migliorare le visite di controllo successive e ottimizzare l’impiego del loro tempo, ad esempio facendo visite mediche da remoto utilizzando i servizi di telemedicina (Haleem et al. 2021). Inoltre, consente di avviare percorsi di prevenzione e facilita la diagnosi rapida, il monitoraggio dei sintomi e dell’evoluzione della malattia senza dover incontrare personalmente il paziente (Senbekov et al. 2020). Negli ultimi anni, il follow-up sanitario da remoto ha acquisito anche la forma di app digitali di facile fruizione, che consentono al paziente di essere seguito nel monitoraggio e nell’evoluzione della propria condizione sanitaria, ad esempio attraverso la raccolta di informazioni sullo stato di salute, l’uso di promemoria per l’assunzione di farmaci, il monitoraggio dei sintomi e la prenotazione di appuntamenti (Senbekov et al. 2020).
L’Applicazione, come strumento per il follow-up digitale, è un sistema di elaborazioni dati che segue la programmazione del professionista (umano) che l’ha creata, sotto la supervisione degli specialisti che ne usufruiscono nella loro pratica clinica di gestione a distanza del paziente. Essa si configura quindi più come un assistente alla comunicazione, che come un agente semiautonomo che prende decisioni terapeutiche sul paziente, al posto dello specialista preposto, senza peraltro fornire spiegazioni sul ragionamento alla base della decisione.
Il follow-up digitale, grazie a queste applicazioni, consente di mantenere un contatto con il paziente in modo semplice e immediato attraverso un canale di comunicazione a distanza strutturato e protetto. In particolare, consente di verificare rapidamente alcuni parametri dello stato di salute del paziente in totale sicurezza senza muoversi dal proprio studio o domicilio; ottimizzare i tempi di lavoro e ridurre le code in ambulatorio; fornire informazioni sulle condizioni di salute del paziente; fornire un’assistenza più centrata sulla persona utilizzando tecnologie digitali già utilizzate quotidianamente come le videochiamate, che aiutano a creare un legame terapeutico tra il medico e il paziente; rispondere rapidamente ai bisogni di salute del paziente; rassicurare il paziente dopo la visita offrendo chiarimenti o prescrizioni mediche per aumentare la consapevolezza del paziente relativamente alla gestione delle proprie cure e aumentare la fiducia. In questo modo sarà più facile rimanere in contatto e relazionarsi con il proprio paziente per i controlli successivi, garantendo la continuità delle cure indipendentemente dal luogo in cui ci si trova. Inoltre, il follow-up digitale renderà accessibili le visite da remoto anche a pazienti fragili, vulnerabili o con difficoltà motorie (Senbekov et al. 2020).
Anche questa forma di supporto digitale deve possedere le competenze relazionali e comunicative descritte in precedenza. Di seguito sono riportati alcuni esempi rappresentativi di come dovrebbero comunicare le app di follow-up digitale.
Per quanto riguarda la chiarezza comunicativa, l’app deve usare sempre un linguaggio semplice e comprensibile in modo che il paziente possa comprendere senza difficoltà e con precisione le istruzioni fornite (Morrow et al. 2023). Ad esempio, invece di utilizzare frasi con termini tecnici quale “Assumere per via orale 20 mg di simvastatina una volta al giorno”, è più opportuno comunicare nel seguente modo: “Prendi una compressa di simvastatina ogni sera” (“Simvastatina; AMD Aemmedi.it,” n.d.).
In ugual modo, la personalizzazione dell’interazione avviene tramite l’adattamento di messaggi e notifiche alle esigenze del paziente, alle sue condizioni e alle sue preferenze di comunicazione (Morrow et al. 2023). Ad esempio, nel caso in cui il paziente sia un soggetto diabetico, il promemoria dovrà contenere indicazioni specifiche riguardanti la sua condizione, come: “Ciao! È il momento di controllare la tua glicemia!”
L’affidabilità richiede che siano opportunamente comunicate le fonti della letteratura da cui sono tratte le indicazioni terapeutiche e le attività raccomandate, prendendo come punto di riferimento il modulo del consenso informato, che può essere presentato al paziente in formato digitale (Weinstein et al. 2014).
L’ascolto attivo deve essere dimostrato tramite l’offerta di canali in cui i pazienti possano formulare domande, esprimere dubbi e preoccupazioni, a cui rispondere il prima possibile (Morrow et al. 2023). Ad esempio, nel caso in cui un paziente riferisca di aver sperimentato un effetto collaterale a seguito dell’assunzione di un farmaco, l’app potrebbe rispondere in questo modo: “Grazie per averci informato. Stai sperimentando il sintomo segnalato? Ti consigliamo di contattare il tuo medico. Vuoi che ti aiutiamo a fissare un appuntamento?”
L’empatia digitale si esprime attraverso messaggi di supporto, rassicurazione ma anche di incoraggiamento (McCabe and Timmins 2013). Ad esempio, nel caso in cui l’utente si dimentichi di seguire una prescrizione o un’attività raccomandata, l’app potrebbe inviare un messaggio che contenga frasi quali: “Sappiamo che può essere difficile seguire il piano di cura ma siamo qui per aiutarti e sostenerti. Hai bisogno di qualche consiglio o supporto?”; e frasi che celebrino i progressi e forniscano un incoraggiamento costante, quali: “Ottimo lavoro! Hai completato le attività prescritte, continua così!”
Il rispetto della privacy richiede che sia comunicata la modalità con cui proteggere la riservatezza dei dati del paziente, che il paziente può sottoscrivere. Tale comunicazione potrebbe avvenire tramite messaggi che informino e ricordino all’utente di utilizzare l’autenticazione a due fattori per proteggere i propri dati sensibili (Weinstein et al. 2014).
La collaborazione con professionisti umani si attua nella necessaria e costante supervisione umana e nel fornire i contatti dei medici e degli operatori sanitari, consigliando ai pazienti quando è opportuno rivolgersi al professionista e fornendo un accesso rapido e diretto alla prenotazione di prestazioni e al contatto di assistenza o emergenza (Morrow et al. 2023).
Conclusioni
In conclusione, le competenze relazionali e comunicative sono indispensabili nell’era della sanità digitale. Questa presenta indubbiamente dei vantaggi ed è una risorsa nella gestione e nell’offerta dei servizi sanitari, ma è fondamentale che la presenza e la supervisione dell’essere umano rimangano al centro di questi processi.
Nonostante i numerosi tentativi di addestrare macchine e IA a fare diagnosi e prendere decisioni, la presenza e il discernimento dell’essere umano risultano essere imprescindibili per il corretto funzionamento della macchina. Con l’aumentare della complessità dei sistemi di IA (e della difficoltà di comprensione degli stessi da parte degli esseri umani), le persone esperte di IA stanno addirittura chiedendo a chi li sviluppa di fare un passo indietro e concentrarsi su come e perché un sistema produca determinati risultati, più che sul fatto che il sistema sia in grado di farlo e con quale rapidità (Pizzetti and others 2023).
“Se tutto ciò che abbiamo è una ‘scatola nera’, è impossibile comprendere le cause di un errore e migliorare la sicurezza del sistema,” scrive Roman V. Yampolskiy, professore di informatica all’Università di Louisville, in un paper intitolato “Unexplainability and Incomprehensibility of Artificial Intelligence” (Yampolskiy, 2019). “In aggiunta, se accettiamo risposte da un’IA senza spiegazioni, trattandola come un oracolo, non riusciremo più a capire se le risposte che offre sono sbagliate o manipolatorie.”
Finché i modelli predittivi di IA non saranno trasparenti (Musacchio et al. 2018), è impensabile affidare ad una macchina che non ha discernimento, capacità di empatia, flessibilità e capacità di personalizzazione dei propri output in base agli utenti che ne usufruiscono, l’autonomia di prendere decisioni rispetto alla salute di un essere umano.
Solo attraverso un’attenta e calibrata integrazione tra le competenze tecnologiche e quelle relazionali è possibile offrire un’assistenza sanitaria efficiente e che rispecchi realmente le esigenze dei pazienti, che sono prima di tutto esseri umani.
“APA Psychology Dictionary.apa.org.” n.d. https://dictionary.apa.org/artificial-intelligence.
Chow, James CL, Leslie Sanders, and Kay Li. 2023. “Impact of Chatgpt on Medical Chatbots as a Disruptive Technology.” Frontiers in Artificial Intelligence 6: 1166014.
Ciechanowski, Leon, Aleksandra Przegalinska, Mikolaj Magnuski, and Peter Gloor. 2019. “In the Shades of the Uncanny Valley: An Experimental Study of Human–Chatbot Interaction.” Future Generation Computer Systems 92: 539–48.
Di Martino, Assunta, and others. 2022. Intelligenza Artificiale E Responsabilità Civile in Ambito Sanitario. Giuffrè Francis Lefebvre.
Dowling, Renee. 2023. “Medical Decision Making Simplified in 2023-Diagnoses Addressed.” Physicians Practice, NA–NA.
Durkin, Joanne, Debra Jackson, and Kim Usher. 2021. “The Expression and Receipt of Compassion Through Touch in a Health Setting; a Qualitative Study.” Journal of Advanced Nursing 77 (4): 1980–91.
Fuertes, Jairo N, Alexa Mislowack, Jennifer Bennett, Laury Paul, Tracey C Gilbert, Gerardo Fontan, and Laura S Boylan. 2007. “The Physician–Patient Working Alliance.” Patient Education and Counseling 66 (1): 29–36.