Uno studio pubblicato ad aprile 2023 su ‘JAMA Internal Medicine’, ha mostrato come il software ‘ChatGTP’, basato sull’intelligenza artificiale e sull’apprendimento automatico sviluppato da OpenAI, può fornire risposte di qualità alle domande di salute dei pazienti. Più nel dettaglio, ChatGTP è un software che simula ed elabora le conversazioni umane (scritte o parlate), consentendo agli utenti di interagire con i dispositivi digitali. Un’esperienza a riguardo è stata resa nota sul web da una madre che, all’inizio del 2023, ha sperimentato questa chatbot digitale, condividendo con la suddetta piattaforma di intelligenza artificiale tutto ciò che sapeva sui sintomi di suo figlio e tutte le informazioni che poteva raccogliere dalle sue risonanze magnetiche, ottenendo una diagnosi corretta sulla malattia del figlio, poi confermata e curata dai medici.
Lo studio
Nello studio mediante ChatGtP, denominato “Confronto delle risposte dei chatbot di medici e intelligenza artificiale”, è stato utilizzato un database non identificabile di domande provenienti da un forum pubblico di social media per estrarre in modo casuale 195 interpellanze a cui medici verificati avevano risposto nell’ottobre 2022. Successivamente, a dicembre, sono state generate le risposte del chatbot, inserendo la domanda originale in una nuova sessione. Le domande e le risposte anonime dei medici e del chatbot, sono state valutate in triplicato da un team di professionisti sanitari abilitati. Nel dettaglio, gli esperti sanitari hanno scelto “quale risposta era migliore”, valutando sia “la qualità delle informazioni fornite” (molto scarsa, scarsa, accettabile, buona o molto buona) sia “l’empatia” (non empatico, leggermente empatico, moderatamente empatico, empatico e molto empatico). I risultati medi sono stati ordinati su una scala da 1 a 5 e confrontati tra chatbot e medici.
I risultati
In questo studio trasversale, su 195 domande di salute le risposte del chatbot rispetto a quelle dei medici sono state valutate dagli esperti sanitari come “più alte” sia per la qualità che per l’empatia, ‘preferendo’ le risposte dei chatbot alle risposte dei medici nel 78,6% delle 585 valutazioni. I risultati hanno evidenziato che le risposte medie dei medici erano più brevi delle risposte del chatbot (52 [17-62] parole contro 211 [168-245] parole. Le risposte del chatbot sono state inoltre valutate dagli operatori autorizzati come “empatiche” rispetto alle risposte del medico. La percentuale di risposte ritenute empatiche o molto empatiche era più alta per i chatbot che per i medici. Ciò equivaleva a una prevalenza 9,8 volte maggiore di risposte empatiche o molto empatiche per il chatbot.
Le conclusioni
Il risultato dello studio ha suggerito come gli assistenti di intelligenza artificiale possono potenzialmente contribuire all’assistenza sanitaria nel mondo reale. Tuttavia, è necessaria una ulteriore esplorazione di questa tecnologia in contesti clinici. Inoltre, l’utilizzo di assistenti di intelligenza artificiale potrebbe essere in grado di aiutare i medici nella stesura delle risposte alle domande dei pazienti.