AGI – Gli assistenti digitali di intelligenza artificiale, come ChatGPT, potrebbero avere un ruolo importante in medicina. Un nuovo studio pubblicato su JAMA Internal Medicine e condotto dal dottor John W. Ayers dell’Istituto Qualcomm dell’Università della California a San Diego rileva che ChatGTP supera i medici nel fornire consigli alle domande dei pazienti. Lo studio confrontava le risposte scritte dei medici con quelle di ChatGPT a domande di salute.
Un panel di professionisti sanitari preferiva le risposte di ChatGPT il 79% delle volte e le valutava di qualità superiore ed empatiche. “Le opportunità per migliorare la salute con l’IA sono enormi”, ha ammesso Ayers, vicecapo dell’innovazione nella Divisione di Malattie Infettive e Salute Pubblica Globale della Scuola di Medicina dell’UC San Diego. Nel nuovo studio, il team di ricerca si è posto la domanda: può ChatGPT rispondere con precisione alle domande che i pazienti inviano ai loro medici? Se sì, i modelli di IA potrebbero essere integrati nei sistemi sanitari per migliorare le risposte dei medici alle domande inviate dai pazienti e alleviare il sempre crescente carico di lavoro dei medici.
“ChatGPT potrebbe essere in grado di superare l’esame di licenza medica”, ha detto il coautore dello studio Davey Smith, medico-scientifico, co-direttore dell’Istituto di Ricerca Clinica e Traslazionale Altman dell’UC San Diego e professore presso la Scuola di Medicina dell’UC San Diego, “ma rispondere direttamente alle domande dei pazienti in modo accurato ed empatico è qualcosa di completamente diverso”.
Per ottenere domande sanitarie e risposte dei medici che non contenessero informazioni personali identificabili, il team si è rivolto ai social media dove milioni di pazienti pubblicano pubblicamente domande mediche a cui i medici rispondono: AskDocs di Reddit è una sottosezione con circa 452.000 membri che pubblicano domande mediche e professionisti sanitari verificati rispondono. Il team ha selezionato casualmente 195 scambi di AskDocs in cui un medico ha risposto a una domanda pubblica.
Il team ha fornito la domanda originale a ChatGPT e gli ha chiesto di creare una risposta. Un gruppo di tre operatori sanitari autorizzati ha valutato ogni domanda e le risposte corrispondenti e non sapeva se la risposta provenisse da un medico o da ChatGPT. Hanno confrontato le risposte in base alla qualità delle informazioni e all’empatia, notando quale preferivano. Il gruppo di valutatori professionisti sanitari ha preferito le risposte di ChatGPT alle risposte dei medici il 79% delle volte.
Inoltre, le risposte dell’IA sono state valutate di una qualità significativamente più elevata rispetto a quelle dei medici: le risposte di qualità buona o molto buona erano 3,6 volte superiori per ChatGPT rispetto ai medici (medici 22,1% contro ChatGPT 78,5%). Le risposte empatiche o molto empatiche sono state 9,8 volte superiori per ChatGPT rispetto ai medici (medici 4,6% contro ChatGPT 45,1%). “Il nostro studio è tra i primi a mostrare come gli assistenti di intelligenza artificiale possono potenzialmente contribuire all’assistenza sanitaria nel mondo reale”, ha concluso Christopher Longhurst, Chief Medical Officer e Chief Digital Officer presso UC San Diego Health.