E se fosse un chatbot a migliorare il rapporto tra terapie farmacologiche e pazienti? L’Università di Oxford ha sviluppato DrugGpt, un’intelligenza artificiale con l’obiettivo di ridurre gli errori nella prescrizione e migliorare l’aderenza alle terapie.
Secondo le statistiche, un paziente su 20 è colpito da problemi evitabili legati ai farmaci: nel solo 2023, in Europa circa 163mila persone sono morte a causa di errori medici.
L’Organizzazione Mondiale della Sanità ha avviato la terza Global Patient Safety Challenge per ridurre i danni gravi ai pazienti dovuti agli errori medici entro il 2027, includendo come strumento anche l’adozione di tecnologie come l’IA.
Il ruolo del chatbot dell’Università di Oxford è approfondito in questo articolo sul portale Tech2Doc.
DrugGpt offre una seconda opinione ai medici durante la prescrizione di farmaci e fornisce raccomandazioni e indicazioni dettagliate su effetti collaterali e interazioni farmacologiche.
Inoltre, è preciso, con performance paragonabili a esperti umani negli esami per la licenza medica negli Stati Uniti. Ciononostante, la supervisione umana resta fondamentale.
I chatbot alimentati dall’IA si stanno diffondendo sempre più in ambito sanitario.
Uno studio pubblicato sul Journal of Digital Health si è concentrato sull’esaminare come questi strumenti influenzino le percezioni dei pazienti.
La ricerca ha preso in considerazione un gruppo di pazienti in trattamento per l’urolitiasi, una condizione caratterizzata dalla formazione di calcoli a carico dell’apparato urinario. Ai pazienti è stato chiesto di compilare dei questionari: uno prima della spiegazione sulle modifiche dello stile di vita da adottare per prevenire le recidive di urolitiasi, il secondo dopo che i pazienti avevano ricevuto la spiegazione generata da ChatGpt.
I risultati hanno rilevato che i pazienti con un livello di istruzione inferiore hanno mostrato percezione più negativa dei contenuti generati dall’IA, potenzialmente a causa dell’insufficiente alfabetizzazione digitale.
Altri aspetti emersi dallo studio riguardano l’affidabilità dei contenuti generati dall’intelligenza artificiale e la possibilità che contengano imprecisioni ed errori.
Il tema è approfondito in questo articolo.
Claudia Torrisi