NUOVE TECNOLOGIE
L’intelligenza artificiale in medicina: etica e responsabilità
Negli ultimi anni, l’Intelligenza artificiale (IA) ha avuto un forte sviluppo in ambito sanitario, tanto che Filippo Anelli, presidente della Fnomceo, l’ha definita un’“innovazione dirompente” nel 2023.
L’uso iniziale si è concentrato sulla diagnosi per immagini (radiologia, dermatologia, oncologia, elettrocardiografia e retinopatia), permettendo confronti con vasti database per una maggiore precisione diagnostica. Col tempo, l’IA è stata applicata a quasi tutti i settori medici, modificando i paradigmi tradizionali, ma sollevando interrogativi etici e deontologici, in particolare per il rapporto medico-paziente.
L’Oms, già nel 2021, ha fornito linee guida etiche per l’uso dell’IA in sanità, sottolineando principi come autonomia umana, privacy, equità, sicurezza, trasparenza e responsabilità. In teoria, l’IA può rispettare tali principi, ma resta la preoccupazione sull’opacità dei sistemi basati sul deep learning, che rendono difficile per i medici comprendere i criteri delle decisioni fornite.
Per questo motivo, è essenziale una formazione specifica per i medici, affinché possano interpretare e validare le decisioni dell’IA, garantendo al paziente un uso consapevole e sicuro di questi strumenti, che diventano di fatto dispositivi medici sotto la responsabilità del professionista.