algoritmi

Algoritmi sul blocco normativo in medicina

Tempo di lettura: 3 minuti

L’intelligenza artificiale e l’apprendimento automatico (AI / ML) stanno trasformando sempre più il settore sanitario. Dall’individuazione di tumori maligni alla lettura di scansioni TC e mammografie, la tecnologia basata su AI / ML è più veloce e più accurata dei dispositivi tradizionali, o persino dei migliori medici. Ma insieme ai vantaggi derivano nuovi rischi e sfide normative.

Nel loro ultimo articolo, “Algoritmi sul blocco normativo in medicina“, recentemente pubblicato su Science , Boris Babic, assistente professore di scienze delle decisioni dell’INSEAD; Theodoros Evgeniou, professore INSEAD di Scienze delle Decisioni e Gestione della Tecnologia; Sara Gerke, ricercatrice presso il Centro Petrie-Flom della Harvard Law School for Health Law Policy, Biotechnology e Bioethics; e I. Glenn Cohen, professore presso la Harvard Law School e direttore di facoltà presso il Petrie-Flom Center, esaminano le nuove sfide che devono affrontare i regolatori mentre percorrono i percorsi sconosciuti di AI / ML.

Considerano le domande: quali nuovi rischi affrontiamo quando i dispositivi AI / ML vengono sviluppati e implementati? Come dovrebbero essere gestiti? Su quali fattori devono concentrarsi i regolatori per garantire il massimo valore a rischio minimo?

Fino ad ora organismi di regolamentazione come la Food and Drug Administration (FDA) degli Stati Uniti hanno approvato un software medico basato su AI / ML con “algoritmi bloccati”, ovvero algoritmi che forniscono lo stesso risultato ogni volta e non cambiano con l’uso. Tuttavia, un punto di forza e un potenziale beneficio della maggior parte della tecnologia AI / ML deriva dalla sua capacità di evolversi man mano che il modello apprende in risposta a nuovi dati. Questi “algoritmi adattativi”, resi possibili grazie all’IA / ML, creano in sostanza ciò che è in sostanza un sistema sanitario di apprendimento, in cui i confini tra ricerca e pratica sono porosi.

Dato il valore significativo di questo sistema adattivo, una domanda fondamentale per i regolatori oggi è se l’autorizzazione debba essere limitata alla versione della tecnologia che è stata presentata e valutata come sicura ed efficace, o se consentire la commercializzazione di un algoritmo il cui valore maggiore è nella capacità della tecnologia di apprendere e adattarsi a nuove condizioni.

Gli autori esaminano in modo approfondito i rischi associati a questo problema di aggiornamento, considerando le aree specifiche che richiedono attenzione e i modi in cui le sfide potrebbero essere affrontate.

La chiave per una regolamentazione forte, dicono, è dare la priorità al monitoraggio continuo del rischio.

“Per gestire i rischi, i regolatori dovrebbero concentrarsi in particolare sul monitoraggio continuo e sulla valutazione dei rischi, e meno sulla pianificazione di future modifiche dell’algoritmo “, affermano gli autori.

Mentre i regolatori avanzano, gli autori raccomandano di sviluppare nuovi processi per monitorare, identificare e gestire continuamente i rischi associati. Suggeriscono elementi chiave che potrebbero aiutare in questo, e che in futuro potrebbero essere automatizzati mediante AI / ML, possibilmente con sistemi AI / ML che si monitorano a vicenda.

Mentre il documento si basa in gran parte sull’esperienza della FDA nella regolazione della tecnologia biomedica, le lezioni e gli esempi hanno ampia rilevanza mentre altri paesi considerano il modo in cui modellano la propria architettura normativa associata. 

Sono anche importanti e pertinenti per qualsiasi attività commerciale che sviluppa prodotti e servizi integrati AI / ML, dall’automotive, alle assicurazioni, ai finanziari, all’energia e sempre più molti altri. I dirigenti di tutte le organizzazioni hanno molto da imparare sulla gestione di nuovi rischi di IA / ML da come i regolatori la pensano oggi.

“Il nostro obiettivo è quello di enfatizzare i rischi che possono derivare da cambiamenti imprevisti nel modo in cui i sistemi di IA / ML medici reagiscono o si adattano ai loro ambienti”, affermano gli autori, avvertendo che “possono causare aggiornamenti parametrici sottili o spesso non riconosciuti o nuovi tipi di dati errori grandi e costosi “.