Più passa il tempo e più aumentano i casi in cui un’AI viene chiamata in causa in campo medico e, in alcune situazioni, riesce persino a salvare vite.
A Cambridge è stato sviluppato CytoDiffusion, un sistema addestrato su oltre mezzo milione di immagini di striscio ematico. Non è solo in grado di individuare malattie come la leucemia, ma anche di valutare la propria incertezza, caratteristica che lo rende uno strumento potenzialmente più affidabile in ambito clinico.
Alla Johns Hopkins è stato sviluppato MIGHT, un metodo basato su AI per la diagnosi precoce del cancro tramite l’analisi dei pattern di frammentazione del DNA libero circolante nel sangue. Nei test si è dimostrato particolarmente promettente anche nella diagnosi di malattie autoimmuni e vascolari.
TriVerity utilizza algoritmi di machine learning su 29 mRNA amplificati da un campione di sangue per distinguere infezioni batteriche da infezioni virali. Al momento l’accuratezza riportata è dell’83% per le infezioni batteriche e del 91% per quelle virali.
Esistono inoltre reti neurali convoluzionali specializzate nella diagnosi di leucemia mieloide acuta con accuratezze superiori al 95%.
È noto anche CHIEF, il modello sviluppato presso la Harvard Medical School, che ha raggiunto quasi il 94% di accuratezza nella rilevazione del cancro su 15 database diversi contenenti 11 tipi di tumore. L’accuratezza sale al 96% quando il sistema viene testato su cinque set di dati bioptici relativi a tumori multipli (esofago, stomaco, colon e prostata).
Ma anche i modelli linguistici di grandi dimensioni si sono rivelati utili.
Il modello GPT-4 ha individuato errori diagnostici meglio dei patologi (89,5% contro 88,5%), classificato lesioni cutanee con prestazioni paragonabili a quelle dei dermatologi (84,8% contro 84,6%) e stadiato il cancro ovarico con il 97% di accuratezza rispetto all’88% dei radiologi.
E si potrebbe continuare.
Nella diagnosi del tumore al seno, l’AI ha dimostrato un’accuratezza pari o superiore a quella dei radiologi esperti. Nel cancro ai polmoni riesce ad analizzare TC a bassa dose per individuare piccoli noduli polmonari, aiutando a identificare le malignità nelle fasi più trattabili. Nei tumori cerebrali ed epatici, gli strumenti di AI permettono inoltre di definire con maggiore precisione i margini tumorali, un aspetto fondamentale per la pianificazione del trattamento chirurgico.
Gli esempi sono ormai numerosi.
Come è successo per Lexroom, probabilmente il RAG più noto nel campo della legge italiana, sempre più medici stanno iniziando a utilizzare modelli di AI verticali pensati specificamente per la pratica clinica.
In questo momento stanno emergendo in particolare due piattaforme: OpenEvidence e Consensus.
Consensus è orientato alla ricerca nella letteratura scientifica: in sostanza risponde alla domanda “cosa dice la scienza su X?”. È utile per approfondire un tema o preparare decisioni cliniche complesse.
OpenEvidence, invece, è un LLM addestrato specificamente per la medicina. Il suo obiettivo è aggregare, sintetizzare e visualizzare le evidenze clinicamente rilevanti in formati comprensibili e accessibili, per supportare decisioni basate sulle prove e migliorare gli outcome dei pazienti.
Usarlo è semplice quanto utilizzare Claude: il medico digita la domanda e riceve una risposta in pochi secondi.
Lo strumento, però, è riservato ai clinici. Per accedervi è necessario inserire il numero identificativo nazionale del medico e verificare l’identità tramite informazioni secondarie come titoli di studio o licenza medica statale.
Oggi è utilizzato attivamente in oltre 10.000 ospedali e centri medici negli Stati Uniti e da più del 40% dei medici americani, che vi accedono quotidianamente per supportare decisioni cliniche ad alto rischio.
Ogni giorno viene utilizzato circa 400.000 volte, probabilmente anche perché è stata la prima AI a superare con un risultato “perfetto” l’esame di abilitazione medica statunitense.
Purtroppo funziona solo per i medici americani. Ma in Italia?
A gennaio è stato lanciato MIA – Medicina e Intelligenza Artificiale.
Al pari di Lexroom, MIA è un RAG (Retrieval Augmented Generation), ovvero un sistema che combina le capacità dei modelli linguistici avanzati con un meccanismo di recupero delle informazioni da fonti certificate.
Quando il medico pone una domanda, MIA non attinge all’intero web come farebbe ChatGPT, ma interroga esclusivamente un perimetro di conoscenze scientifiche verificate: linee guida dell’Istituto Superiore di Sanità, note AIFA, letteratura scientifica internazionale, protocolli diagnostico-terapeutici e normativa di settore.
Supporta il medico in tre aree principali:
- diagnosi, suggerendo quali esami effettuare e aiutando a individuare le possibili patologie;
- gestione delle malattie croniche, offrendo strumenti per seguire nel tempo i pazienti che necessitano di cure continuative;
- prevenzione, segnalando chi dovrebbe effettuare vaccini, visite di controllo o screening e fornendo suggerimenti personalizzati in base ai fattori di rischio individuali.
Il sistema non utilizza dati personali degli assistiti: l’algoritmo non accede direttamente alle cartelle cliniche né al Fascicolo Sanitario Elettronico. Non legge il nome del paziente, ma lavora esclusivamente sulle condizioni cliniche e sui sintomi descritti dal medico.
Al momento è in fase di sperimentazione con circa 1.500 medici.
L’obiettivo è distribuire la piattaforma a tutti i medici di famiglia entro la fine del 2026.
Come spesso accade, l’Italia arriva con un certo ritardo. Ma la direzione, questa volta, sembra quella giusta.
0 Commenti
Accedi per lasciare un commento.