Un algoritmo aiuta a rilevare la sindrome da distress respiratorio


Una rete neurale convoluzionale profonda può aiutare i medici a rilevare la sindrome da distress respiratorio acuto nella radiografia toracica

Le bronchiti croniche che si manifestano in giovani adulti sono associati a infezioni respiratorie ricorrenti secondo i risultati di uno studio

Secondo una nuova ricerca pubblicata sulla rivista Lancet Digital Health, una rete neurale convoluzionale profonda può essere addestrata per raggiungere un’accuratezza simile o superiore a quella dei medici nel riconoscere la sindrome da distress respiratorio acuto in una radiografia del torace.

La sindrome da distress respiratorio acuto (ARDS) è caratterizzata dall’insorgenza acuta di grave ipossiemia ed edema polmonare di causa non cardiaca in pazienti con condizioni come sepsi, polmonite o trauma. L’attuale trattamento per l’ARDS rimane ampiamente di supporto e la mortalità è del 35%. I pazienti che sviluppano ARDS spesso non vengono individuati a causa della variabilità nell’interpretazione delle immagini radiografiche del torace e non ricevono quindi le cure basate sull’evidenza.

Individuare la sindrome con una rete neurale convoluzionale
«Trattandosi di una condizione che può essere difficile da identificare in modo coerente a causa della variazione nell’interpretazione dell’imaging del torace -hanno spiegato i ricercatori- abbiamo addestrato una rete neurale convoluzionale profonda (CNN) a rilevare la sindrome nelle radiografie del torace, che ha mostrato prestazioni equivalenti a quelle dei medici coinvolti nella ricerca sull’ARDS e alle valutazioni sulle radiografie del torace in un centro esterno».

Nell’apprendimento automatico, una rete neurale convoluzionale (CNN, convolutional neural network) è un tipo di rete neurale artificiale in cui il modello di connettività neuronale si ispira all’organizzazione della corteccia visiva animale. Le CNN in pratica sono potenti algoritmi che possono essere addestrati e hanno diverse applicazioni nel riconoscimento di immagini e di video, nell’elaborazione del linguaggio naturale e nella bioinformatica. In pratica si tratta di che possono essere addestrati per riconoscere e che hanno mostrato prestazioni a livello medico in un’ampia gamma di problemi medici

Le CNN profonde sono state prima istruite a identificare reperti toracici comuni come opacità e versamento tramite l’analisi di quasi 600mila radiografie, e poi addestrate su oltre 8000 immagini ai raggi X segnalate per l’ARDS da più medici. La rete neurale con le migliori prestazioni è stata infine testata su radiografie del torace in una coorte interna e una esterna, incluso un sottogruppo di radiografie valutato da sei medici.

Prestazioni simili o migliori a quelle dei medici
Nel test interno del set di radiografie toraciche di 455 pazienti con insufficienza respiratoria ipossiemica acuta, la CNN ha rilevato la sindrome con un valore di  AUROC (area under the receiver operating characteristic) pari a 0,92. Quando testato sul sottoinsieme di immagini esaminate da almeno sei medici, l’AUROC era di 0,93, mentre la sensibilità della CNN era dell’83% e la specificità dell’88,3%.

L’AUROC è una metrica delle prestazioni che può essere utilizzata per valutare i modelli di classificazione. Per un modello di previsione del rischio clinico, l’AUROC indica la probabilità che un paziente selezionato in modo casuale che ha sperimentato un evento abbia un punteggio di rischio previsto più elevato rispetto a un paziente selezionato in modo casuale che non ha subito l’evento. In pratica indica la capacità del modello di discriminare tra casi (esempi positivi) e non casi (esempi negativi).

Nelle immagini con zero annotazioni su sei per l’ARDS, la probabilità CNN mediana era dell’11%, ma raggiungeva il 91% con le immagini che avevano con sei annotazioni su sei. Nelle radiografie in cui le valutazioni dei medici erano in disaccordo, la CNN ha assegnato probabilità intermedie, mentre nell’analisi delle radiografie del torace di una coorte esterna di 431 pazienti con sepsi, l’AUROC era 0,88 e passava a 0,93 una volta escluse le immagini segnalate come ambigue.

«La valutazione visiva dei risultati dell’algoritmo ha confermato che ha imparato a concentrarsi sulle regioni del polmone che mostravano opacità durante la classificazione delle immagini come coerenti con l’ARDS», hanno concluso gli autori, aggiungendo che «le prestazioni dell’algoritmo erano sovrapponibili o superiori alla performance del singolo medico».

Sono necessarie ulteriori ricerche per valutare se l’uso di questi algoritmi potrebbe supportare l’identificazione in tempo reale dei pazienti con ARDS, per garantire l’appropriatezza delle cure basate sull’evidenza o per supportare la ricerca in corso sulla sindroma.

Bibliografia
Sjoding MW et al. Deep learning to detect acute respiratory distress syndrome on chest radiographs: a retrospective study with external validation. Lancet Digit Health. 2021 Apr 20;S2589-7500(21)00056-X.  Link