PSNet: segmentazione della prostata in risonanza magnetica basata su una rete di convoluzione neuronale

    Publication Date
    Source Authors
    Source Title
    Source Issue
    Publication Date

    2017

    Source Authors

    Zhiqiang Tian Lizhi Liu Zhenfeng Zhang Baowei Fei

    Source Title

    PSNet: segmentazione della prostata in risonanza magnetica basata su una rete di convoluzione neuronale

    Source Issue

    Journal of Medical Imaging

    5

    Page Range: Pag 220-254

    Tale elaborato riguarda la segmentazione automatica della prostata in immagini di risonanza magnetica (MRI), presentando  una profonda rete neurale convoluzionale (CNN)  avente molteplici applicazioni nella diagnosi e terapia del carcinoma prostatico. È possibile utilizzare il modello CNN appreso per fare una deduzione per la segmentazione pixel-saggia. Sono stati condotti esperimenti su tre set di dati, che contengono una risonanza magnetica prostatica di 140 pazienti. Il proposto modello CNN di segmentazione della prostata (PSNet) ha ottenuto una media dei dati dell’85,0 3,8% rispetto alla verità del terreno etichettata manualmente.

    Si stima che ci siano ogni anno 161.360 nuovi casi di prostata cancro e rispettivamente  26.730 decessi per negli Stati Uniti . L’immagine di risonanza magnetica (MRI) diventa una modalità  di routine per l’esame della prostata. La segmentazione accurata della prostata e le lesioni dalla risonanza magnetica hanno molte applicazioni in diagnosi e trattamento del carcinoma della prostata. Tuttavia, manualmente la segmentazione può richiedere molto tempo e essere soggetta a inter-variazioni intrareader.

    Questo studio, riguarda la segmentazione automatica della prostata in T2 ponderata (T2W) RM.

    Recentemente, il deep learning ha cambiato radicalmente il panorama della visione artificiale. È stato proposto il lavoro iniziale di classificazione dell’immagine utilizzando un set di big data di immagini naturali chiamato ImageNet. Attualmente, la maggior parte dei modelli di deep learning sono per la classificazione imagelevel. Per ottenere una segmentazione pixel-saggio, alcuni i ricercatori hanno proposto un metodo di segmentazione patch-saggio, che estrae piccole patch (ad es. 32 × 32) dalle immagini e quindi forma una rete neurale convoluzionale (CNN) modello. Nella fase di allenamento, ogni patch estratta dall’allenamento all’immagine viene assegnata un’etichetta, che può essere inserita direttamente nel file quadro di classificazione a livello di immagine per apprendere un modello della CNN. Nella fase di test, le patch vengono estratte dall’immagine di prova prima. Il modello CNN appreso può essere usato per dedurre l’etichetta delle patch di test. L’etichetta è assegnata al pixel centrale delle patch di test.

    Sulla base dei risultati sperimentali, si è scoperto che l’uso di segmentazioni preconfigurato con messa a punto potrebbe produrre risultati di soddisfacenti. Le prestazioni dovrebbero essere ulteriormente.

    Migliorate  aggiungendo più set di dati di addestramento. L’algoritmo proposto è efficiente e non richiede funzionalità artigianali. Può essere applicato non solo alla risonanza magnetica ma anche ad altre immagini modalità come immagini TC ed ultrasuoni.

    BIBLIOGRAFIA

    1. L. Siegel, K. D. Miller, and A. Jemal, “Cancer statistics,” CA—Cancer J. Clin. 67(1), 7–30 (2017).
    2. Fei, C. Kemper, and D. L. Wilson, “A comparative study of warping and rigid body registration for the prostate and pelvic MR volumes,” Comput. Med. Imaging Graphics 27(4), 267–281 (2003).
    3. Fei et al., “Slice-to-volume registration and its potential application to interventional MRI-guided radio-frequency thermal ablation of prostate cancer,” IEEE Trans. Med. Imaging 22(4), 515–525 (2003).
    4. Qiu et al., “Prostate segmentation: an efficient convex optimization approach with axial symmetry using 3-D TRUS and MR images,” IEEE Trans. Med. Imaging 33(4), 947–960 (2014).
    5. Litjens et al., “Computer-aided detection of prostate cancer in MRI,” IEEE Trans. Med. Imaging 33(5), 1083–1092 (2014).
    6. Krizhevsky, I. Sutskever, and G. E. Hinton, “ImageNet classification with deep convolutional neural networks,” Commun. ACM 60, 84–90 (2017).
    7. Deng et al., “ImageNet: a large-scale hierarchical image database,” in IEEE Conf. on Computer Vision and Pattern Recognition, pp. 248–255 (2009).
    8. He et al., “Deep residual learning for image recognition,” in Proc. of the IEEE Conf. on Computer Vision and Pattern Recognition, pp. 770– 778 (2016).
    9. Tajbakhsh et al., “Convolutional neural networks for medical image analysis: full training or fine tuning?” IEEE Trans. Med. Imaging 35(5), 1299–1312 (2016).
    10. Zhang et al., “Deep convolutional neural networks for multi-modality isointense infant brain image segmentation,” NeuroImage 108, 214–224 (2015).