Сегментация объемных образований печени на мультифазных КТ-изображениях с использованием фреймворка nnU-Net
Работая с нашим сайтом, вы даете свое согласие на использование файлов cookie. Это необходимо для нормального функционирования сайта, показа целевой рекламы и анализа трафика. Статистика использования сайта отправляется в «Яндекс» и «Google»
Научный журнал Моделирование, оптимизация и информационные технологииThe scientific journal Modeling, Optimization and Information Technology
cетевое издание
issn 2310-6018

Сегментация объемных образований печени на мультифазных КТ-изображениях с использованием фреймворка nnU-Net

idКуликов А.А., idКаширина И.Л., idСавкина Е.Ф.

УДК 004.932.2
DOI: 10.26102/2310-6018/2025.48.1.040

  • Аннотация
  • Список литературы
  • Об авторах

В статье представлено исследование, посвященное применению фреймворка nnU-Net (v2) для автоматической сегментации и классификации объемных образований печени на компьютерной томографии органов брюшной полости. Основное внимание уделено влиянию размера батча и использования данных разных фаз контрастирования на точность классификации таких образований, как киста, гемангиома, карцинома и фокальная нодулярная гиперплазия (ФНГ). В ходе экспериментов были использованы размеры батча 2, 3 и 4, а также данные из двух фаз контрастного усиления ‒ артериальной и портально-венозной. Результаты показали, что оптимальный размер батча составляет 3 или 4, в зависимости от патологии, а использование данных с двух фаз контрастирования значительно улучшает точность и чувствительность классификации объемных образований, особенно для карцином и кист. Достигнутые наилучшие показатели чувствительности составили 100 % для карцином, 94 % для кист, 81% для гемангиом и 84% для ФНГ. Статья подтверждает эффективность применения nnU-Net v2 для решения задач сегментации и классификации медицинских изображений, а также подчеркивает важность выбора правильных параметров обучения и данных для достижения наилучших результатов в медицинской диагностике.

1. Sato M., Jin Z., Suzuki K. Semantic Segmentation of Liver Tumor in Contrast-enhanced Hepatic CT by Using Deep Learning with Hessian-based Enhancer with Small Training Dataset Size. In: 2021 IEEE 18th International Symposium on Biomedical Imaging, 13–16 April 2021, Nice, France. IEEE; 2021. pp. 34–37. https://doi.org/10.1109/ISBI48211.2021.9433929

2. Достовалова А.М., Горшенин А.К., Старичкова Ю.В., Арзамасов К.М. Сравнительный анализ модификаций нейросетевых архитектур U-Net в задаче сегментации медицинских изображений. Digital Diagnostics. 2024;5(4):833–853. https://doi.org/10.17816/DD629866

3. Huang W., Liu W., Zhang X., et al. LIDIA: Precise Liver Tumor Diagnosis on Multi-Phase Contrast-Enhanced CT via Iterative Fusion and Asymmetric Contrastive Learning. In: Medical Image Computing and Computer Assisted Intervention – MICCAI: 27th International Conference: Proceedings, Part IX, 06–10 October 2024, Marrakesh, Morocco. Cham: Springer; 2024. pp. 394–404. https://doi.org/10.1007/978-3-031-72114-4_38

4. Isensee F., Jaeger P.F., Kohl S.A.A., Petersen J., Maier-Hein K.H. nnU-Net: a self-configuring method for deep learning-based biomedical image segmentation. Nature Methods. 2021;18:203–211. https://doi.org/10.1038/s41592-020-01008-z

5. Isensee F., Wald T., Ulrich C., et al. nnU-Net Revisited: A Call for Rigorous Validation in 3D Medical Image Segmentation. In: Medical Image Computing and Computer Assisted Intervention – MICCAI: 27th International Conference: Proceedings, Part IX, 06–10 October 2024, Marrakesh, Morocco. Cham: Springer; 2024. pp. 488–498. https://doi.org/10.1007/978-3-031-72114-4_47

6. Ronneberger O., Fischer Ph., Brox Th. U-Net: Convolutional Networks for Biomedical Image Segmentation. In: Medical Image Computing and Computer-Assisted Intervention – MICCAI 2015: 18th International Conference: Proceedings, Part III, 05–09 October, 2015, Munich, Germany. Cham: Springer; 2015. pp. 234–241. https://doi.org/10.1007/978-3-319-24574-4_28

7. Wang J., Zhang X., Guo L., Shi Ch., Tamura Sh. Multi-scale attention and deep supervision-based 3D UNet for automatic liver segmentation from CT. Mathematical Biosciences and Engineering. 2023;20(1):1297–1316. https://doi.org/10.3934/mbe.2023059

8. He K., Zhang X., Ren Sh., Sun J. Deep Residual Learning for Image Recognition. In: 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 27–30 June 2016, Las Vegas, NV, USA. IEEE; 2016. pp. 770–778. https://doi.org/10.1109/CVPR.2016.90

9. Ковун В.А., Каширина И.Л. Использование нейронных сетей U-Net и W-Net в металлографическом анализе образцов стали. Вестник Воронежского государственного университета. Серия: Системный анализ и информационные технологии. 2022;(1):101–110. https://doi.org/10.17308/sait.2022.1/9205

10. Wang W., Wang F., Chen Q., et al. Phase Attention Model for Prediction of Early Recurrence of Hepatocellular Carcinoma With Multi-Phase CT Images and Clinical Data. Frontiers in Radiology. 2022;2. https://doi.org/10.3389/fradi.2022.856460

Куликов Александр Анатольевич
Кандидат технических наук, доцент

ORCID |

Российский технологический университет МИРЭА

Москва, Российская Федерация

Каширина Ирина Леонидовна
Доктор технических наук, доцент

WoS | Scopus | ORCID | РИНЦ |

Российский технологический университет МИРЭА
Воронежский государственный университет

Москва, Российская Федерация

Савкина Екатерина Феликсовна

ORCID |

Научно-практический клинический центр диагностики и телемедицинских технологий Департамента здравоохранения города Москвы

Москва, Российская Федерация

Ключевые слова: nnU-Net v2, компьютерная томография, образования печени, размер батча, сегментация, классификация, медицинские изображения, фазы контрастирования, карцинома

Для цитирования: Куликов А.А., Каширина И.Л., Савкина Е.Ф. Сегментация объемных образований печени на мультифазных КТ-изображениях с использованием фреймворка nnU-Net. Моделирование, оптимизация и информационные технологии. 2025;13(1). URL: https://moitvivt.ru/ru/journal/pdf?id=1853 DOI: 10.26102/2310-6018/2025.48.1.040

44

Полный текст статьи в PDF

Поступила в редакцию 13.03.2025

Поступила после рецензирования 24.03.2025

Принята к публикации 25.03.2025

Опубликована 31.03.2025