<?xml version="1.0" encoding="UTF-8"?>
<article article-type="research-article" dtd-version="1.3" xml:lang="ru" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:noNamespaceSchemaLocation="https://metafora.rcsi.science/xsd_files/journal3.xsd">
  <front>
    <journal-meta>
      <journal-id journal-id-type="publisher-id">moitvivt</journal-id>
      <journal-title-group>
        <journal-title xml:lang="ru">Моделирование, оптимизация и информационные технологии</journal-title>
        <trans-title-group xml:lang="en">
          <trans-title>Modeling, Optimization and Information Technology</trans-title>
        </trans-title-group>
      </journal-title-group>
      <issn pub-type="epub">2310-6018</issn>
      <publisher>
        <publisher-name>Издательство</publisher-name>
      </publisher>
    </journal-meta>
    <article-meta>
      <article-id pub-id-type="doi">10.26102/2310-6018/2025.48.1.040</article-id>
      <article-id pub-id-type="custom" custom-type="elpub">1853</article-id>
      <title-group>
        <article-title xml:lang="ru">Сегментация объемных образований печени на мультифазных КТ-изображениях с использованием фреймворка nnU-Net</article-title>
        <trans-title-group xml:lang="en">
          <trans-title>Segmentation of liver volumetric lesions in multiphase CT images using the nnU-Net framework</trans-title>
        </trans-title-group>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author" corresp="yes">
          <contrib-id contrib-id-type="orcid">0000-0002-8443-3684</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Куликов</surname>
              <given-names>Александр Анатольевич</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Kulikov</surname>
              <given-names>Alexander</given-names>
            </name>
          </name-alternatives>
          <email>kulikov_aa@mirea.ru</email>
          <xref ref-type="aff">aff-1</xref>
        </contrib>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">0000-0002-8664-9817</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Каширина</surname>
              <given-names>Ирина Леонидовна</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Kashirina</surname>
              <given-names>Irina Leonidovna</given-names>
            </name>
          </name-alternatives>
          <email>kash.irina@mail.ru</email>
          <xref ref-type="aff">aff-2</xref>
        </contrib>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">0000-0001-9165-0719</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Савкина</surname>
              <given-names>Екатерина Феликсовна</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Savkinа</surname>
              <given-names>Ekaterina</given-names>
            </name>
          </name-alternatives>
          <email>SavkinaEF@zdrav.mos.ru</email>
          <xref ref-type="aff">aff-3</xref>
        </contrib>
      </contrib-group>
      <aff-alternatives id="aff-1">
        <aff xml:lang="ru">МИРЭА - Российский технологический университет</aff>
        <aff xml:lang="en">MIREA - Russian Technological University</aff>
      </aff-alternatives>
      <aff-alternatives id="aff-2">
        <aff xml:lang="ru">МИРЭА - Российский технологический университет Воронежский государственный университет</aff>
        <aff xml:lang="en">MIREA - Russian Technological University Voronezh State University</aff>
      </aff-alternatives>
      <aff-alternatives id="aff-3">
        <aff xml:lang="ru">Научно-практический клинический центр диагностики и телемедицинских технологий Департамента здравоохранения города Москвы</aff>
        <aff xml:lang="en">Research and Practical Clinical Center for Diagnostics and Telemedicine Technologies</aff>
      </aff-alternatives>
      <pub-date pub-type="epub">
        <day>01</day>
        <month>01</month>
        <year>2026</year>
      </pub-date>
      <volume>1</volume>
      <issue>1</issue>
      <elocation-id>10.26102/2310-6018/2025.48.1.040</elocation-id>
      <permissions>
        <copyright-statement>Copyright © Авторы, 2026</copyright-statement>
        <copyright-year>2026</copyright-year>
        <license license-type="creative-commons-attribution" xlink:href="https://creativecommons.org/licenses/by/4.0/">
          <license-p>This work is licensed under a Creative Commons Attribution 4.0 International License</license-p>
        </license>
      </permissions>
      <self-uri xlink:href="https://moitvivt.ru/ru/journal/article?id=1853"/>
      <abstract xml:lang="ru">
        <p>В статье представлено исследование, посвященное применению фреймворка nnU-Net (v2) для автоматической сегментации и классификации объемных образований печени на компьютерной томографии органов брюшной полости. Основное внимание уделено влиянию размера батча и использования данных разных фаз контрастирования на точность классификации таких образований, как киста, гемангиома, карцинома и фокальная нодулярная гиперплазия (ФНГ). В ходе экспериментов были использованы размеры батча 2, 3 и 4, а также данные из двух фаз контрастного усиления ‒ артериальной и портально-венозной. Результаты показали, что оптимальный размер батча составляет 3 или 4, в зависимости от патологии, а использование данных с двух фаз контрастирования значительно улучшает точность и чувствительность классификации объемных образований, особенно для карцином и кист. Достигнутые наилучшие показатели чувствительности составили 100 % для карцином, 94 % для кист, 81% для гемангиом и 84% для ФНГ. Статья подтверждает эффективность применения nnU-Net v2 для решения задач сегментации и классификации медицинских изображений, а также подчеркивает важность выбора правильных параметров обучения и данных для достижения наилучших результатов в медицинской диагностике.</p>
      </abstract>
      <trans-abstract xml:lang="en">
        <p>The article presents a study on the application of the nnU-Net (v2) framework for automatic segmentation and classification of liver space-occupying lesions on abdominal computed tomography. The main attention is paid to the effect of the batch size and the use of data from different contrast phases on the classification accuracy of such lesions as cysts, hemangiomas, carcinomas, and focal nodular hyperplasia (FNH). During the experiments, batch sizes of 2, 3, and 4 were used, as well as data from two contrast phases ‒ arterial and venous. The results showed that the optimal batch size is 3 or 4, depending on the pathology, and the use of data from two contrast phases significantly improves the accuracy and sensitivity of space-occupying lesions classification, especially for carcinomas and cysts. The achieved best sensitivity rates were 100% for carcinomas, 94% for cysts, 81% for hemangiomas, and 84% for FNH. The paper confirms the effectiveness of nnU-Net v2 for solving medical image segmentation and classification problems and highlights the importance of choosing the right training parameters and data to achieve the best results in medical diagnostics.</p>
      </trans-abstract>
      <kwd-group xml:lang="ru">
        <kwd>nnU-Net v2</kwd>
        <kwd>компьютерная томография</kwd>
        <kwd>образования печени</kwd>
        <kwd>размер батча</kwd>
        <kwd>сегментация</kwd>
        <kwd>классификация</kwd>
        <kwd>медицинские изображения</kwd>
        <kwd>фазы контрастирования</kwd>
        <kwd>карцинома</kwd>
      </kwd-group>
      <kwd-group xml:lang="en">
        <kwd>nnU-Net v2</kwd>
        <kwd>CT images</kwd>
        <kwd>liver pathologies</kwd>
        <kwd>batch size</kwd>
        <kwd>segmentation</kwd>
        <kwd>classification</kwd>
        <kwd>medical images</kwd>
        <kwd>contrast phases</kwd>
        <kwd>carcinoma</kwd>
      </kwd-group>
      <funding-group>
        <funding-statement xml:lang="ru">Статья подготовлена в рамках НИОКР «Разработка платформы повышения качества ИИ-Сервисов для медицинской диагностики» (№ ЕГИСУ: 123031400006-0) в соответствии с Приказом от 21.12.2022 г. № 1196 «Об утверждении государственных заданий, финансовое обеспечение которых осуществляется за счет средств бюджета города Москвы, государственным бюджетным (автономным) учреждениям, подведомственным Департаменту здравоохранения города Москвы, на 2023 год и плановый период 2024 и 2025 годов» Департамента здравоохранения города Москвы.</funding-statement>
        <funding-statement xml:lang="en">This paper was prepared as a part of the research  and development effort titled "Development of a platform for improving the quality of AI services for clinical diagnostics" (USIS No.: 123031400006-0) in accordance with the Order No. 1196 dated December 21, 2022 "On approval of state assignments funded by means of allocations from the budget of the city of Moscow to the state budgetary (autonomous) institutions subordinate to the Moscow Health Care Department, for 2023 and the planned period of 2024 and 2025" issued by the Moscow Health Care Department.</funding-statement>
      </funding-group>
    </article-meta>
  </front>
  <back>
    <ref-list>
      <title>References</title>
      <ref id="cit1">
        <label>1</label>
        <mixed-citation xml:lang="ru">Sato M., Jin Z., Suzuki K. Semantic Segmentation of Liver Tumor in Contrast-enhanced Hepatic CT by Using Deep Learning with Hessian-based Enhancer with Small Training Dataset Size. In: 2021 IEEE 18th International Symposium on Biomedical Imaging, 13–16 April 2021, Nice, France. IEEE; 2021. pp. 34–37. https://doi.org/10.1109/ISBI48211.2021.9433929</mixed-citation>
      </ref>
      <ref id="cit2">
        <label>2</label>
        <mixed-citation xml:lang="ru">Достовалова А.М., Горшенин А.К., Старичкова Ю.В., Арзамасов К.М. Сравнительный анализ модификаций нейросетевых архитектур U-Net в задаче сегментации медицинских изображений. Digital Diagnostics. 2024;5(4):833–853. https://doi.org/10.17816/DD629866</mixed-citation>
      </ref>
      <ref id="cit3">
        <label>3</label>
        <mixed-citation xml:lang="ru">Huang W., Liu W., Zhang X., et al. LIDIA: Precise Liver Tumor Diagnosis on Multi-Phase Contrast-Enhanced CT via Iterative Fusion and Asymmetric Contrastive Learning. In: Medical Image Computing and Computer Assisted Intervention – MICCAI: 27th International Conference: Proceedings, Part IX, 06–10 October 2024, Marrakesh, Morocco. Cham: Springer; 2024. pp. 394–404. https://doi.org/10.1007/978-3-031-72114-4_38</mixed-citation>
      </ref>
      <ref id="cit4">
        <label>4</label>
        <mixed-citation xml:lang="ru">Isensee F., Jaeger P.F., Kohl S.A.A., Petersen J., Maier-Hein K.H. nnU-Net: a self-configuring method for deep learning-based biomedical image segmentation. Nature Methods. 2021;18:203–211. https://doi.org/10.1038/s41592-020-01008-z</mixed-citation>
      </ref>
      <ref id="cit5">
        <label>5</label>
        <mixed-citation xml:lang="ru">Isensee F., Wald T., Ulrich C., et al. nnU-Net Revisited: A Call for Rigorous Validation in 3D Medical Image Segmentation. In: Medical Image Computing and Computer Assisted Intervention – MICCAI: 27th International Conference: Proceedings, Part IX, 06–10 October 2024, Marrakesh, Morocco. Cham: Springer; 2024. pp. 488–498. https://doi.org/10.1007/978-3-031-72114-4_47</mixed-citation>
      </ref>
      <ref id="cit6">
        <label>6</label>
        <mixed-citation xml:lang="ru">Ronneberger O., Fischer Ph., Brox Th. U-Net: Convolutional Networks for Biomedical Image Segmentation. In: Medical Image Computing and Computer-Assisted Intervention – MICCAI 2015: 18th International Conference: Proceedings, Part III, 05–09 October, 2015, Munich, Germany. Cham: Springer; 2015. pp. 234–241. https://doi.org/10.1007/978-3-319-24574-4_28</mixed-citation>
      </ref>
      <ref id="cit7">
        <label>7</label>
        <mixed-citation xml:lang="ru">Wang J., Zhang X., Guo L., Shi Ch., Tamura Sh. Multi-scale attention and deep supervision-based 3D UNet for automatic liver segmentation from CT. Mathematical Biosciences and Engineering. 2023;20(1):1297–1316. https://doi.org/10.3934/mbe.2023059</mixed-citation>
      </ref>
      <ref id="cit8">
        <label>8</label>
        <mixed-citation xml:lang="ru">He K., Zhang X., Ren Sh., Sun J. Deep Residual Learning for Image Recognition. In: 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 27–30 June 2016, Las Vegas, NV, USA. IEEE; 2016. pp. 770–778. https://doi.org/10.1109/CVPR.2016.90</mixed-citation>
      </ref>
      <ref id="cit9">
        <label>9</label>
        <mixed-citation xml:lang="ru">Ковун В.А., Каширина И.Л. Использование нейронных сетей U-Net и W-Net в металлографическом анализе образцов стали. Вестник Воронежского государственного университета. Серия: Системный анализ и информационные технологии. 2022;(1):101–110. https://doi.org/10.17308/sait.2022.1/9205</mixed-citation>
      </ref>
      <ref id="cit10">
        <label>10</label>
        <mixed-citation xml:lang="ru">Wang W., Wang F., Chen Q., et al. Phase Attention Model for Prediction of Early Recurrence of Hepatocellular Carcinoma With Multi-Phase CT Images and Clinical Data. Frontiers in Radiology. 2022;2. https://doi.org/10.3389/fradi.2022.856460</mixed-citation>
      </ref>
    </ref-list>
    <fn-group>
      <fn fn-type="conflict">
        <p>The authors declare that there are no conflicts of interest present.</p>
      </fn>
    </fn-group>
  </back>
</article>