<?xml version="1.0" encoding="UTF-8"?>
<article article-type="research-article" dtd-version="1.3" xml:lang="ru" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:noNamespaceSchemaLocation="https://metafora.rcsi.science/xsd_files/journal3.xsd">
  <front>
    <journal-meta>
      <journal-id journal-id-type="publisher-id">moitvivt</journal-id>
      <journal-title-group>
        <journal-title xml:lang="ru">Моделирование, оптимизация и информационные технологии</journal-title>
        <trans-title-group xml:lang="en">
          <trans-title>Modeling, Optimization and Information Technology</trans-title>
        </trans-title-group>
      </journal-title-group>
      <issn pub-type="epub">2310-6018</issn>
      <publisher>
        <publisher-name>Издательство</publisher-name>
      </publisher>
    </journal-meta>
    <article-meta>
      <article-id pub-id-type="doi">10.26102/2310-6018/2025.51.4.002</article-id>
      <article-id pub-id-type="custom" custom-type="elpub">2028</article-id>
      <title-group>
        <article-title xml:lang="ru">Повышение качества обучения сверточных нейронных сетей в задачах технического зрения беспилотных поездов</article-title>
        <trans-title-group xml:lang="en">
          <trans-title>Improving the quality of convolutional neural networks learning in the tasks of machine vision of unmanned trains</trans-title>
        </trans-title-group>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Федоров</surname>
              <given-names>Владимир Анатольевич</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Fedorov</surname>
              <given-names>Vladimir</given-names>
            </name>
          </name-alternatives>
          <email>fedorov.vladimir@urfu.ru</email>
          <xref ref-type="aff">aff-1</xref>
        </contrib>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">0000-0002-8752-5322</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Огородникова</surname>
              <given-names>Ольга Михайловна</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Ogorodnikova</surname>
              <given-names>Olga Mikhailovna</given-names>
            </name>
          </name-alternatives>
          <email>olga.ogorodnikova@urfu.ru</email>
          <xref ref-type="aff">aff-2</xref>
        </contrib>
      </contrib-group>
      <aff-alternatives id="aff-1">
        <aff xml:lang="ru">Уральский федеральный университет</aff>
        <aff xml:lang="en">Ural Federal University</aff>
      </aff-alternatives>
      <aff-alternatives id="aff-2">
        <aff xml:lang="ru">Уральский федеральный университет</aff>
        <aff xml:lang="en">Ural Federal University</aff>
      </aff-alternatives>
      <pub-date pub-type="epub">
        <day>01</day>
        <month>01</month>
        <year>2026</year>
      </pub-date>
      <volume>1</volume>
      <issue>1</issue>
      <elocation-id>10.26102/2310-6018/2025.51.4.002</elocation-id>
      <permissions>
        <copyright-statement>Copyright © Авторы, 2026</copyright-statement>
        <copyright-year>2026</copyright-year>
        <license license-type="creative-commons-attribution" xlink:href="https://creativecommons.org/licenses/by/4.0/">
          <license-p>This work is licensed under a Creative Commons Attribution 4.0 International License</license-p>
        </license>
      </permissions>
      <self-uri xlink:href="https://moitvivt.ru/ru/journal/article?id=2028"/>
      <abstract xml:lang="ru">
        <p>Беспилотные поезда являются ключевым составным элементом следующего уровня автоматизации железных дорог. Запуск локомотивов в беспилотном режиме требует разработки надежных систем технического зрения с применением технологий искусственного интеллекта. В статье представлен метод повышения качества обучения сверточных нейронных сетей в задачах обнаружения объектов железнодорожной инфраструктуры. Достоверность визуального обнаружения объектов системой компьютерного зрения достигается за счет алгоритмического расширения наборов данных для обучения. Предложенный метод учитывает вариативность погодных условий, в которых необходимо обнаружить идентичные объекты, и позволяет генерировать модификации изображений с добавлением эффектов дождя, снега или тумана. В качестве исходного набора данных использовано 21700 аннотированных изображений, содержащих 7 классов объектов. На их основе сформирован расширенный набор из 65100 изображений с использованием разработанного метода. Для оценки эффективности предложенного подхода проведено сравнительное обучение современной модели YOLOv11 на исходном и расширенном наборах данных. Для сравнения результатов использованы метрики F1-меры и mean Average Precision (mAP). Результаты вычислительных экспериментов подтверждают, что применение расширенного набора данных способствует улучшению качества обучения. В частности, F1-мера для модели YOLO, обученной на исходном наборе данных, составила 0,72, тогда как на расширенном наборе данный параметр достиг повышенного значения 0,90. Значение второй использованной метрики mAP (50–95) увеличилось с 0,67 на исходном наборе данных до 0,83 на расширенном. Сравнительные значения метрик были получены при одинаковом пороге достоверности 0,8. Разработанный метод реализован в аппаратно-программном комплексе, который готов к тестовым испытаниям в составе комплексной системы управления и обеспечения безопасности движения грузовых поездов.</p>
      </abstract>
      <trans-abstract xml:lang="en">
        <p>Unmanned trains are a key component of the next level of railway automation. Launching locomotives in unmanned mode requires the development of reliable computer vision systems using artificial intelligence technologies. The paper presents a method for improving the quality of learning convolutional neural networks for detecting railway infrastructure objects. The reliability of visual object detection by a computer vision system can be achieved through algorithmic expansion of training datasets. The proposed method takes into account the variability of weather conditions in which identical objects must be detected, and it allows generating image modifications with added effects of rain, snow or fog. The original dataset included 21700 annotated images and contained 7 classes of objects. Based on them, an extended set of 65100 images was formed using the developed method. To evaluate the effectiveness of the proposed approach, comparative learning of the advanced YOLOv11 model was carried out on the original and extended datasets. The F1-measure and mean average precision (mAP) metrics were used to compare the learning results. The results of the computational experiments confirm that using the extended dataset improves the quality of learning. In particular, the F1-measure for the YOLO model trained on the original dataset was 0.72, while on the extended dataset this parameter reached an increased value of 0.90. The value of the second used metric mAP (50–95) increased from 0.67 on the original dataset to 0.83 on the extended dataset. Comparative values of the metrics were obtained at the same confidence threshold of 0.8. The developed method has been implemented in a hardware and software system, which is ready for testing as part of an integrated control and safety system for freight trains.</p>
      </trans-abstract>
      <kwd-group xml:lang="ru">
        <kwd>техническое зрение</kwd>
        <kwd>машинное обучение</kwd>
        <kwd>сверточные нейронные сети</kwd>
        <kwd>YOLOv11</kwd>
        <kwd>автоматизация железнодорожного транспорта</kwd>
        <kwd>беспилотный транспорт</kwd>
      </kwd-group>
      <kwd-group xml:lang="en">
        <kwd>machine vision</kwd>
        <kwd>machine learning</kwd>
        <kwd>convolutional neural networks</kwd>
        <kwd>YOLOv11</kwd>
        <kwd>rail transport automation</kwd>
        <kwd>unmanned transport</kwd>
      </kwd-group>
      <funding-group>
        <funding-statement xml:lang="ru">Исследование выполнено без спонсорской поддержки.</funding-statement>
        <funding-statement xml:lang="en">The study was performed without external funding.</funding-statement>
      </funding-group>
    </article-meta>
  </front>
  <back>
    <ref-list>
      <title>References</title>
      <ref id="cit1">
        <label>1</label>
        <mixed-citation xml:lang="ru">Федоров В.А., Огородникова О.М. Сверточные нейронные сети как инструмент обнаружения объектов железнодорожной инфраструктуры. Автоматизация в промышленности. 2024;(12):20–23.</mixed-citation>
      </ref>
      <ref id="cit2">
        <label>2</label>
        <mixed-citation xml:lang="ru">Озеров А.В., Маршова А.С. О некоторых аспектах автоматизации движения поездов на железнодорожном транспорте. Наука и технологии железных дорог. 2024;8(3):12–17.</mixed-citation>
      </ref>
      <ref id="cit3">
        <label>3</label>
        <mixed-citation xml:lang="ru">Anagnostopoulos A. High-Speed Railway and Safety: Insights from a Bibliometric Approach. High-Speed Railway. 2024;2(3):187–196. https://doi.org/10.1016/j.hspr.2024.08.004</mixed-citation>
      </ref>
      <ref id="cit4">
        <label>4</label>
        <mixed-citation xml:lang="ru">Fedorov V.А. Recognizing Railway Infrastructure Using CNN and Stereoscopic Vision. In: 2024 International Russian Smart Industry Conference, 25–29 March 2024, Sochi, Russia. IEEE; 2024. P. 13–18. https://doi.org/10.1109/SmartIndustryCon61328.2024.10516208</mixed-citation>
      </ref>
      <ref id="cit5">
        <label>5</label>
        <mixed-citation xml:lang="ru">Tang Yo., Qian Yu. High-Speed Railway Track Components Inspection Framework Based on Yolov8 with High-Performance Model Deployment. High-Speed Railway. 2024;2(1):42–50. https://doi.org/10.1016/j.hspr.2024.02.001</mixed-citation>
      </ref>
      <ref id="cit6">
        <label>6</label>
        <mixed-citation xml:lang="ru">Terven Ju., Córdova-Esparza D.-M., Romero-González Ju.-A. A Comprehensive Review of YOLO Architectures in Computer Vision: From YOLOv1 to YOLOv8 and YOLO-NAS. Machine Learning and Knowledge Extraction. 2023;5(4):1680–1716. https://doi.org/10.3390/make5040083</mixed-citation>
      </ref>
      <ref id="cit7">
        <label>7</label>
        <mixed-citation xml:lang="ru">Попов В.А., Зубков А.В. Применение моделей машинного обучения семейства YOLO для задачи анализа чайного сырья по фотографии. Моделирование, оптимизация и информационные технологии. 2025;13(2). https://doi.org/10.26102/2310-6018/2025.49.2.042</mixed-citation>
      </ref>
      <ref id="cit8">
        <label>8</label>
        <mixed-citation xml:lang="ru">Гаврилов В.С., Корчагин С.А., Долгов В.И., Андриянов Н.А. Разработка легковесной модели автоматической классификации структурированных и неструктурированных данных в потоковых источниках для оптимизации оптического распознавания символов. Моделирование, оптимизация и информационные технологии. 2025;13(3). https://doi.org/10.26102/2310-6018/2025.50.3.006</mixed-citation>
      </ref>
      <ref id="cit9">
        <label>9</label>
        <mixed-citation xml:lang="ru">Castillo-Girones S., Munera S., Martínez-Sober M., Blasco Jo., Cubero S., Gómez-Sanchis Ju. Artificial Neural Networks in Agriculture, the Core of Artificial Intelligence: What, When, and Why. Computers and Electronics in Agriculture. 2025;230. https://doi.org/10.1016/j.compag.2025.109938</mixed-citation>
      </ref>
      <ref id="cit10">
        <label>10</label>
        <mixed-citation xml:lang="ru">Khanam R., Hussain M. YOLOv11: An Overview of the Key Architectural Enhancements. arXiv. URL: https://doi.org/10.48550/arXiv.2410.17725 [Accessed 31st July 2025].</mixed-citation>
      </ref>
      <ref id="cit11">
        <label>11</label>
        <mixed-citation xml:lang="ru">He Z., Wang K., Fang T., Su L., Chen R., Fei X. Comprehensive Performance Evaluation of YOLOv11, YOLOv10, YOLOv9, YOLOv8 and YOLOv5 on Object Detection of Power Equipment. arXiv. URL: https://doi.org/10.48550/arXiv.2411.18871 [Accessed 31st July 2025].</mixed-citation>
      </ref>
      <ref id="cit12">
        <label>12</label>
        <mixed-citation xml:lang="ru">Yacouby R., Axman D. Probabilistic Extension of Precision, Recall, and F1 Score for More Thorough Evaluation of Classification Models. In: Proceedings of the First Workshop on Evaluation and Comparison of NLP Systems, 20 November 2020, Virtual Event. Association for Computational Linguistics; 2020. P. 79–91. https://doi.org/10.18653/v1/2020.eval4nlp-1.9</mixed-citation>
      </ref>
      <ref id="cit13">
        <label>13</label>
        <mixed-citation xml:lang="ru">Chitraningrum N., Banowati L., Herdiana D., et al. Comparison Study of Corn Leaf Disease Detection Based on Deep Learning YOLO-v5 and YOLO-v8. Journal of Engineering and Technological Sciences. 2024;56(1):61–70. https://doi.org/10.5614/j.eng.technol.sci.2024.56.1.5</mixed-citation>
      </ref>
      <ref id="cit14">
        <label>14</label>
        <mixed-citation xml:lang="ru">Ogorodnikova O.M., Ali W. Method of Ripe Tomato Detecting for a Harvesting Robot. In: Physics, Technologies and Innovation (PTI-2019): Proceedings of the VI International Young Researchers' Conference, 20–23 May 2019, Ekaterinburg, Russia. American Institute of Physics; 2019. https://doi.org/10.1063/1.5134297</mixed-citation>
      </ref>
      <ref id="cit15">
        <label>15</label>
        <mixed-citation xml:lang="ru">Patruno C., Renò V., Nitti M., Mosca N., Di Summa M., Stella E. Vision-Based Omnidirectional Indoor Robots for Autonomous Navigation and Localization in Manufacturing Industry. Heliyon. 2024;10(4). https://doi.org/10.1016/j.heliyon.2024.e26042</mixed-citation>
      </ref>
    </ref-list>
    <fn-group>
      <fn fn-type="conflict">
        <p>The authors declare that there are no conflicts of interest present.</p>
      </fn>
    </fn-group>
  </back>
</article>