<?xml version="1.0" encoding="UTF-8"?>
<article article-type="research-article" dtd-version="1.3" xml:lang="ru" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:noNamespaceSchemaLocation="https://metafora.rcsi.science/xsd_files/journal3.xsd">
  <front>
    <journal-meta>
      <journal-id journal-id-type="publisher-id">moitvivt</journal-id>
      <journal-title-group>
        <journal-title xml:lang="ru">Моделирование, оптимизация и информационные технологии</journal-title>
        <trans-title-group xml:lang="en">
          <trans-title>Modeling, Optimization and Information Technology</trans-title>
        </trans-title-group>
      </journal-title-group>
      <issn pub-type="epub">2310-6018</issn>
      <publisher>
        <publisher-name>Издательство</publisher-name>
      </publisher>
    </journal-meta>
    <article-meta>
      <article-id pub-id-type="doi">10.26102/2310-6018/2025.50.3.036</article-id>
      <article-id pub-id-type="custom" custom-type="elpub">2020</article-id>
      <title-group>
        <article-title xml:lang="ru">Программный комплекс улучшения качества распознавания номерных знаков на основе нейросетевых моделей суперрезолюции</article-title>
        <trans-title-group xml:lang="en">
          <trans-title>Software for improving the quality of license plate recognition based on super-resolution neural network models</trans-title>
        </trans-title-group>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author" corresp="yes">
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Ахметов</surname>
              <given-names>Линар Марселевич</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Akhmetov</surname>
              <given-names>Linar Marselevich</given-names>
            </name>
          </name-alternatives>
          <email>sib@kai.ru</email>
          <xref ref-type="aff">aff-1</xref>
        </contrib>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">0000-0001-9478-4894</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Аникин</surname>
              <given-names>Игорь Вячеславович</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Anikin</surname>
              <given-names>Igor Vyacheslavovich</given-names>
            </name>
          </name-alternatives>
          <email>anikinigor777@mail.ru</email>
          <xref ref-type="aff">aff-2</xref>
        </contrib>
      </contrib-group>
      <aff-alternatives id="aff-1">
        <aff xml:lang="ru">Казанский национальный исследовательский технический университет им. А. Н. Туполева-КАИ</aff>
        <aff xml:lang="en">Kazan national research technical university named after A. N. Tupilev-KAI</aff>
      </aff-alternatives>
      <aff-alternatives id="aff-2">
        <aff xml:lang="ru">Казанский национальный исследовательский технический университет им. А. Н. Туполева-КАИ</aff>
        <aff xml:lang="en">Kazan national research technical university named after A. N. Tupilev-KAI</aff>
      </aff-alternatives>
      <pub-date pub-type="epub">
        <day>01</day>
        <month>01</month>
        <year>2026</year>
      </pub-date>
      <volume>1</volume>
      <issue>1</issue>
      <elocation-id>10.26102/2310-6018/2025.50.3.036</elocation-id>
      <permissions>
        <copyright-statement>Copyright © Авторы, 2026</copyright-statement>
        <copyright-year>2026</copyright-year>
        <license license-type="creative-commons-attribution" xlink:href="https://creativecommons.org/licenses/by/4.0/">
          <license-p>This work is licensed under a Creative Commons Attribution 4.0 International License</license-p>
        </license>
      </permissions>
      <self-uri xlink:href="https://moitvivt.ru/ru/journal/article?id=2020"/>
      <abstract xml:lang="ru">
        <p>Распознавание государственных регистрационных знаков (ГРЗ) является одной из ключевых задач для интеллектуальных транспортных систем. На практике такие факторы, как размытие, шум, неблагоприятные погодные условия или съемка с большого расстояния, приводят к получению изображений низкого разрешения (Low Resolution, LR), что существенно снижает надежность распознавания. Перспективным решением данной проблемы является применение методов суперрезолюции (Super-Resolution, SR), способных восстанавливать изображения высокого разрешения (High Resolution, HR) из соответствующих им LR-версий.  Настоящая работа посвящена исследованию и разработке программного комплекса, использующего нейросетевые модели суперрезолюции для улучшения качества и точности распознавания номерных знаков. Программный комплекс реализует нейросетевые архитектуры обнаружения объектов YOLO (You Only Look Once), алгоритм трекинга объектов SORT (Simple Online and Realtime Tracking) и модели суперрезолюции для улучшения изображений номерных знаков. Такой подход обеспечивает достижение высокой точности распознавания ГРЗ даже при работе с изображениями, полученными в сложных условиях съемки, характеризующихся низким качеством или разрешением. Результаты экспериментов демонстрируют, что предложенный подход способен повысить точность распознавания ГРЗ на изображениях низкого разрешения. Качество восстановления изображений оценивалось с использованием метрик PSNR и SSIM, подтвердивших улучшение визуальных характеристик номерных знаков для наиболее эффективных моделей. Разработанный программный комплекс обладает широким потенциалом практического применения и может быть интегрирован в различные системы, например, для контроля доступа на охраняемые территории, мониторинга и анализа дорожного движения, автоматизации парковочных комплексов, а также в составе решений для обеспечения общественной безопасности. Гибкость реализованной архитектуры позволяет адаптировать систему под специфические требования с модификациями, что подчеркивает ее универсальность и практическую значимость.</p>
      </abstract>
      <trans-abstract xml:lang="en">
        <p>Recognition of license plates (LP) is one of the key tasks for intelligent transport systems. In practice, such factors as blur, noise, adverse weather conditions or shooting from a long distance lead to obtaining low-resolution (LR) images, which significantly reduces the reliability of recognition. A promising solution to this problem is the use of super-resolution (SR) methods capable of restoring high-resolution (HR) images from the corresponding LR versions. This paper is devoted to the research and development of a software package using neural network super-resolution models to improve the quality and accuracy of LP recognition. The software package implements the YOLO (You Only Look Once) neural network architectures for object detection, the SORT (Simple Online and Realtime Tracking) object tracking algorithm and super-resolution models to improve LP images. This approach ensures high accuracy of LP recognition even when working with images obtained in difficult shooting conditions characterized by low quality or resolution. The experimental results demonstrate that the proposed approach can improve the accuracy of LP recognition in low-resolution images. The image restoration quality was assessed using the PSNR and SSIM metrics, which confirmed the improvement of the visual characteristics of LP for the most effective models. The developed software package has a wide potential for practical application and can be integrated into various systems, for example, for access control to protected areas, traffic monitoring and analysis, automation of parking complexes, as well as as part of solutions for ensuring public safety. The flexibility of the implemented architecture allows you to adapt the system to specific requirements with modifications, which emphasizes its versatility and practical significance.</p>
      </trans-abstract>
      <kwd-group xml:lang="ru">
        <kwd>распознавание номерных знаков</kwd>
        <kwd>машинное зрение</kwd>
        <kwd>глубокие нейронные сети</kwd>
        <kwd>суперрезолюция</kwd>
        <kwd>обнаружение объектов</kwd>
        <kwd>трекинг объектов</kwd>
      </kwd-group>
      <kwd-group xml:lang="en">
        <kwd>license plates recognition</kwd>
        <kwd>computer vision</kwd>
        <kwd>deep neural networks</kwd>
        <kwd>superresolution</kwd>
        <kwd>objects detection</kwd>
        <kwd>objects tracking</kwd>
      </kwd-group>
      <funding-group>
        <funding-statement xml:lang="ru">Исследование выполнено без спонсорской поддержки.</funding-statement>
        <funding-statement xml:lang="en">The study was performed without external funding.</funding-statement>
      </funding-group>
    </article-meta>
  </front>
  <back>
    <ref-list>
      <title>References</title>
      <ref id="cit1">
        <label>1</label>
        <mixed-citation xml:lang="ru">Vašek V., Franc V., Urban M. License Plate Recognition and Super-Resolution from Low-Resolution Videos by Convolutional Neural Networks. In: BMVC 2018: Proceedings of British Machine Vision Conference, 03–06 September 2018, Newcastle, UK. BMVA Press; 2018. URL: http://bmvc2018.org/contents/papers/0537.pdf</mixed-citation>
      </ref>
      <ref id="cit2">
        <label>2</label>
        <mixed-citation xml:lang="ru">Tian Yu., Ye Q., Doermann D. YOLOv12: Attention-Centric Real-Time Object Detectors. arXiv. URL: https://arxiv.org/abs/2502.12524 [Accessed 15th June 2025].</mixed-citation>
      </ref>
      <ref id="cit3">
        <label>3</label>
        <mixed-citation xml:lang="ru">Jaderberg M., Simonyan K., Zisserman A., Kavukcuoglu K. Spatial Transformer Networks. In: Advances in Neural Information Processing Systems 28: Annual Conference on Neural Information Processing Systems 2015, 07–12 December 2015, Montreal, QC, Canada. 2015. P. 2017–2025.</mixed-citation>
      </ref>
      <ref id="cit4">
        <label>4</label>
        <mixed-citation xml:lang="ru">Zherzdev S., Gruzdev A. LPRNet: License Plate Recognition via Deep Neural Networks. arXiv. URL: https://arxiv.org/abs/1806.10447 [Accessed 15th June 2025].</mixed-citation>
      </ref>
      <ref id="cit5">
        <label>5</label>
        <mixed-citation xml:lang="ru">Ledig Ch., Theis L., Huszár F., et al. Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network. In: 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 21–26 July 2017, Honolulu, HI, USA. IEEE; 2017. P. 105–114. https://doi.org/10.1109/CVPR.2017.19</mixed-citation>
      </ref>
      <ref id="cit6">
        <label>6</label>
        <mixed-citation xml:lang="ru">Wang X., Yu K., Wu Sh., et al. ESRGAN: Enhanced Super-Resolution Generative Adversarial Networks. In: Computer Vision – ECCV 2018 Workshops: Proceedings: Part V, 08–14 September 2018, Munich, Germany. Cham: Springer; 2018. P. 63–79. https://doi.org/10.1007/978-3-030-11021-5_5</mixed-citation>
      </ref>
      <ref id="cit7">
        <label>7</label>
        <mixed-citation xml:lang="ru">Zhang K., Liang J., Van Gool L., Timofte R. Designing a Practical Degradation Model for Deep Blind Image Super-Resolution. In: 2021 IEEE/CVF International Conference on Computer Vision (ICCV), 10–17 October 2021, Montreal, QC, Canada. IEEE; 2021. P. 4771–4780. https://doi.org/10.1109/ICCV48922.2021.00475</mixed-citation>
      </ref>
      <ref id="cit8">
        <label>8</label>
        <mixed-citation xml:lang="ru">Soviany P., Ardei C., Ionescu R.T., Leordeanu M. Image Difficulty Curriculum for Generative Adversarial Networks (CuGAN). In: 2020 IEEE Winter Conference on Applications of Computer Vision (WACV), 01–05 March 2020, Snowmass, CO, USA. IEEE; 2020. P. 3452–3461. https://doi.org/10.1109/WACV45572.2020.9093408</mixed-citation>
      </ref>
      <ref id="cit9">
        <label>9</label>
        <mixed-citation xml:lang="ru">Dosovitskiy A., Beyer L., Kolesnikov A., et al. An Image Is Worth 16×16 Words: Transformers for Image Recognition at Scale. In: ICLR 2021: 9th International Conference on Learning Representations, 03–07 May 2021, Virtual Event, Austria. 2021. URL: https://arxiv.org/abs/2010.11929</mixed-citation>
      </ref>
      <ref id="cit10">
        <label>10</label>
        <mixed-citation xml:lang="ru">Bu Q., Park S., Khang M., Cheng Yi. SRFormer: Text Detection Transformer with Incorporated Segmentation and Regression. In: Thirty-Eighth AAAI Conference on Artificial Intelligence, AAAI 2024, Thirty-Sixth Conference on Innovative Applications of Artificial Intelligence, IAAI 2024, Fourteenth Symposium on Educational Advances in Artificial Intelligence, EAAI 2014, 20–27 February 2024, Vancouver, Canada. AAAI Press; 2024. P. 855–863.</mixed-citation>
      </ref>
      <ref id="cit11">
        <label>11</label>
        <mixed-citation xml:lang="ru">Chen X., Wang X., Zhou J., Qiao Yu, Dong Ch. Activating More Pixels in Image Super-Resolution Transformer. In: 2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 17–24 June 2023, Vancouver, BC, Canada. IEEE; 2023. P. 22367–22377. https://doi.org/10.1109/CVPR52729.2023.02142</mixed-citation>
      </ref>
      <ref id="cit12">
        <label>12</label>
        <mixed-citation xml:lang="ru">Mou Ch., Wu Ya., Wang X., Dong Ch., Zhang J., Shan Yi. Metric Learning Based Interactive Modulation for Real-World Super-Resolution. In: Computer Vision – ECCV 2022: 17th European Conference: Proceedings: Part XVII, 23–27 October 2022, Tel Aviv, Israel. Cham: Springer; 2022. P. 723–740. https://doi.org/10.1007/978-3-031-19790-1_43</mixed-citation>
      </ref>
      <ref id="cit13">
        <label>13</label>
        <mixed-citation xml:lang="ru">Liu K., Jiang Yi., Choi I., Gu J. Learning Image-Adaptive Codebooks for Class-Agnostic Image Restoration. In: 2023 IEEE/CVF International Conference on Computer Vision (ICCV), 01–06 October 2023, Paris, France. IEEE; 2023. P. 5350–5360. https://doi.org/10.1109/ICCV51070.2023.00495</mixed-citation>
      </ref>
    </ref-list>
    <fn-group>
      <fn fn-type="conflict">
        <p>The authors declare that there are no conflicts of interest present.</p>
      </fn>
    </fn-group>
  </back>
</article>