<?xml version="1.0" encoding="UTF-8"?>
<article article-type="research-article" dtd-version="1.3" xml:lang="ru" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:noNamespaceSchemaLocation="https://metafora.rcsi.science/xsd_files/journal3.xsd">
  <front>
    <journal-meta>
      <journal-id journal-id-type="publisher-id">moitvivt</journal-id>
      <journal-title-group>
        <journal-title xml:lang="ru">Моделирование, оптимизация и информационные технологии</journal-title>
        <trans-title-group xml:lang="en">
          <trans-title>Modeling, Optimization and Information Technology</trans-title>
        </trans-title-group>
      </journal-title-group>
      <issn pub-type="epub">2310-6018</issn>
      <publisher>
        <publisher-name>Издательство</publisher-name>
      </publisher>
    </journal-meta>
    <article-meta>
      <article-id pub-id-type="doi">10.26102/2310-6018/2024.45.2.045</article-id>
      <article-id pub-id-type="custom" custom-type="elpub">1603</article-id>
      <title-group>
        <article-title xml:lang="ru">Интеллектуальная система управления движением квадрокоптера с помощью жестов рук</article-title>
        <trans-title-group xml:lang="en">
          <trans-title>Intelligent hand gesture-based quadcopter motion control system</trans-title>
        </trans-title-group>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author" corresp="yes">
          <contrib-id contrib-id-type="orcid">0000-0003-3057-9140</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Чернышев</surname>
              <given-names>Николай Николаевич</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Chernyshev</surname>
              <given-names>Nikolay Nikolaevich</given-names>
            </name>
          </name-alternatives>
          <email>chernyshev@mirea.ru</email>
          <xref ref-type="aff">aff-1</xref>
        </contrib>
        <contrib contrib-type="author">
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Шевченко</surname>
              <given-names>Михаил Андреевич</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Shevchenko</surname>
              <given-names>Mikhail Andreevich</given-names>
            </name>
          </name-alternatives>
          <email>shevchenko.m.a@edu.mirea.ru</email>
          <xref ref-type="aff">aff-2</xref>
        </contrib>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">0000-0001-6230-469X</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Ниженец</surname>
              <given-names>Татьяна Владимировна</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Nizhenets</surname>
              <given-names>Tatyana Vladimirovna</given-names>
            </name>
          </name-alternatives>
          <email>nizhenec@mirea.ru</email>
          <xref ref-type="aff">aff-3</xref>
        </contrib>
      </contrib-group>
      <aff-alternatives id="aff-1">
        <aff xml:lang="ru">МИРЭА – Российский технологический университет</aff>
        <aff xml:lang="en">MIREA – Russian Technological University</aff>
      </aff-alternatives>
      <aff-alternatives id="aff-2">
        <aff xml:lang="ru">МИРЭА – Российский технологический университет</aff>
        <aff xml:lang="en">MIREA – Russian Technological University</aff>
      </aff-alternatives>
      <aff-alternatives id="aff-3">
        <aff xml:lang="ru">МИРЭА – Российский технологический университет</aff>
        <aff xml:lang="en">MIREA – Russian Technological University</aff>
      </aff-alternatives>
      <pub-date pub-type="epub">
        <day>01</day>
        <month>01</month>
        <year>2026</year>
      </pub-date>
      <volume>1</volume>
      <issue>1</issue>
      <elocation-id>10.26102/2310-6018/2024.45.2.045</elocation-id>
      <permissions>
        <copyright-statement>Copyright © Авторы, 2026</copyright-statement>
        <copyright-year>2026</copyright-year>
        <license license-type="creative-commons-attribution" xlink:href="https://creativecommons.org/licenses/by/4.0/">
          <license-p>This work is licensed under a Creative Commons Attribution 4.0 International License</license-p>
        </license>
      </permissions>
      <self-uri xlink:href="https://moitvivt.ru/ru/journal/article?id=1603"/>
      <abstract xml:lang="ru">
        <p>Актуальность исследования обусловлена тем, что управление квадрокоптером с помощью жестов рук более естественно и интуитивно, чем использование традиционных пультов управления. Это позволяет пользователям с легкостью освоить управление и сосредоточиться на выполнении задачи, а не на технических аспектах управления. В свою очередь, разработка системы распознавания жестов требует совершенствования алгоритмов обработки изображений на основе машинного обучения. Данная статья направлена на исследование возможности реализации управления движением квадрокоптера с использованием жестов рук, в сочетании с современными нейросетевыми технологиями. Основным подходом в исследовании данной проблемы является применение сверточных и искусственных нейронных сетей для обработки изображений и выполнения задач компьютерного зрения. В работе также рассматриваются методы оптимизации гиперпараметров с помощью инструмента Optuna, использования TensorFlow Lite для реализации моделей машинного обучения на устройствах с ограниченными ресурсами и применение библиотеки MediaPipe для анализа жестов. Такие технологии, как Dropout и L2-регуляризация, используются для повышения эффективности моделей. Материалы статьи представляют практическую ценность для исследователей в области искусственного интеллекта и робототехники, разработчиков программного обеспечения и компаний, занимающихся разработкой беспилотных летательных аппаратов.</p>
      </abstract>
      <trans-abstract xml:lang="en">
        <p>The relevance of this research stems from the fact that controlling a drone using hand gestures is more natural and intuitive than using traditional joysticks. This allows users to easily learn control and focus on task execution rather than technical aspects of operation. In turn, developing a gesture recognition system requires advancements in machine learning-based image processing algorithms. This paper aims to investigate the feasibility of implementing drone motion control using hand gestures in conjunction with modern neural network technologies. The main approach in addressing this problem involves the application of convolutional artificial neural networks for image processing and computer vision tasks. The work also explores methods for hyperparameter optimization using the Optuna tool, the use of TensorFlow Lite for implementing machine learning models on resource-constrained devices, and the application of the MediaPipe library for gesture analysis. Technologies such as Dropout and L2-regularization are used to enhance model efficiency. The materials presented in this paper hold practical value for researchers in the fields of artificial intelligence and robotics, software developers, and companies involved in the development of unmanned aerial vehicles.</p>
      </trans-abstract>
      <kwd-group xml:lang="ru">
        <kwd>квадрокоптер</kwd>
        <kwd>жесты рук</kwd>
        <kwd>компьютерное зрение</kwd>
        <kwd>сверточные нейронные сети</kwd>
        <kwd>искусственные нейронные сети</kwd>
        <kwd>оптимизация гиперпараметров</kwd>
        <kwd>управление</kwd>
      </kwd-group>
      <kwd-group xml:lang="en">
        <kwd>quadcopter</kwd>
        <kwd>hand gestures</kwd>
        <kwd>computer vision</kwd>
        <kwd>convolutional neural networks</kwd>
        <kwd>artificial neural networks</kwd>
        <kwd>hyperparameter optimization</kwd>
        <kwd>control</kwd>
      </kwd-group>
      <funding-group>
        <funding-statement xml:lang="ru">Исследование выполнено без спонсорской поддержки.</funding-statement>
        <funding-statement xml:lang="en">The study was performed without external funding.</funding-statement>
      </funding-group>
    </article-meta>
  </front>
  <back>
    <ref-list>
      <title>References</title>
      <ref id="cit1">
        <label>1</label>
        <mixed-citation xml:lang="ru">Дудин Д.Е. Система управления движением беспилотного летательного аппарата на основе распознавания жестов рук. Юный ученый. 2024;(5):67–72.</mixed-citation>
      </ref>
      <ref id="cit2">
        <label>2</label>
        <mixed-citation xml:lang="ru">Sanna A., Lamberti F., Paravati G., Manuri F. A Kinect-Based Natural Interface for Quadrotor Control. Entertainment Computing. 2013;4(3):179–186. https://doi.org/10.1016/j.entcom.2013.01.001</mixed-citation>
      </ref>
      <ref id="cit3">
        <label>3</label>
        <mixed-citation xml:lang="ru">Zhao R., Wang K., Divekar R., Rouhani R., Su H., Ji Q. An Immersive System with Multi-Modal Human-Computer Interaction. In: 2018 13th IEEE International Conference on Automatic Face &amp; Gesture Recognition (FG 2018), 15-19 May 2018, Xi'an, China. IEEE; 2018. P. 517–524. https://doi.org/10.1109/FG.2018.00083</mixed-citation>
      </ref>
      <ref id="cit4">
        <label>4</label>
        <mixed-citation xml:lang="ru">Мурлин А.Г., Пиотровский Д.Л., Руденко Е.А., Янаева М.В. Алгоритм и методы обнаружения и распознавания жестов руки на видео в режиме реального времени. Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета. 2014;(97). URL: http://ej.kubagro.ru/2014/03/pdf/20.pdf</mixed-citation>
      </ref>
      <ref id="cit5">
        <label>5</label>
        <mixed-citation xml:lang="ru">Нагапетян В.Э., Хачумов В.М. Распознавание жестов руки в задаче бесконтактного управления беспилотным летательным аппаратом. Автометрия. 2015;51(2):103–109.</mixed-citation>
      </ref>
      <ref id="cit6">
        <label>6</label>
        <mixed-citation xml:lang="ru">Ярышев С.Н., Рыжова В.А. Технологии глубокого обучения и нейронных сетей в задачах видеоанализа. Санкт-Петербург: Университет ИТМО; 2022. 82 с.</mixed-citation>
      </ref>
      <ref id="cit7">
        <label>7</label>
        <mixed-citation xml:lang="ru">Чернышев Н.Н., Ниженец Т.В. Алгоритм планирования пути в трехмерной детерминированной среде с препятствиями на основе метода роя частиц. Вестник Воронежского государственного технического университета. 2022;18(6):7–14. https://doi.org/10.36622/VSTU.2022.18.6.001</mixed-citation>
      </ref>
      <ref id="cit8">
        <label>8</label>
        <mixed-citation xml:lang="ru">Булыгин Д.А., Мамонова Т.Е. Распознавание жестов рук в режиме реального времени. Научный вестник Новосибирского государственного технического университета. 2020;(1):25–40. https://doi.org/10.17212/1814-1196-2020-1-25-40</mixed-citation>
      </ref>
      <ref id="cit9">
        <label>9</label>
        <mixed-citation xml:lang="ru">Dhawale P., Masoodian M., Rogers B. Bare-hand 3D gesture input to interactive systems. In: CHINZ '06: Proceedings of the 7th ACM SIGCHI New Zealand Chapter's International Conference on Computer-human Interaction: Design Centered HCI, 6-7 July 2006, Christchurch, New Zealand. New York: Association for Computing Machinery; 2006. P. 25–32. https://doi.org/10.1145/1152760.1152764</mixed-citation>
      </ref>
      <ref id="cit10">
        <label>10</label>
        <mixed-citation xml:lang="ru">Чудновский М.М. Алгоритм распознавания жестов руки человека на видеопоследовательности в режиме реального времени для реализации интерфейсов человеко-машинного взаимодействия. Вестник Сибирского государственного аэрокосмического университета имени академика М.Ф. Решетнева. 2014;(3):162–167.</mixed-citation>
      </ref>
    </ref-list>
    <fn-group>
      <fn fn-type="conflict">
        <p>The authors declare that there are no conflicts of interest present.</p>
      </fn>
    </fn-group>
  </back>
</article>