<?xml version="1.0" encoding="UTF-8"?>
<article article-type="research-article" dtd-version="1.3" xml:lang="ru" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:noNamespaceSchemaLocation="https://metafora.rcsi.science/xsd_files/journal3.xsd">
  <front>
    <journal-meta>
      <journal-id journal-id-type="publisher-id">moitvivt</journal-id>
      <journal-title-group>
        <journal-title xml:lang="ru">Моделирование, оптимизация и информационные технологии</journal-title>
        <trans-title-group xml:lang="en">
          <trans-title>Modeling, Optimization and Information Technology</trans-title>
        </trans-title-group>
      </journal-title-group>
      <issn pub-type="epub">2310-6018</issn>
      <publisher>
        <publisher-name>Издательство</publisher-name>
      </publisher>
    </journal-meta>
    <article-meta>
      <article-id pub-id-type="doi">10.26102/2310-6018/2020.30.3.018</article-id>
      <article-id pub-id-type="custom" custom-type="elpub">816</article-id>
      <title-group>
        <article-title xml:lang="ru">Малоранговые аппроксимации нейросетевых алгоритмов</article-title>
        <trans-title-group xml:lang="en">
          <trans-title>Low rank approximations for neural networks</trans-title>
        </trans-title-group>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author" corresp="yes">
          <contrib-id contrib-id-type="orcid">0000-0003-2792-7693</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Шапошникова</surname>
              <given-names>Нина Владимировна</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Shaposhnikova</surname>
              <given-names>Nina V.</given-names>
            </name>
          </name-alternatives>
          <email>shapninel@gmail.com</email>
          <xref ref-type="aff">aff-1</xref>
        </contrib>
      </contrib-group>
      <aff-alternatives id="aff-1">
        <aff xml:lang="ru">ФГБОУ ВО "Сибирский государственный университет науки и технологии имени академика М.Ф. Решетнева»</aff>
        <aff xml:lang="en">Federal State Budgetary Educational Institution of Higher Education «Reshetnev Siberian State University of Science and Technology»</aff>
      </aff-alternatives>
      <pub-date pub-type="epub">
        <day>01</day>
        <month>01</month>
        <year>2026</year>
      </pub-date>
      <volume>1</volume>
      <issue>1</issue>
      <elocation-id>10.26102/2310-6018/2020.30.3.018</elocation-id>
      <permissions>
        <copyright-statement>Copyright © Авторы, 2026</copyright-statement>
        <copyright-year>2026</copyright-year>
        <license license-type="creative-commons-attribution" xlink:href="https://creativecommons.org/licenses/by/4.0/">
          <license-p>This work is licensed under a Creative Commons Attribution 4.0 International License</license-p>
        </license>
      </permissions>
      <self-uri xlink:href="https://moitvivt.ru/ru/journal/article?id=816"/>
      <abstract xml:lang="ru">
        <p>На сегодняшний день искусственные нейронные сети (далее ИНС) и глубокое&#13;
обучение стали практически незаменимыми в приложениях, связанных с задачами&#13;
машинного зрения, машинного перевода, преобразования речи в текст, рубрикации текстов,&#13;
обработки видеоданных и т.д. Однако, несмотря на наличие ряда классических теорем,&#13;
обосновывающих аппроксимирующие способности нейросетевых структур, текущие успехи&#13;
в области ИНС в большинстве случаев связаны с эвристическим построением архитектуры&#13;
сети, применимой только для конкретной рассматриваемой задачи. С другой стороны,&#13;
глубокие ИНС имеют миллионы параметров и требуют для своего функционирования&#13;
мощные вычислительные устройства, что ограничивает возможности их применения,&#13;
например, на мобильных устройствах. Существенный прогресс в решении данных проблем&#13;
может быть получен при использовании современных мощных алгоритмов малоранговых&#13;
аппроксимаций для параметров слоев ИНС, что позволит как упростить процесс разработки&#13;
нейросетевой архитектуры, так и получить существенное сжатие и ускорение обучения&#13;
глубоких ИНС. Рассматривая, например, ядро сверточной ИНС, как четырехмерный массив&#13;
(тензор), мы можем построить для него малоранговую аппроксимацию с эффективной&#13;
реализацией его свертки с вектором (прямое распространение сигнала в сети при&#13;
формировании предсказания) и дифференцирования по параметрам (обратное&#13;
распространение сигнала в сети при обучении). В данной работе мы рассмотрим&#13;
современную парадигму машинного обучения и малоранговых тензорных аппроксимаций, и&#13;
на конкретном модельном численном примере, соответствующем задаче автоматического&#13;
распознавания рукописных цифр, продемонстрируем перспективы тензоризации глубоких&#13;
ИНС.</p>
      </abstract>
      <trans-abstract xml:lang="en">
        <p>Today, artificial neural networks (hereinafter ANN) and deep learning have become&#13;
almost indispensable in applications related to the tasks of machine vision, machine translation,&#13;
speech to text conversion, text rubrication, video processing, etc. However, despite the presence of&#13;
a number of classical theorems substantiating the approximating capabilities of neural network&#13;
structures, the current successes in the field of ANNs in most cases are associated with the heuristic construction of the network architecture applicable only for the specific problem under&#13;
consideration. On the other hand, deep ANNs have millions of parameters and require powerful&#13;
computing devices for their functioning, which limits the possibilities of their application, for&#13;
example, on mobile devices. Significant progress in solving these problems can be obtained using&#13;
modern powerful algorithms of low-rank approximations for the parameters of the ANN layers,&#13;
which will both simplify the process of developing a neural network architecture and will lead to&#13;
significant compression and acceleration of the training of deep ANNs. Considering, for example,&#13;
the core of the convolutional ANN as a four-dimensional array (tensor), we can construct a lowrank approximation for it with the effective implementation of its convolution with the vector (direct&#13;
signal propagation in the network when generating the prediction) and differentiation with respect&#13;
to the parameters (back signal propagation in the network when training). In this paper, we will&#13;
consider the modern paradigm of machine learning and low-rank tensor approximations, and we&#13;
will demonstrate the prospects for the tensorization of deep ANNs using a specific model numerical&#13;
example corresponding to the task of automatic recognition of handwritten digits.</p>
      </trans-abstract>
      <kwd-group xml:lang="ru">
        <kwd>машинное обучение</kwd>
        <kwd>нейронная сеть</kwd>
        <kwd>глубокая сверточная сеть</kwd>
        <kwd>малоранговая аппроксимация</kwd>
      </kwd-group>
      <kwd-group xml:lang="en">
        <kwd>machine learning</kwd>
        <kwd>neural network</kwd>
        <kwd>deep convolutional network</kwd>
        <kwd>low rank approximation</kwd>
      </kwd-group>
      <funding-group>
        <funding-statement xml:lang="ru">Исследование выполнено без спонсорской поддержки.</funding-statement>
        <funding-statement xml:lang="en">The study was performed without external funding.</funding-statement>
      </funding-group>
    </article-meta>
  </front>
  <back>
    <ref-list>
      <title>References</title>
      <ref id="cit1">
        <label>1</label>
        <mixed-citation xml:lang="ru">LeCun Y., Bengio Y., Hinton G. Deep learning. Nature. 2015;521(7553):436-444.</mixed-citation>
      </ref>
      <ref id="cit2">
        <label>2</label>
        <mixed-citation xml:lang="ru">Zhang C., Patras P., Haddadi H. Deep learning in mobile and wireless networking: A&#13;
survey. IEEE Communications Surveys &amp; Tutorials. 2019;21(3):2224-2287.</mixed-citation>
      </ref>
      <ref id="cit3">
        <label>3</label>
        <mixed-citation xml:lang="ru">Zhao Z., Zheng P., Xu S. Object detection with deep learning: A review. IEEE transactions&#13;
on neural networks and learning systems. 2019;30(11):3212-3232.</mixed-citation>
      </ref>
      <ref id="cit4">
        <label>4</label>
        <mixed-citation xml:lang="ru">Cybenko G. Approximation by superpositions of a sigmoidal function. Math. Control&#13;
Signals Systems. 1989;2(4):303–314.</mixed-citation>
      </ref>
      <ref id="cit5">
        <label>5</label>
        <mixed-citation xml:lang="ru">Hornik K. Approximation capabilities of multilayer feedforward networks. Neural&#13;
Networks. 1991;4(2):251–257.</mixed-citation>
      </ref>
      <ref id="cit6">
        <label>6</label>
        <mixed-citation xml:lang="ru">Cohen N., Sharir O., Shashua, A. On the expressive power of deep learning: a tensor&#13;
analysis. arXiv preprint. 2015;arXiv:1509.05009.&#13;
</mixed-citation>
      </ref>
      <ref id="cit7">
        <label>7</label>
        <mixed-citation xml:lang="ru">Cichocki A. Tensor networks for dimensionality reduction and large-scale optimization.&#13;
Foundations and Trends in Machine Learning. 2016;9.4-5.&#13;
</mixed-citation>
      </ref>
      <ref id="cit8">
        <label>8</label>
        <mixed-citation xml:lang="ru">Lebedev V. Speeding-up convolutional neural networks using fine-tuned cpdecomposition. arXiv preprint, 2014;arXiv:1412.6553.</mixed-citation>
      </ref>
      <ref id="cit9">
        <label>9</label>
        <mixed-citation xml:lang="ru">Novikov A., Podoprikhin D., Osokin A., Vetrov D. Tensorizing neural networks. In&#13;
Advances in neural information processing systems. 2015;442-450.&#13;
</mixed-citation>
      </ref>
      <ref id="cit10">
        <label>10</label>
        <mixed-citation xml:lang="ru">Deng L. The mnist database of handwritten digit images for machine learning research.&#13;
IEEE Signal Processing Magazine. 2012;29(6):141-142.</mixed-citation>
      </ref>
      <ref id="cit11">
        <label>11</label>
        <mixed-citation xml:lang="ru">Bottou L. Large-scale machine learning with stochastic gradient descent. In Proceedings of&#13;
COMPSTAT’2010. 2010;177–186.</mixed-citation>
      </ref>
      <ref id="cit12">
        <label>12</label>
        <mixed-citation xml:lang="ru">Rumelhart D., Hinton G., Williams R. Learning representations by back-propagating errors.&#13;
Nature. 1986;323(6088):533–538.</mixed-citation>
      </ref>
      <ref id="cit13">
        <label>13</label>
        <mixed-citation xml:lang="ru">Grasedyck L., Kressner D., Tobler C. A literature survey of low‐rank tensor approximation&#13;
techniques. GAMM‐Mitteilungen. 2013:36(1):53-78.</mixed-citation>
      </ref>
      <ref id="cit14">
        <label>14</label>
        <mixed-citation xml:lang="ru">Harshman R. Foundations of the Parafac procedure: Models and conditions for an&#13;
explanatory multimodal factor analysis. UCLA Working Papers in Phonetics. 1970;1–84.</mixed-citation>
      </ref>
      <ref id="cit15">
        <label>15</label>
        <mixed-citation xml:lang="ru">Tucker L. Some mathematical notes on three-mode factor analysis. Psychometrika.&#13;
1966;31:279–311.</mixed-citation>
      </ref>
      <ref id="cit16">
        <label>16</label>
        <mixed-citation xml:lang="ru">PyTorch, фреймворк машинного обучения [Электронный ресурс]. – Режим доступа:&#13;
https://pytorch.org – Дата доступа: 10.06.2020</mixed-citation>
      </ref>
      <ref id="cit17">
        <label>17</label>
        <mixed-citation xml:lang="ru">Colab, интерактивная облачная среда [Электронный ресурс]. – Режим доступа:&#13;
https://colab.research.google.com – Дата доступа: 10.06.2020</mixed-citation>
      </ref>
    </ref-list>
    <fn-group>
      <fn fn-type="conflict">
        <p>The authors declare that there are no conflicts of interest present.</p>
      </fn>
    </fn-group>
  </back>
</article>