<?xml version="1.0" encoding="UTF-8"?>
<article article-type="research-article" dtd-version="1.3" xml:lang="ru" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:noNamespaceSchemaLocation="https://metafora.rcsi.science/xsd_files/journal3.xsd">
  <front>
    <journal-meta>
      <journal-id journal-id-type="publisher-id">moitvivt</journal-id>
      <journal-title-group>
        <journal-title xml:lang="ru">Моделирование, оптимизация и информационные технологии</journal-title>
        <trans-title-group xml:lang="en">
          <trans-title>Modeling, Optimization and Information Technology</trans-title>
        </trans-title-group>
      </journal-title-group>
      <issn pub-type="epub">2310-6018</issn>
      <publisher>
        <publisher-name>Издательство</publisher-name>
      </publisher>
    </journal-meta>
    <article-meta>
      <article-id pub-id-type="doi"/>
      <article-id pub-id-type="custom" custom-type="elpub">434</article-id>
      <title-group>
        <article-title xml:lang="ru">СВЕДЕНИЕ ЗАДАЧИ ОТБОРА ИНФОРМАТИВНЫХ РЕГРЕССОРОВ ПРИ ОЦЕНИВАНИИ ЛИНЕЙНОЙ РЕГРЕССИОННОЙ МОДЕЛИ ПО МЕТОДУ НАИМЕНЬШИХ КВАДРАТОВ К ЗАДАЧЕ ЧАСТИЧНО-БУЛЕВОГО ЛИНЕЙНОГО ПРОГРАММИРОВАНИЯ</article-title>
        <trans-title-group xml:lang="en">
          <trans-title>REDUCTION THE PROBLEM OF SELECTING INFORMATIVE REGRESSORS WHEN ESTIMATING A LINEAR REGRESSION MODEL BY THE METHOD OF LEAST SQUARES TO THE PROBLEM OF PARTIAL-BOOLEAN LINEAR PROGRAMMING</trans-title>
        </trans-title-group>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author" corresp="yes">
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Базилевский</surname>
              <given-names>Михаил Павлович</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Bazilevsky</surname>
              <given-names>Mikhail Pavlovich</given-names>
            </name>
          </name-alternatives>
          <email>mik2178@yandex.ru</email>
          <xref ref-type="aff">aff-1</xref>
        </contrib>
      </contrib-group>
      <aff-alternatives id="aff-1">
        <aff xml:lang="ru">Иркутский государственный университет путей сообщения</aff>
        <aff xml:lang="en">Irkutsk State Transport University</aff>
      </aff-alternatives>
      <pub-date pub-type="epub">
        <day>01</day>
        <month>01</month>
        <year>2026</year>
      </pub-date>
      <volume>1</volume>
      <issue>1</issue>
      <elocation-id>e434</elocation-id>
      <permissions>
        <copyright-statement>Copyright © Авторы, 2026</copyright-statement>
        <copyright-year>2026</copyright-year>
        <license license-type="creative-commons-attribution" xlink:href="https://creativecommons.org/licenses/by/4.0/">
          <license-p>This work is licensed under a Creative Commons Attribution 4.0 International License</license-p>
        </license>
      </permissions>
      <self-uri xlink:href="https://moitvivt.ru/ru/journal/article?id=434"/>
      <abstract xml:lang="ru">
        <p>Одной из главных проблем в регрессионном анализе является проблема выбора структурной спецификации регрессионной модели, т.е. выбора состава переменных и математической формы связи между ними. В случае линейной регрессионной модели такая задача сводится только лишь к отбору наиболее информативных регрессоров. Точное решение задачи отбора информативных регрессоров при оценивании линейной регрессии с помощью метода наименьших квадратов может быть получено либо алгоритмом полного перебора, либо посредством введения в рассмотрение булевых переменных и последующем решении весьма непростой вычислительной задачи частично-булевого квадратичного программирования. В данной статье задача отбора информативных регрессоров в линейной регрессии, оцениваемой с помощью метода наименьших квадратов, сведена к задаче частично-булевого линейного программирования, решение которой не вызывает никаких затруднений при использовании соответствующих пакетов программ. Новая постановка задачи предполагает для оценивания неизвестных параметров линейной регрессионной модели производить предварительное нормирование всех переменных с целью нахождения бета-коэффициентов стандартизованной регрессии. Бета-коэффициенты определяются по известной интеркорреляционной матрице и вектору корреляций между зависимой переменной и независимыми факторами. Для оценки адекватности линейной регрессии применяется коэффициент детерминации.</p>
      </abstract>
      <trans-abstract xml:lang="en">
        <p>One of the main problems in regression analysis is the problem of choosing the&#13;
structural specification of the regression model, i.e. the choice of the composition of variables&#13;
and the mathematical form of the connection between them. In the case of a linear regression&#13;
model, this task is reduced only to the selection of the most informative regressors. The exact&#13;
solution of the problem of selecting informative regressors when evaluating linear regression&#13;
using the least squares method can be obtained either by a complete search algorithm or by&#13;
introducing Boolean variables into consideration and then solving a very complicated&#13;
computational problem of partial Boolean quadratic programming. In this paper, the problem&#13;
of selecting informative regressors in a linear regression estimated using the least squares&#13;
method is reduced to the problem of partial-boolean linear programming, the solution of&#13;
which does not cause any difficulties when using the corresponding software packages. The&#13;
new formulation of the problem assumes the preliminary normalization of all variables for&#13;
estimating the unknown parameters of the linear regression model in order to find the beta&#13;
coefficients of the standardized regression. Beta coefficients are determined from the known&#13;
intercorrelation matrix and the correlation vector between the dependent variable and the&#13;
independent factors. To assess the adequacy of linear regression, the determination&#13;
coefficient is applied.</p>
      </trans-abstract>
      <kwd-group xml:lang="ru">
        <kwd>регрессионная модель</kwd>
        <kwd>метод наименьших квадратов</kwd>
        <kwd>отбор информативных регрессоров</kwd>
        <kwd>задача частично-булевого линейного программирования</kwd>
        <kwd>стандартизованная регрессия</kwd>
        <kwd>коэффициент корреляции</kwd>
        <kwd>критерий детерминации</kwd>
      </kwd-group>
      <kwd-group xml:lang="en">
        <kwd>regression model</kwd>
        <kwd>least squares method</kwd>
        <kwd>selection of informative regressors</kwd>
        <kwd>partial boolean linear programming problem</kwd>
        <kwd>standardized regression</kwd>
        <kwd>correlation coefficient</kwd>
        <kwd>determination criterion</kwd>
      </kwd-group>
      <funding-group>
        <funding-statement xml:lang="ru">Исследование выполнено без спонсорской поддержки.</funding-statement>
        <funding-statement xml:lang="en">The study was performed without external funding.</funding-statement>
      </funding-group>
    </article-meta>
  </front>
  <back>
    <ref-list>
      <title>References</title>
      <ref id="cit1">
        <label>1</label>
        <mixed-citation xml:lang="ru">Miller, A.J. Subset selection in regression / A.J. Miller. – Chapman &amp;&#13;
Hall/CRC, 2002. – p. 247.</mixed-citation>
      </ref>
      <ref id="cit2">
        <label>2</label>
        <mixed-citation xml:lang="ru">Burnham, K.P. Model selection and multimodel inference: a practical&#13;
information theoretic approach / K.P. Burnham, D.R. Anderson. – Springer,&#13;
2002. – P. 515.</mixed-citation>
      </ref>
      <ref id="cit3">
        <label>3</label>
        <mixed-citation xml:lang="ru">Себер, Дж. Линейный регрессионный анализ / Дж. Себер. – М.:&#13;
Издательство «Мир», 1980. – 456 с</mixed-citation>
      </ref>
      <ref id="cit4">
        <label>4</label>
        <mixed-citation xml:lang="ru">Стрижов, В.В. Методы выбора регрессионных моделей / В.В. Стрижов,&#13;
Е.А. Крымова. – М.: Вычислительный центр РАН, 2010. – 60 с.</mixed-citation>
      </ref>
      <ref id="cit5">
        <label>5</label>
        <mixed-citation xml:lang="ru">Liu, H. Computational methods of feature selection / H. Liu, H. Motoda. –&#13;
Chapman and Hall/CRC, 2007. – 419 p</mixed-citation>
      </ref>
      <ref id="cit6">
        <label>6</label>
        <mixed-citation xml:lang="ru">Guyon, I. An introduction to variable and feature selection / I. Guyon, A.&#13;
Elisseeff // Journal of machine learning research, 2003. – Vol. 3. – Pp. 1157-&#13;
1182.</mixed-citation>
      </ref>
      <ref id="cit7">
        <label>7</label>
        <mixed-citation xml:lang="ru">Ивахненко, А.Г. Индуктивный метод самоорганизации моделей&#13;
сложных систем / А.Г. Ивахненко. – Киев: Наукова думка, 1981. – 296 с.</mixed-citation>
      </ref>
      <ref id="cit8">
        <label>8</label>
        <mixed-citation xml:lang="ru">Konno, H. Choosing the best set of variables in regression analysis using&#13;
integer programming / H. Konno, R. Yamamoto // Journal of Global&#13;
Optimization, 2009. Vol. 44, no. 2, pp. 272-282.</mixed-citation>
      </ref>
      <ref id="cit9">
        <label>9</label>
        <mixed-citation xml:lang="ru">Park, Y.W. Subset selection for multiple linear regression via optimization /&#13;
Y.W. Park, D. Klabjan // Technical report, 2013. Available from&#13;
http://www.klabjan.dynresmanagement.com.</mixed-citation>
      </ref>
      <ref id="cit10">
        <label>10</label>
        <mixed-citation xml:lang="ru">Tamura, R. Mixed integer quadratic optimization formulations for&#13;
eliminating multicollinearity based on variance inflation factor / R. Tamura,&#13;
K. Kobayashi, Y. Takano, R. Miyashiro, K. Nakata, T. Matsui //&#13;
Optimization online, 2016. Available from http://www.optimizationonline.org/DB_HTML/2016/09/5655.html.</mixed-citation>
      </ref>
      <ref id="cit11">
        <label>11</label>
        <mixed-citation xml:lang="ru">Chung, S. A mathematical programming approach for integrated multiple&#13;
linear regression subset selection and validation / S. Chung, Y.W. Park, T.&#13;
Cheong. arXiv.org, 2017. Available from https://arxiv.org/abs/1712.04543.</mixed-citation>
      </ref>
      <ref id="cit12">
        <label>12</label>
        <mixed-citation xml:lang="ru">Miyashiro, R. Mixed integer second-order cone programming formulations&#13;
for variable selection / R. Miyashiro, Y. Takano // Technical Report, 2013.&#13;
Available from http://www.me.titech.ac.jp/technicalreport/h25/2013-7.pdf.</mixed-citation>
      </ref>
      <ref id="cit13">
        <label>13</label>
        <mixed-citation xml:lang="ru">Miyashiro, R. Subset selection by Mallows’ Cp: a mixed integer&#13;
programming approach / R. Miyashiro, Y. Takano. Technical report, 2014.&#13;
Available from http://www.me.titech.ac.jp/technicalreport/h26/2014-1.pdf.</mixed-citation>
      </ref>
      <ref id="cit14">
        <label>14</label>
        <mixed-citation xml:lang="ru">Носков, С.И. Технология моделирования объектов с нестабильным&#13;
функционированием и неопределенностью в данных / С.И. Носков. –&#13;
Иркутск: РИЦ ГП «Облинформпечать», 1996. – 321 с.</mixed-citation>
      </ref>
      <ref id="cit15">
        <label>15</label>
        <mixed-citation xml:lang="ru">Елисеева И.И. Эконометрика / И.И. Елисеева, С.В. Курышева, Т.В.&#13;
Костеева и др. – М.: Финансы и статистика, 2007. – 576 с.</mixed-citation>
      </ref>
      <ref id="cit16">
        <label>16</label>
        <mixed-citation xml:lang="ru">Фёрстер, Э. Методы корреляционного и регрессионного анализа / Э.&#13;
Фёрстер, Б. Рёнц. – М.: Финансы и статистика, 1983. – 303 с.</mixed-citation>
      </ref>
    </ref-list>
    <fn-group>
      <fn fn-type="conflict">
        <p>The authors declare that there are no conflicts of interest present.</p>
      </fn>
    </fn-group>
  </back>
</article>