Анализ методов обеспечения безопасности систем машинного обучения
Работая с нашим сайтом, вы даете свое согласие на использование файлов cookie. Это необходимо для нормального функционирования сайта, показа целевой рекламы и анализа трафика. Статистика использования сайта отправляется в «Яндекс» и «Google»
Научный журнал Моделирование, оптимизация и информационные технологииThe scientific journal Modeling, Optimization and Information Technology
cетевое издание
issn 2310-6018

Анализ методов обеспечения безопасности систем машинного обучения

Бобров Н.Д.,  idЧекмарев М.А., Клюев С.Г. 

УДК 004.056.53
DOI: 10.26102/2310-6018/2022.36.1.006

  • Аннотация
  • Список литературы
  • Об авторах

Применение систем машинного обучения является эффективным способом решения задач, оперирующих с большими объемами данных, что способствует их повсеместному внедрению в различные сферы деятельности. Вместе с тем, в настоящее время такие системы уязвимы перед злонамеренными манипуляциями, которые могут привести к нарушению целостности и конфиденциальности, что подтверждается внесением данных угроз Федеральной службой по техническому и экспертному контролю (ФСТЭК России) в Банк данных угроз безопасности информации в декабре 2020 года. В этих условиях обеспечение безопасного применения систем машинного обучения на всех этапах жизненного цикла является важной задачей. Этим обусловлена актуальность исследования. В статье рассмотрены существующие методы обеспечения безопасности, предлагаемые различными исследователями и описанные в научной литературе, их недостатки и перспективы дальнейшего применения. В связи с этим данная обзорная статья направлена на определение проблем исследования в области обеспечения безопасности систем машинного обучения с целью дальнейшей разработки технических и научных решений по данному вопросу. Материалы статьи представляют практическую ценность для специалистов по информационной безопасности и разработчиков систем машинного обучения.

1. Чекмарев М.А., Клюев С.Г., Шадский В.В. Моделирование нарушений безопасности в системах машинного обучения. Научно-технический вестник информационных технологий, механики и оптики. 2021;21(4):592–598. DOI: 10.17586/2226-1494-2021-21-4-592–598.

2. Nelson B., Barreno M., Chi F.J., Joseph A.D., Rubinstein B.I.P., Saini U., Sutton C., Tygar J.D., Xia K. Exploiting machine learning to subvert your spam filter. Proc. of First USENIX Workshop on Large-Scale Exploits and Emergent Threats. 2008. Доступно по: https://people.eecs.berkeley.edu/~tygar/papers/SML/Spam_filter.pdf (дата обращения: 09.12.2021).

3. Biggio B., Nelson B., Laskov P. Poisoning attacks against support vector machines. Proc. of the 29th International Conference on Machine Learning (ICML 2012). 2012;1807–1814. Доступно по: https://icml.cc/2012/papers/880.pdf (дата обращения: 09.12.2021).

4. Gu, Tianyu & Liu, Kang & Dolan-Gavitt, Brendan & Garg, Siddharth. BadNets: Evaluating Backdooring Attacks on Deep Neural Networks. IEEE Access. 2019;7:47230–47244. DOI: 10.1109/ACCESS.2019.2909068.

5. Koh P., Steinhardt J., Liang P. Stronger Data Poisoning Attacks Break Data Sanitization Defenses. arXiv preprint arXiv: 1811.00741, 208. Режим доступа: https://arxiv.org/pdf/1811.00741.pdf (дата обращения: 09.12.2021).

6. Huang X., Kwiatkowska M., Wang S., Wu M. Safety Verification of Deep Neural Networks. Computer Aided Verification. CAV 2017. Lecture Notes in Computer Science. 2017;10426. DOI: 10.1007/978-3-319-63387-9_1.

7. Tjeng V., Xiao K., Tedrake R. Evaluating Robustness of Neural Networks with Mixed Integer Programming. arXiv preprint arXiv: 1711.07356. Режим доступа: https://arxiv.org/pdf/1711.07356 (дата обращения: 09.12.2021).

8. Madry A., Makelov A., Schmidt L., Tsipras D., Vladu A. Towards Deep Learning Models Resistant to Adversarial Attacks. arXiv preprint arXiv: 1706.06083. Режим доступа: https://arxiv.org/pdf/1706.06083 (дата обращения: 09.12.2021).

9. Carlini N., Wagner D. Defensive Distillation is Not Robust to Adversarial Examples. arXiv preprint arXiv: 1607.04311. Режим доступа: https://arxiv.org/pdf/1607.04311 (дата обращения: 09.12.2021).

10. Goodfellow I., Shlens J., Szegedy C. Explaining and harnessing adversarial examples. arXiv preprint arXiv: 1412.6572. Режим доступа: https://arxiv.org/pdf/1412.6572 (дата обращения: 09.12.2021).

11. Paudice A., Muñoz-González L., György A., Lupu E. Detection of Adversarial Training Examples in Poisoning Attacks through Anomaly Detection. arXiv preprint arXiv: 1802.03041. Режим доступа: https://arxiv.org/pdf/1802.03041 (дата обращения: 09.12.2021).

12. Steinhardt J., Koh P.W., Liang P. Certified defenses for data poisoning attacks. Advances in Neural Information Processing Systems. 2017;30:3518–3530.

13. Nelson B., Barreno M., Jack Chi F., Joseph A.D., Rubinstein BIP, Saini U., Sutton C., Tygar JD, Xia K. Misleading learners: co-opting your spam filter. Springer. 2009;17–51. DOI: 10.1007/978-0-387-88735-7_2.

14. Suciu O., Marginean R., Kaya Y., Daumé H., Dumitras T. Technical Report: When Does Machine Learning FAIL? Generalized Transferability for Evasion and Poisoning Attacks. arXiv preprint arXiv: 1803.06975v2. Режим доступа: https://arxiv.org/pdf/1803.06975.pdf (дата обращения: 09.12.2021).

15. Carlini N., Liu C., Erlingsson Ú., Kos J., Song D. The secret sharer: Evaluating and testing unintended memorization in neural networks. Proc. of the 28th USENIX Security Symposium. 2019;267–284.

16. Ateniese G., Mancini L.V., Spognardi A., Villani A., Vitali D., Felici G. Hacking smart machines with smarter ones: How to extract meaningful data from machine learning classifiers. International Journal of Security and Networks. 2015;10(3):137–150. DOI: 10.1504/IJSN.2015.071829.

17. Tramèr F., Zhang F., Juels A., Reiter M.K., Ristenpart T. Stealing machine learning models via prediction APIs. Proc. of the 25th USENIX Conference on Security Symposium. 2016;601–608.

18. Fredrikson M., Jha S., Ristenpart T. Model inversion attacks that exploit confidence information and basic countermeasures. Proc. of the 22nd ACM SIGSAC Conference on Computer and Communications Security. 2015;1322–1333. DOI: 10.1145/2810103.2813677.

Бобров Никита Дмитриевич

Краснодарское высшее военное училище им С.М. Штеменко

Краснодар, Российская Федерация

Чекмарев Максим Алексеевич

Email: max.chek13@gmail.com

ORCID | РИНЦ |

Краснодарское высшее военное училище им С.М. Штеменко

Краснодар, Российская Федерация

Клюев Станислав Геннадьевич
Кандидат технических наук, Доцент

РИНЦ |

Краснодарское высшее военное училище им С.М. Штеменко

Краснодар, Российская Федерация

Ключевые слова: машинное обучение, вредоносное воздействие, целостность, конфиденциальность, обеспечение безопасности

Для цитирования: Бобров Н.Д., Чекмарев М.А., Клюев С.Г. Анализ методов обеспечения безопасности систем машинного обучения. Моделирование, оптимизация и информационные технологии. 2022;10(1). URL: https://moitvivt.ru/ru/journal/pdf?id=935 DOI: 10.26102/2310-6018/2022.36.1.006

789

Полный текст статьи в PDF

Поступила в редакцию 03.12.2021

Поступила после рецензирования 31.01.2022

Принята к публикации 25.02.2022

Опубликована 31.03.2022