Применение моделей машинного обучения семейства YOLO для задачи анализа чайного сырья по фотографии
Работая с сайтом, я даю свое согласие на использование файлов cookie. Это необходимо для нормального функционирования сайта, показа целевой рекламы и анализа трафика. Статистика использования сайта обрабатывается системой Яндекс.Метрика
Научный журнал Моделирование, оптимизация и информационные технологииThe scientific journal Modeling, Optimization and Information Technology
cетевое издание
issn 2310-6018

Применение моделей машинного обучения семейства YOLO для задачи анализа чайного сырья по фотографии

Попов В.А.,  idЗубков А.В.

УДК 004.032.26
DOI: 10.26102/2310-6018/2025.49.2.042

  • Аннотация
  • Список литературы
  • Об авторах

В статье проведен концепт решения анализа чайного сырья по фотографии с использованием моделей семейства YOLO, а также их сравнительный анализ различных версий двух моделей YOLOv8: Nano и Small. В статье выделены метрики для сравнительного анализа. Было проведено экспериментальное сравнение характеристик обеих моделей на реальных примерах чайного сырья. Для целей исследования был собран тренировочный набор данных, который содержал в себе изображения сырья чая следующих классов ферментации: зеленый чай, красный чай, белый чай, желтый чай, улун, шу пуэр, шен пуэр. Для увеличения количества тренировочных образцов были применены методы аугментации, такие как поворот изображения, усиление резкости, искажение перспективы и размытие. Из результатов эксперимента следует, что выбор между двумя представленными моделями обусловливается решаемой задачей и количеством вычислительных ресурсов. YOLOv8s (Small) превосходит YOLOv8n (Nano) в точности, но YOLOv8n расходует меньше времени для предоставления результатов и может использоваться в условиях ограниченного количества вычислительных ресурсов, что делает ее особенно предпочтительной при обработке больших объемов данных.

1. Preedy V.R. Tea in Health and Disease Prevention. Academic Press; 2012. 1612 p.

2. Zhen Yo.-S. Tea: Bioactivity and Therapeutic Potential. London: CRC Press; 2002. 280 p. https://doi.org/10.1201/b12659

3. Ning J., Sun J., Li Sh., Sheng M., Zhang Zh. Classification of Five Chinese Tea Categories with Different Fermentation Degrees Using Visible and Near-Infrared Hyperspectral Imaging. International Journal of Food Properties. 2017;20(2):1515–1522. https://doi.org/10.1080/10942912.2016.1233115

4. Bakhshipour A., Zareiforoush H., Bagheri I. Application of Decision Trees and Fuzzy Inference System for Quality Classification and Modeling of Black and Green Tea Based on Visual Features. Journal of Food Measurement and Characterization. 2020;14(3):1402–1416. https://doi.org/10.1007/s11694-020-00390-8

5. Mukhopadhyay S., Paul M., Pal R., De D. Tea Leaf Disease Detection Using Multi-Objective Image Segmentation. Multimedia Tools and Applications. 2021;80(1):753–771. https://doi.org/10.1007/s11042-020-09567-1

6. Chen Yi. Identification of Tea Leaf Based on Histogram Equalization, Gray-Level Co-Occurrence Matrix and Support Vector Machine Algorithm. In: Multimedia Technology and Enhanced Learning: Second EAI International Conference, ICMTEL 2020: Proceedings: Part I, 10–11 April 2020, Leicester, UK. Cham: Springer; 2020. P. 3–16. https://doi.org/10.1007/978-3-030-51100-5_1

7. Takahashi K., Sugimoto I. Remarks on Tea Leaves Aroma Recognition Using Deep Neural Network. In: Engineering Applications of Neural Networks: 18th International Conference, EANN 2017: Proceedings, 25–27 August 2017, Athens, Greece. Cham: Springer; 2017. P. 160–167. https://doi.org/10.1007/978-3-319-65172-9_14

8. Lakshmanan V., Görner M., Gillard R. Practical Machine Learning for Computer Vision. Sebastopol: O’Reilly Media, Inc.; 2021. 482 p.

9. Burns D.A., Ciurczak E.W. Handbook of Near-Infrared Analysis. Boca Raton: CRC Press; 2007. 834 p. https://doi.org/10.1201/9781420007374

10. Shanmugamani R. Deep Learning for Computer Vision: Expert Techniques to Train Advanced Neural Networks Using TensorFlow and Keras. Packt Publishing Ltd; 2018. 310 p.

11. Терещук М.В., Зубков А.В., Орлова Ю.А., Молчанов Д.Р., Литвиненко В.А., Черкашин Д.Р. Классификация движений антропоморфного объекта на видеоизображении с использованием методов машинного обучения. Вестник Дагестанского государственного технического университета. Технические науки. 2024;51(2):154–163. https://doi.org/10.21822/2073-6185-2024-51-2-154-163

12. Ульев А.Д., Донская А.Р., Зубков А.В. Автоматизированное распознавание и контроль взаимодействия людей по видеоизображению. Известия Юго-Западного государственного университета. Серия: Управление, вычислительная техника, информатика. Медицинское приборостроение. 2023;13(2):45–64. https://doi.org/10.21869/2223-1536-2023-13-2-45-64

13. Никитин Д.В., Тараненко И.С., Катаев А.В. Детектирование дорожных знаков на основе нейросетевой модели YOLO. Инженерный вестник Дона. 2023;(7). URL: http://www.ivdon.ru/ru/magazine/archive/n7y2023/8531

14. Orlova Yu., Gorobtsov A., Sychev O., Rozaliev V., Zubkov A., Donsckaia A. Method for Determining the Dominant Type of Human Breathing Using Motion Capture and Machine Learning. Algorithms. 2023;16(5). https://doi.org/10.3390/a16050249

15. Майорова Е.С., Зарипова Р.С. Разработка алгоритма переноса стиля изображения с использованием предобученной нейросети. Инженерный вестник Дона. 2024;(2). URL: http://www.ivdon.ru/ru/magazine/archive/n2y2024/8997

Попов Владислав Алексевич

Волгоградский государственный технический университет

Волгоград, Российская Федерация

Зубков Александр Владимирович
Кандидат технических наук, доцент

ORCID |

Волгоградский государственный технический университет
Волгоградский государственный медицинский университет

Волгоград, Российская Федерация

Ключевые слова: анализ изображений, машинное обучение, компьютерное зрение, чайное сырье, сверточные нейронные сети

Для цитирования: Попов В.А., Зубков А.В. Применение моделей машинного обучения семейства YOLO для задачи анализа чайного сырья по фотографии. Моделирование, оптимизация и информационные технологии. 2025;13(2). URL: https://moitvivt.ru/ru/journal/pdf?id=1938 DOI: 10.26102/2310-6018/2025.49.2.042

7

Полный текст статьи в PDF

Поступила в редакцию 30.04.2025

Поступила после рецензирования 01.06.2025

Принята к публикации 09.06.2025