ИССЛЕДОВАНИЕ РАСПОЗНАВАНИЯ НАСИЛИЯ ПО ВИДЕО НА ОСНОВЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Авторы

  • Едилхан Амиргалиев Международный университет информационных технологии
  • Гани Букенов Алматинский технологический университет
  • Индира Букенова Алматинский технологический университет

DOI:

https://doi.org/10.52167/1609-1817-2022-123-4-217-225

Ключевые слова:

распознавание действий человека, глубокое обучение, машина опорных векторов (SVM), искусственная нейронная сеть (ANN), рекуррентные нейронные сети

Аннотация

В данной статье рассматриваются современные подходы распознавания насильственных действий человека. Также будут представлены точности распознавания для данных методов. В современном мире благодаря развитию сенсорных и визуальных технологий системы распознавания насильственных действий человека стали популярны. Проблема агрессивности, в том числе детской, давно привлекает внимание психологов. Среди методов с использованием насилия выделяется несколько отдельных: методы обнаружения насилия с использованием машинного обучения, методы обнаружения насилия с использованием SVM и методы обнаружения насилия с использованием глубокого обучения. Цель данного исследования рассмотреть современные программные решения по распознаванию насильственных движений по видео. В ходе проделанной работы был сделан анализ существующих алгоритмов машинного обучения и искусственного интеллекта для автоматического выявления агрессии. А также проверено и предложено применение метода PoseNet для выявления агрессии. Привлекательной особенностью алгоритма является то, что на его производительность не влияет количество людей на входном изображении. Модели оценки позы принимают обработанное изображение с камеры в качестве входных данных и выводят информацию о ключевых точках.

Биографии авторов

Едилхан Амиргалиев, Международный университет информационных технологии

д.т.н., профессор, Казахстан, Алматы, amir_ed@mail.ru  

Гани Букенов, Алматинский технологический университет

лектор, Казахстан, Алматы, gani1212@bk.ru

Индира Букенова, Алматинский технологический университет

магистр, лектор, Казахстан,  Алматы, ibukenowa@mail.ru

Библиографические ссылки

[1] Marinoiu, E., Zanfir, M., Olaru, V., & Sminchisescu, C. (2018). 3d human sensing, action and emotion recognition in robot assisted therapy of children with autism. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 2158-2167).

[2] El-Ghaish, H., Hussein, M. E., Shoukry, A., & Onai, R. (2018). Human action recognition based on integrating body pose, part shape, and motion. IEEE Access, 6, 49040- 49055.

[3] Song, S., Lan, C., Xing, J., Zeng, W., & Liu, J. (2016). An end-to-end spatio- temporal attention model for human action recognition from skeleton data. arXiv preprint arXiv:1611.06067.

[4] Arici, T., Celebi, S., Aydin, A. S., & Temiz, T. T. (2014). Robust gesture recognition using feature pre-processing and weighted dynamic time warping. Multimedia Tools and Applications, 72(3), 3045-3062.

[5] Ji, Y., Cheng, H., Zheng, Y., & Li, H. (2015). Learning contrastive feature distribution model for interaction recognition. Journal of Visual Communication and Image Representation, 33, 340-349.

[6] Huynh-The, T., Le, B. V., Lee, S., & Yoon, Y. (2016). Interactive activity recognition using pose-based spatio–temporal relation features and four-level Pachinko Allocation Model. Information Sciences, 369, 317-333.

[7] Charalampous, K., Kostavelis, I., Boukas, E., Amanatiadis, A., Nalpantidis, L., Emmanouilidis, C., & Gasteratos, A. (2015). Autonomous robot path planning techniques using cellular automata. In Robots and lattice automata (pp. 175-196). Springer, Cham.

[8] H. S. Koppula, R. Gupta, and A. Saxena, “Learning human activities and object affordances from rgb-d videos,” International Journal of Robotics Research, vol. 32, no. 8, pp. 951–970, 2013.

[9] C. Granata, A. Ibanez, and P. Bidaud, “Human activity-understanding: A multilayer approach combining body movements and contextual descriptors analysis,” International Journal of Advanced Robotic Systems, vol. 12, no. 7, 2015.

[10] V. Dutta and T. Zielinska, “Predicting the intention of human activities for real-time human-robot interaction (hri),” in ICRA, 2016.

[11] http://hacs.csail.mit.edu

[12] Zhao, H., Torralba, A., Torresani, L., Yan, Z. Hacs: Human action clips and segments dataset for recognition and temporal localization //Proceedings of the IEEE International Conference on Computer Vision. – 2019. – С. 8668-8678.

[13] M.Ju. Uzdjaev “Raspoznavanie agressivnyh dejstvij s ispol'zovaniem nejrosetevyh arhitektur 3d-CNN,” Izvestija TulGU. Tehnicheskie nauki. 2020. Vyp. 2.

[14] Nelli Adamenko, IA «NewTimes.kz»

[15] Goyal R., Kahou S. E., Michalski V., Materzyńska J., Westphal S., Kim H., Haenel V., Fruend I., Yianilos P., Mueller-Freitag M., Hoppe F., Thurau C., Bax I., Memisevic R. The "Something Something" Video Database for Learning and Evaluating Visual Common Sense //ICCV. – 2017. – Т. 1. – №. 4. – С. 5.

[16] http://activity-net.org/

Загрузки

Опубликован

23.11.2022

Как цитировать

Amirgaliyev, Y., Bukenov, G., & Bukenova, I. (2022). ИССЛЕДОВАНИЕ РАСПОЗНАВАНИЯ НАСИЛИЯ ПО ВИДЕО НА ОСНОВЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: . Вестник КазАТК, 123(4), 217–225. https://doi.org/10.52167/1609-1817-2022-123-4-217-225

Выпуск

Раздел

Автоматизация, телемеханика, связь, энергетика, информационные системы