REINFORCEMENT LEARNING КАК ТЕХНОЛОГИЯ, ПОЗВОЛЯЮЩАЯ ОБЕСПЕЧИТЬ НЕПРЕРЫВНЫЙ МОНИТОРИНГ ОБШИРНЫХ ТЕРРИТОРИЙ
DOI:
https://doi.org/10.52167/1609-1817-2024-135-6-255-262Ключевые слова:
распознавание образов, искусственный интеллект, беспилотные летательные аппараты, зарядные станции дронов, Reinforcement LearningАннотация
В данной статье рассмотрены алгоритмы распознавания станций подзарядки и оптимизации траекторий полета беспилотных летательных аппаратов (БПЛА) с применением методов Reinforcement Learning (RL). Представлены традиционные подходы компьютерного зрения и глубокого обучения для идентификации зарядных станций, а также алгоритмы планирования маршрутов, включая A*, Dijkstra и Rapidly Exploring Random Tree. Проведен сравнительный анализ методов и показано, что RL обладает высокой адаптивностью в реальных условиях, обеспечивая улучшение автономности и энергоэффективности БПЛА. Исследование демонстрирует, как интеграция RL способствует повышению точности стыковки дронов с зарядными станциями и оптимизации их работы в динамической среде.
Библиографические ссылки
[1] Lowe, D. G. (1999). Object recognition from local scale-invariant features. Proceedings of the IEEE International Conference on Computer Vision. doi: 10.1109/ICCV.1999.790410.
[2] Redmon, J., & Farhadi, A. (2018). YOLOv3: An Incremental Improvement. arXiv preprint arXiv:1804.02767. doi: 10.48550/arXiv.1804.02767
[3] Hart, P. E., Nilsson, N. J., & Raphael, B. (1968). A formal basis for the heuristic determination of minimum cost paths. IEEE Transactions on Systems Science and Cybernetics. doi: 10.1109/TSSC.1968.300136.
[4] Karaman, S., & Frazzoli, E. (2011). Sampling-based algorithms for optimal motion planning. The International Journal of Robotics Research. doi: 10.1177/0278364911406761.
[5] Kennedy, J., & Eberhart, R. (1995). Particle swarm optimization. Proceedings of the IEEE International Conference on Neural Networks. doi: 10.1109/ICNN.1995.488968.
[6] Lillicrap, T. P., et al. (2015). Continuous control with deep reinforcement learning. arXiv preprint arXiv:1509.02971. doi: 10.48550/arXiv.1509.02971.
[7] Schulman, J., et al. (2017). Proximal policy optimization algorithms. arXiv preprint arXiv:1707.06347. doi: 10.48550/arXiv.1707.06347.
[8] Wang, X., et al. (2021). Efficient charging station detection using deep learning techniques. IEEE Access. doi: 10.1109/ACCESS.2023.3238667.
[9] Zhang, J., et al. (2020). Path planning for UAVs in urban environments using RRT. Journal of Intelligent & Robotic Systems. doi: 10.1088/1742-6596/1983/1/012034.
[10] Liu, Y., et al. (2022). Soft Actor-Critic for UAV path optimization under dynamic weather conditions. Robotics and Autonomous Systems. doi: 10.3390/drones7090549.
[11] Bay, H., Tuytelaars, T., & Van Gool, L. (2006). SURF: Speeded up robust features. European Conference on Computer Vision. doi: 10.1016/j.cviu.2007.09.014.
[12] Dalal, N., & Triggs, B. (2005). Histograms of oriented gradients for human detection. IEEE Computer Society Conference on Computer Vision and Pattern Recognition. doi: 10.1109/CVPR.2005.177.
[13] Ren, S., He, K., Girshick, R., & Sun, J. (2015). Faster R-CNN: Towards real-time object detection with region proposal networks. Advances in Neural Information Processing Systems. doi: 10.48550/arXiv.1506.01497.
[14] He, K., Gkioxari, G., Dollár, P., & Girshick, R. (2017). Mask R-CNN. Proceedings of the IEEE International Conference on Computer Vision. doi: 10.1109/ICCV.2017.322.
[15] Dijkstra, E. W. (1959). A note on two problems in connexion with graphs. Numerische Mathematik. doi: 10.1145/3544585.3544600.
[16] LaValle, S. M. (1998). Rapidly-exploring random trees: A new tool for path planning. Technical Report, Computer Science Department, Iowa State University.
[17] Goldberg, D. E. (1989). Genetic Algorithms in Search, Optimization, and Machine Learning. Addison-Wesley. doi: 10.1023/A:1022602019183.
[18] Haarnoja, T., et al. (2018). Soft actor-critic algorithms and applications. arXiv preprint arXiv:1812.05905. doi: 10.48550/arXiv.1812.05905
[19] Wang, X., et al. (2021). Using DDPG for urban UAV path planning. IEEE Access.
[20] Xie, T., et al. (2020). Reinforcement learning for object recognition and tracking in real time. Journal of Intelligent & Robotic Systems.
[21] Zhang, J., et al. (2021). PPO-based approach for integrated object detection and UAV control. Robotics and Automation Letters.
Загрузки
Опубликован
Как цитировать
Выпуск
Раздел
Лицензия
Copyright (c) 2024 Едилхан Амиргалиев, Айсулу Атаниязова, Сергазы Нарынов, Айнур Козбакова
Это произведение доступно по лицензии Creative Commons «Attribution-NonCommercial-NoDerivatives» («Атрибуция — Некоммерческое использование — Без производных произведений») 4.0 Всемирная.