ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ ДЛЯ МОБИЛЬНЫХ РОБОТОВ, МАНИПУЛИРУЮЩИХ ОБЪЕКТАМИ
DOI:
https://doi.org/10.52167/1609-1817-2023-124-1-299-306Ключевые слова:
манипуляции, программное обеспечение, сервисный робот, планирование движения, навигацияАннотация
В статье представлено программное обеспечение для роботов, которые могут создавать автономные службы манипуляции в человеческой среде. Робот-сервис в человеческой среде часто должен выполнять задачи без вмешательства человека и без предварительного знания задач и окружающей среды. Для самостоятельного выполнения задач необходимы различные процессы, такие как восприятие окружающей среды, рассуждение со знаниями и планирование задачи и движения. Хотя разработка каждого из процессов важна, также важно интегрировать их в рабочую систему для развертывания, поскольку роботизированная система может получать реальные результаты при работе в реальном мире. Поэтому в этой статье представлена предсказуемая программная архитектура, которая объединяет компоненты, необходимые для выполнения задач реальным роботом без вмешательства человека.
Библиографические ссылки
[1] C. G. Atkeson et al., «What happened at the DARPA robotics challenge finals» in The DARPA Robotics Challenge Finals: Humanoid Robots To The Rescue. Springer, 2018, pp. 667–684
[2] P. Oh, K. Sohn, G. Jang, Y. Jun, and B.-K. Cho, «Technical overview of team DRC-Hubo@UNLV’s approach to the 2015 DARPA robotics challenge finals» J. Field Robot., vol. 34, no. 5, pp. 874–896, Aug. 2017
[3] S. Srivastava, E. Fang, L. Riano, R. Chitnis, S. Russell, and P. Abbeel, «Combined task and motion planning through an extensible planner independent interface layer» in Proc. IEEE Int. Conf. Robot. Autom. (ICRA), May 2014, pp. 639–646
[4] D. B. Lenat, «CYC: A large-scale investment in knowledge infrastructure» Commun. ACM, vol. 38, no. 11, pp. 33–38, Nov. 1995
[5] M. Tenorth and M. Beetz, «Representations for robot knowledge in the KnowRob framework» Artif. Intell., vol. 247, pp. 151–169, Jun. 2017
[6] S. Lemaignan, M. Warnier, E. A. Sisbot, A. Clodic, and R. Alami, «Artificial cognition for social human–robot interaction: An implementation» Artif. Intell., vol. 247, pp. 45–69, Jun. 2017
[7] G. H. Lim, I. H. Suh, and H. Suh, «Ontology-based unified robot knowledge for service robots in indoor environments» IEEE Trans. Syst., Man, Cybern. A, Syst. Humans, vol. 41, no. 3, pp. 492–509, May 2011
[8] I. Hong Suh, G. Hyun Lim, W. Hwang, H. Suh, J.-H. Choi, and Y.-T. Park, «Ontology-based multi-layered robot knowledge framework (OMRKF) for robot intelligence» in Proc. IEEE/RSJ Int. Conf. Intell. Robots Syst., Oct. 2007, pp. 429–436
[9] S. Jain and B. Argall, «Grasp detection for assistive robotic manipulation» in Proc. IEEE Int. Conf. Robot. Autom. (ICRA), May 2016, pp. 2015–2021
[10] J. Zhang, M. Li, Y. Feng, and C. Yang, «Robotic grasp detection based on image processing and random forest» Multimedia Tools Appl., vol. 79, nos. 3–4, pp. 2427–2446, Jan. 2020
[11] S. Kumra and C. Kanan, «Robotic grasp detection using deep convolutional neural networks» in Proc. IEEE/RSJ Int. Conf. Intell. Robots Syst. (IROS), Sep. 2017, pp. 769–776
[12] F.-J. Chu, R. Xu, and P. A. Vela, «Real-world multiobject, multigrasp detection» IEEE Robot. Autom. Lett., vol. 3, no. 4, pp. 3355–3362, Oct. 2018
[13] Y. Jiang, N. Walker, M. Kim, N. Brissonneau, D. S. Brown, J. W. Hart, S. Niekum, L. Sentis, and P. Stone, «LAAIR: A layered architecture for autonomous interactive robots» 2018, Available: http://arxiv.org/abs/1811.03563
[14] A. Koubaa, M.-F. Sriti, Y. Javed, M. Alajlan, B. Qureshi, F. Ellouze, and A. Mahmoud, «Turtlebot at office: A service-oriented software architecture for personal assistant robots using ROS» in Proc. Int. Conf. Auto. Robot Syst. Competitions (ICARSC), May 2016, pp. 270–276
[15] A. Ahmad and M. A. Babar, ‘‘Software architectures for robotic systems: A systematic mapping study,’’ J. Syst. Softw., vol. 122, pp. 16–39, Dec. 2016.
Загрузки
Опубликован
Как цитировать
Выпуск
Раздел
Лицензия
Copyright (c) 2022 Елдос Корабаев, Серикбай Косболов
Это произведение доступно по лицензии Creative Commons «Attribution-NonCommercial-NoDerivatives» («Атрибуция — Некоммерческое использование — Без производных произведений») 4.0 Всемирная.