УСКОРЕНИЕ ПРОЦЕССА ГЛУБОКОГО ОБУЧЕНИЯ 3D В РАЗРАБОТКЕ ЦИФРОВОГО ДВОЙНИКА ПРЕДПРИЯТИЯ ПИЩЕВОЙ ПРОМЫШЛЕННОСТИ С ИСПОЛЬЗОВАНИЕМ PYTORCH3D
Ключевые слова:
цифровые двойники, PyTorch3D, 3D глубокое обучение, пищевая промышленность, симуляция в реальном времениАннотация
Цифровые двойники становятся важным инструментом в оптимизации процессов и повышении эффективности предприятий пищевой промышленности. Эти виртуальные модели требуют высокой вычислительной мощности для обработки и анализа сложных трехмерных данных. В данной статье исследуется применение библиотеки PyTorch3D для ускорения 3D глубокого обучения в разработке цифрового двойника предприятия. PyTorch3D предоставляет мощные инструменты для работы с 3D-данными, включая дифференцируемый рендеринг и обработку облаков точек, что позволяет существенно сократить время и ресурсы, затрачиваемые на обучение и использование моделей. В статье рассмотрены основные функциональные возможности PyTorch3D, приведены примеры его интеграции в рабочий процесс создания цифрового двойника и оценена эффективность библиотеки по сравнению с традиционными подходами. Особое внимание уделяется применению глубинных нейронных сетей для моделирования и симуляции производственных процессов в реальном времени. Результаты исследования демонстрируют, что использование PyTorch3D способствует повышению производительности и точности моделей, обеспечивая более быструю обработку 3D-данных и адаптацию системы к изменяющимся условиям производства. Полученные результаты подчеркивают перспективность применения PyTorch3D в контексте разработки цифровых двойников, что открывает новые горизонты для автоматизации и оптимизации предприятий пищевой промышленности.
Библиографические ссылки
[1] Verdouw C., Wolfert J., Tekinerdogan B. Digital twins in smart farming // Agricultural Systems, 189, 103046, 2021.
[2] Tao F., Cheng J., Qi Q., et al. Digital twin-driven product design, manufacturing and service with big data // International Journal of Advanced Manufacturing Technology, 94(9-12), 3563-3576, 2018.
[3] Lu Y., Liu C., Wang K.I.K., et al. Digital Twin-driven smart manufacturing: Connotation, reference model, applications and research issues // Robotics and Computer-Integrated Manufacturing, 61, 101837, 2020.
[4] He K. et al. Deep Residual Learning for Image Recognition // Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016.
[5] Redmon J., Farhadi A. YOLOv3: An Incremental Improvement // arXiv preprint arXiv:1804.02767, 2018.
[6] Zhou G., Zhang C., Li Z., et al. Knowledge-driven digital twin manufacturing cell towards intelligent manufacturing // International Journal of Production Research, 58(4), 1034-1051, 2020.
[7] Qi C.R., Su H., Mo K., et al. PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation // Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017.
[8] Qi C.R., Yi L., Su H., et al. PointNet++: Deep Hierarchical Feature Learning on Point Sets in a Metric Space // Advances in Neural Information Processing Systems (NIPS), 2017.
[9] Ravi N. et al. Accelerating 3D Deep Learning with PyTorch3D // arXiv preprint arXiv:2007.08501, 2020.
[10] Kato H., Ushiku Y., Harada T. Neural 3D Mesh Renderer // Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018.
[11] Wang J., Ye L., Gao R.X., et al. Digital Twin for rotating machinery fault diagnosis in smart manufacturing // International Journal of Production Research, 57(12), 3920-3934, 2019.
[12] Jones D., Snider C., Nassehi A., et al. Characterising the Digital Twin: A systematic literature review // CIRP Journal of Manufacturing Science and Technology, 29, 36-52, 2020.
[13] Goodfellow I., Bengio Y., Courville A. Deep Learning. --- MIT Press, 2016.
[14] Nikolenko S., Kadurin A., Arkhangelskaya E. Deep Learning. — SPb.: Peter, 2018.
[15] Bronstein M.M., Bruna J., LeCun Y., et al. Geometric Deep Learning: Going beyond Euclidean data // IEEE Signal Processing Magazine, 34(4), 18-42, 2017.
[16] Latecki L.J., Lakamper R., Eckhardt T. Shape descriptors for non-rigid shapes with a single closed contour // Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2000.
[17] Shotton J., Blake A., Cipolla R. Contour-Based Learning for Object Detection // Proceedings of the IEEE International Conference on Computer Vision (ICCV), 2005.
[18] Lin T.Y., Goyal P., Girshick R., et al. Focal Loss for Dense Object Detection // Proceedings of the IEEE International Conference on Computer Vision (ICCV), 2017.
[19] Bronstein M.M. et al. Geometric Deep Learning: Grids, Groups, Graphs, Geodesics, and Gauges // arXiv preprint arXiv:2104.13478, 2021.
[20] Zhu J., Zhang R., Pathak D., et al. Toward Multimodal Image-to-Image Translation // Advances in Neural Information Processing Systems (NIPS), 2017.
Опубликован
Как цитировать
Выпуск
Раздел
Категории
Лицензия
Copyright (c) 2025 Дария Ертаева, Гульшат Амирханова, Томирис Нұрғазы, Алина Раева, Алихан Амирханов

Это произведение доступно по лицензии Creative Commons «Attribution-NonCommercial-NoDerivatives» («Атрибуция — Некоммерческое использование — Без производных произведений») 4.0 Всемирная.