МЕТОДОЛОГИЯ ПОСТРОЕНИЯ ИНТЕРПРЕТИРУЕМЫХ МОДЕЛЕЙ МАШИННОГО ОБУЧЕНИЯ В ПРИКЛАДНЫХ ЗАДАЧАХ ПРОГНОЗИРОВАНИЯ
DOI:
https://doi.org/10.52167/1609-1817-2025-141-6-143-153Ключевые слова:
интерпретация, машинное обучение, искусственный интеллект, моделирование, прогнозирование, прикладное прогнозирование, дрейф концепций, методологияАннотация
Модели становятся все более сложными, что приводит к снижению интерпретируемости и прозрачности. В данной статье представлена методологическая основа для построения моделей машинного обучения, предоставляющих пользователям интерпретируемые данные для прогнозирования. Предложенная методология учитывает компромисс между получением точного прогноза и наличием интерпретируемой модели, а также возможность выявления мест возникновения ошибок прогнозирования. Поэтому в рамках этой методологии выбор параметров при разработке структуры модели будет основываться на установлении конкретных ограничений интерпретируемости. Экспериментальные результаты показывают, что адаптивные методы прогнозирования смогли достичь снижения ошибок на 15% по сравнению со статическими базовыми моделями при учете дрейфа концепции, сохраняя при этом стабильный уровень объяснимости. Анализ временной атрибуции показал, что важность переменных не является постоянной от начала до конца сценария прогнозирования, и во время переходов между режимами может наблюдаться снижение объяснительной стабильности до 20%. Предложенная методология разработана и признана для создания методов прогнозирования, обеспечивающих точные прогнозы с дополнительным уровнем интерпретируемости.
Библиографические ссылки
[1] Zhou, H., Zheng, P., Dong, J., Liu, J., & Nakanishi, Y. (2024). Interpretable feature selection and deep learning for short-term probabilistic PV power forecasting in buildings using local monitoring data. Applied Energy, 376, 124271. https://doi.org/10.1016/j.apenergy.2024.124271
[2] Buckmann, M., Joseph, A., & Robertson, H. (2023). An interpretable machine learning workflow with an application to economic forecasting. International Journal of Central Banking, 19(4), 449-552. https://doi.org/10.2139/ssrn.4130517
[3] Basak, A., Schmidt, K. M., & Mengshoel, O. J. (2023). From data to interpretable models: machine learning for soil moisture forecasting. International Journal of Data Science and Analytics, 15(1), 9-32. https://doi.org/10.1007/s41060-022-00347-8
[4] Paudel, D., De Wit, A., Boogaard, H., Marcos, D., Osinga, S., & Athanasiadis, I. N. (2023). Interpretability of deep learning models for crop yield forecasting. Computers and Electronics in Agriculture, 206, 107663. https://doi.org/10.1016/j.compag.2023.107663
[5] Zhang, C., Hoes, P. J., Wang, S., & Zhao, Y. (2024). Intrinsically interpretable machine learning-based building energy load prediction method with high accuracy and strong interpretability. Energy and Built Environment. https://doi.org/10.1016/j.enbenv.2024.08.006
[6] Tran, B., Sudusinghe, C., Nguyen, S., & Alahakoon, D. (2023). Building interpretable predictive models with context-aware evolutionary learning. Applied Soft Computing, 132, 109854. https://doi.org/10.1016/j.asoc.2022.109854
[7] Manfren, M., James, P. A., & Tronchin, L. (2022). Data-driven building energy modelling–An analysis of the potential for generalisation through interpretable machine learning. Renewable and Sustainable Energy Reviews, 167, 112686. https://doi.org/10.1016/j.rser.2022.112686
[8] Topuz, K., Bajaj, A., Coussement, K., & Urban, T. L. (2025). Interpretable machine learning and explainable artificial intelligence. Annals of Operations Research, 347(2), 775-782. https://doi.org/10.1007/s10479-025-06577-w
[9] Lazaridis, P. C., Kavvadias, I. E., Demertzis, K., Iliadis, L., & Vasiliadis, L. K. (2023). Interpretable machine learning for assessing the cumulative damage of a reinforced concrete frame induced by seismic sequences. Sustainability, 15(17), 12768. https://doi.org/10.3390/su151712768
[10] Marcinkevičs, R., & Vogt, J. E. (2023). Interpretable and explainable machine learning: A methods‐centric overview with concrete examples. Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, 13(3), e1493. https://doi.org/10.1002/widm.1493
[11] Jin, X., Xiao, F., Zhang, C., & Li, A. (2022). GEIN: An interpretable benchmarking framework towards all building types based on machine learning. Energy and Buildings, 260, 111909. https://doi.org/10.1016/j.enbuild.2022.111909
[12] Ahmed, K. R., Ansari, M. E., Ahsan, M. N., Rohan, A., Uddin, M. B., & Rivin, M. A. H. (2025). Deep learning framework for interpretable supply chain forecasting using SOM ANN and SHAP: KR Ahmed et al. Scientific Reports, 15(1), 26355. https://doi.org/10.1038/s41598-025-11510-z
[13] Alangari, N., El Bachir Menai, M., Mathkour, H., & Almosallam, I. (2023). Exploring evaluation methods for interpretable machine learning: A survey. Information, 14(8), 469. https://doi.org/10.3390/info14080469
[14] Fan, Y., Liu, M., & Sun, G. (2023). An interpretable machine learning framework for diagnosis and prognosis of COVID-19. PLoS One, 18(9), e0291961. https://doi.org/10.1371/journal.pone.0291961
[15] Muratova, G., Jumagaliyeva, A., Rystygulova, V., Abdykerimova, E., Turkmenbayev, A., Serimbetov, B., Yersultanova, Z., & Omarkulova, G. (2025). Development of deep learning framework for complex pattern recognition in big data. Eastern-European Journal of Enterprise Technologies, 6(9 (138), 54–66. https://doi.org/10.15587/1729-4061.2025.341468
Загрузки
Опубликован
Как цитировать
Выпуск
Раздел
Категории
Лицензия
Copyright (c) 2026 Венера Рыстыгулова, Карлыгаш Бижанова , Шингис Кадиркулов, Рахила Асилбаева, Валентина Махатова

Это произведение доступно по лицензии Creative Commons «Attribution-NonCommercial-NoDerivatives» («Атрибуция — Некоммерческое использование — Без производных произведений») 4.0 Всемирная.











