Современные проблемы дистанционного зондирования Земли из космоса. 2025. Т. 22. № 3. С. 81-94
Методы сегментации спутниковых изображений для оконтуривания речных выносов с помощью нейронных сетей
А.Н. Якушева
1 , Н.А. Князев
1 , М.В. Врублевский
1 1 Институт космических исследований РАН, Москва, Россия
Одобрена к печати: 18.06.2025
DOI: 10.21046/2070-7401-2025-22-3-81-94
Настоящая работа посвящена разработке и исследованию методов автоматической сегментации спутниковых изображений для оконтуривания речных выносов с использованием свёрточных нейронных сетей. Исследование проводилось на основе анализа данных мультиспектральных сенсоров MSI (англ. Multispectral Instrument) спутников Sentinel-2 для четырёх ключевых районов: устьевых зон рек Сулак и Терек в Каспийском море, р. Мзымты в Чёрном море и Калининградского канала в Балтийском море. В работе был создан собственный набор данных, включающий 587 фрагментов спутниковых изображений с экспертной разметкой речных плюмов. Проведено комплексное сравнение 10 различных архитектур нейронных сетей, включая комбинации энкодеров (VGG16, ResNet50, Xception) с декодерами (U-Net, DeepLabv3+, FCN), а также модель YOLO 11-Seg. Для повышения качества сегментации разработан программный комплекс предварительной обработки данных, включающий модули загрузки, кадрирования и разметки спутниковых изображений. Экспериментальные исследования показали, что архитектура YOLO 11-Seg продемонстрировала наилучшую производительность с коэффициентом Дайса 0,74. Для дальнейшего улучшения результатов были реализованы два метода ансамблирования: взвешенное усреднение масок и стекинг с использованием Random Forest в качестве метамодели. Стекинговый подход показал наилучшие результаты, достигнув коэффициента Дайса 0,78. Разработанная методология демонстрирует высокую эффективность автоматического детектирования речных выносов в различных гидрологических условиях и может быть интегрирована в системы оперативного спутникового мониторинга морской среды.
Ключевые слова: спутниковый мониторинг, MSI Sentinel-2, речные выносы, нейросети, сегментация, Сулак, Терек, Мзымта, Калининградский залив
Полный текстСписок литературы:
- Лаврова О. Ю., Костяной А. Г., Лебедев С. А., Митягина М. И., Гинзбург А. И., Шеремет Н. А. Комплексный спутниковый мониторинг морей России. М.: ИКИ РАН, 2011. 480 с.
- Лаврова О. Ю., Назирова К. Р., Алферьева Я. О. и др. Сопоставление параметров плюмов рек Сулак и Терек на основе спутниковых данных и измерений in situ // Современные проблемы дистанционного зондирования Земли из космоса. 2022. Т. 19. № 5. С. 264–283. DOI: 10.21046/2070-7401-2022-19-5-264-283.
- Лупян Е. А., Матвеев А. А., Уваров И. А. и др. Спутниковый сервис See the Sea — инструмент для изучения процессов и явлений на поверхности океана // Современные проблемы дистанционного зондирования Земли из космоса. 2012. Т. 9. № 2. С. 251–261.
- Назирова К. Р., Лаврова О. Ю., Краюшкин Е. В. и др. Особенности выявления параметров речного плюма контактными и дистанционными методами // Современные проблемы дистанционного зондирования Земли из космоса. 2019. Т. 16. № 2. С. 227–243. DOI: 10.21046/2070-7401-2019-16-2-227-243.
- Назирова К. Р., Лаврова О. Ю., Алферьева Я. О., Князев Н. А. Пространственно-временная изменчивость плюмов рек Терек и Сулак по спутниковым данным и синхронным натурным измерениям // Современные проблемы дистанционного зондирования Земли из космоса. 2023. Т. 20. № 5. С. 285–303. DOI: 10.21046/2070-7401-2023-20-5-285-303.
- Bochkovskiy A., Wang C.-Y., Liao H.-Y. M. YOLOv4: Optimal speed and accuracy of object detection // https://arxiv.org/. 2020. 17 p. DOI: 10.48550/arXiv.2004.10934.
- Chen L.-C., Zhu Y., Papandreou G. et al. Encoder-decoder with atrous separable convolution for semantic image segmentation // Proc. 15th European Conf. Computer Vision — ECCV 2018. Pt. 7. Lecture Notes in Computer Science. V. 11211. Cham: Springer, 2018. P. 833–851. DOI: 10.1007/978-3-030-01234-2_49.
- Chollet F. Xception: Deep learning with depthwise separable convolutions // Proc. 2017 IEEE Conf. Computer Vision and Pattern Recognition (CVPR 2017). 2017. P. 1800–1807. DOI: 10.1109/CVPR.2017.195.
- Deng J., Dong W., Socher R. et al. ImageNet: A large-scale hierarchical image database // Proc. 2009 IEEE Conf. Computer Vision and Pattern Recognition (CVPR 2009). 2009. P. 248–255. DOI: 10.1109/CVPR.2009.5206848.
- He K., Zhang X., Ren S., Sun J. Deep residual learning for image recognition // Proc. 2016 IEEE Conf. Computer Vision and Pattern Recognition (CVPR 2016). 2016. P. 770–778. DOI: 10.1109/CVPR.2016.90.
- Kingma D. P., Ba J. Adam: A method for stochastic optimization // https://arxiv.org/. 2014. 15 p. DOI: 10.48550/arXiv.1412.6980.
- Kirillov A., Girshick R., He K., Dollár P. Panoptic Feature Pyramid Networks // Proc. 2019 IEEE/CVF Conf. Computer Vision and Pattern Recognition (CVPR 2019). 2019. P. 6392–6401. DOI: 10.1109/CVPR.2019.00656.
- Kostianoy A. G., Ginzburg A. I., Lavrova O. Yu. et al. Comprehensive satellite monitoring of Caspian Sea conditions // Remote Sensing of the Asian Seas / eds. Barale V., Gade M. Cham: Springer Intern. Publ., 2019. P. 505–521. DOI: 10.1007/978-3-319-94067-0_28.
- LeCun Y., Bengio Y., Hinton G. Deep learning // Nature. 2015. V. 521. P. 436–444. DOI: 10.1038/nature14539.
- Long J., Shelhamer E., Darrell T. Fully convolutional networks for semantic segmentation // Proc. 2015 IEEE Conf. Computer Vision and Pattern Recognition (CVPR 2015). 2015. P. 3431–3440. DOI: 10.1109/CVPR.2015.7298965.
- Pan S. J., Yang Q. A survey on transfer learning // IEEE Trans. Knowledge and Data Engineering. 2010. V. 22. No. 10. P. 1345–1359. DOI: 10.1109/TKDE.2009.191.
- Redmon J., Divvala S., Girshick R., Farhadi A. You Only Look Once: Unified, real-time object detection // Proc. 2016 IEEE Conf. Computer Vision and Pattern Recognition (CVPR 2016). 2016. P. 779–788. DOI: 10.1109/CVPR.2016.91.
- Ronneberger O., Fischer P., Brox T. U-Net: Convolutional networks for biomedical image segmentation // Medical Image Computing and Computer-Assisted Intervention — MICCAI 2015. Pt. 3. Lecture Notes in Computer Science. V. 9351. Cham: Springer, 2015. P. 234–241. DOI: 10.1007/978-3-319-24574-4_28.
- Simonyan K., Zisserman A. Very deep convolutional networks for large-scale image recognition // https://arxiv.org/. 2014. 14 p. DOI: 10.48550/arXiv.1409.1556.
- Zeiler M. D., Fergus R. Visualizing and understanding convolutional networks // Proc. 13th European Conf. Computer Vision — ECCV 2014. Pt. 1. Lecture Notes in Computer Science. V. 8689. Cham: Springer, 2014. P. 818–833. DOI: 10.1007/978-3-319-10590-1_53.