Super-resolución de imágenes satelitales usando GAN: un esquema basado en entrenamiento con imágenes aéreas
DOI:
https://doi.org/10.24215/15146774e098Palabras clave:
redes generativas adversarias, imágenes satelitales, imágenes aéreasResumen
Las imágenes satelitales suelen presentar limitaciones en su resolución espacial y, en muchos casos, altos costos de adquisición, lo que restringe su uso en aplicaciones como el monitoreo urbano, la gestión territorial y el estudio de fauna. Este trabajo propone un enfoque innovador que aprovecha imágenes aéreas de alta resolución para entrenar un modelo de super-resolución basado en Redes Generativas Adversarias. En particular, se adapta el modelo ESRGAN (Enhanced Super-Resolution Generative Adversarial Network), optimizando sus parámetros con el fin de mejorar su eficiencia computacional y reducir los tiempos de entrenamiento. El modelo entrenado con imágenes aéreas se evalúa posteriormente sobre recortes satelitales de baja resolución, analizando su desempeño en factores de escala x2 y x4 mediante métricas estructurales, perceptuales y cromáticas (SSIM-Y, MS-SSIM, LPIPS y CIEDE2000). Los resultados muestran mejoras visuales claras, con mayor nitidez, mejor definición de bordes y una recuperación coherente de estructuras urbanas y elementos del terreno. Cuantitativamente, la escala x2 alcanza los valores más altos, mientras que la escala x4 mantiene un rendimiento estable y útil para aplicaciones prácticas. Estos hallazgos demuestran la viabilidad de transferir la capacidad de super-resolución desde imágenes aéreas hacia imágenes satelitales, incluso bajo diferencias espectrales y geométricas entre dominios. En conjunto, este trabajo establece una base sólida para el desarrollo de modelos de super-resolución satelital de bajo costo y alto impacto, y abre futuras líneas de investigación orientadas a ampliar los datos de entrenamiento, incorporar técnicas de domain adaptation y explorar arquitecturas específicas para sensores satelitales.
Referencias
Arabboev, M., Begmatov, S., Rikhsivoev, M., Nosirov, K. y Saydiakbarov, S. (2024). A comprehensive review of image super-resolution metrics: classical and AI-based approaches. Acta IMEKO, 13(1), 1-8. https://doi.org/10.21014/actaimeko.v13i1.1679
Dong, C., Loy, C. C. y Tang, X. (2016). Accelerating the super-resolution convolutional neural network. European Conference on Computer Vision, ECCV2016, 391-407. https://doi.org/10.48550/arXiv.1608.00367
Fernández-Lozano, J. y Gutiérrez-Alonso, G. (2016). Aplicaciones geológicas de los drones. Revista de la Sociedad Geológica de España, 29(1), 89-105.
Galar, M., Sesma, R., Ayala, C., Albizua, L. y Aranda, C. (2020). Super-resolution of sentinel-2 images using convolutional neural networks and real ground truth data. Remote Sensing, 12(18), 2941. https://doi.org/10.3390/rs12182941
García Díaz, L. (2023). Pueblos abandonados de Cataluña. Análisis espacial de su dinámica territorial y de los cambios en sus edificaciones [Tesis de licenciatura, Universitat Autònoma de Barcelona]. https://ddd.uab.cat/record/283023
Kang, Y., Jang, E., Im, J. y Kwon, C. (2022). A deep learning model using geostationary satellite data for forest fire detection with reduced detection latency. GIScience & Remote Sensing, 59(1), 2019-2035. https://doi.org/10.48550/arXiv.1803.04271
Karwowska, K. y Wierzbicki, D. (2022). Using super-resolution algorithms for small satellite imagery: A systematic review. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 15, 3292-3312. https://doi.org/10.1109/JSTARS.2022.3167646
Lanaras, C., Bioucas-Dias, J., Galliani, S., Baltsavias, E. y Schindler, K. (2018). Super-resolution of Sentinel-2 images: Learning a globally applicable deep neural network. ISPRS Journal of Photogrammetry and Remote Sensing, 146, 305-319.
Ledig, C., Theis, L., Huszár, F., Caballero, J., Cunningham, A., Acosta, A. y Shi, W. (2017). Photo-realistic single image super-resolution using a generative adversarial network. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 4681-4690. https://doi.org/10.48550/arXiv.1609.04802
Li, Y., Zhang, Y., Timofte, R., Van Gool, L., Yu, L., Li, Y. y Wang, X. (2023). NTIRE 2023 challenge on efficient super-resolution: Methods and results. En IEEE (Comp.), 2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW) (pp. 1922-1960). IEEE. https://doi.org/10.1109/CVPRW59228.2023.00189
Liang, J., Zeng, H. y Zhang, L. (2022). Efficient and degradation-adaptive network for real-world image super-resolution. European Conference on Computer Vision, ECCV2022, 574-591. https://doi.org/10.1007/978-3-031-19797-0_33
Lim, B., Son, S., Kim, H., Nah, S. y Mu Lee, K. (2017). Enhanced deep residual networks for single image super-resolution. En IEEE (Comp.), 2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW) (pp. 136-144). IEEE. https://doi.org/10.1109/CVPRW.2017.151
Liu, T. y Yang, X. (2015). Monitoring land changes in an urban area using satellite imagery, GIS and landscape metrics. Applied Geography, 56, 42-54. https://doi.org/10.1016/j.apgeog.2014.10.002
Nájera Ramos, A., Vázquez Jiménez, R., Ramos Bernal, R. N., Rojas Sánchez, G. y Liborio Vicente, A. M. (2019). Propuesta metodológica para la generación de ortofotos y modelos digitales de elevación de alta Rresolución a través de vuelos con drones no fotogramétricos. Universidad Autónoma de Guerrero.
Nandal, P., Pahal, S., Khanna, A. y Pinheiro, P. R. (2024). Super-resolution of medical images using real ESRGAN. IEEE Access, 12, 176155-176170. https://doi.org/10.1109/ACCESS.2024.3497002
Pineda, F., Ayma, V. y Beltran, C. (2020). A generative adversarial network approach for super-resolution of Sentinel-2 satellite images. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 43, 9-14. https://doi.org/10.5194/isprs-archives-XLIII-B1-2020-9-2020
Salgueiro, L., Marcello, J. y Vilaplana, V. (2021). Single-image super-resolution of Sentinel-2 low resolution bands with residual dense convolutional neural networks. Remote Sensing, 13(24), 5007. https://doi.org/10.3390/rs13245007
Shan, J., Weng, Q., Ehlers, M., Quattrochi, D. A., Zhou, G., Stilla, U. y Anderson, S. (2018). Urban remote sensing. CRC press.
Yang, W., Zhang, X., Tian, Y., Wang, W., Xue, J. H. y Liao, Q. (2019). Deep learning for single image super-resolution: A brief review. IEEE Transactions on Multimedia, 21(12), 3106-3121. https://doi.org/10.1109/TMM.2019.2919431
Vivone, G., Deng, L. J., Deng, S., Hong, D., Jiang, M., Li, C., y Plaza, A. (2024). Deep learning in remote sensing image fusion: Methods, protocols, data, and future perspectives. IEEE Geoscience and Remote Sensing Magazine, 13(1), 2-43. https://doi.org/10.1109/MGRS.2024.3495516
Wang, S., Guan, K., Zhang, C., Zhou, Q., Wang, S., Wu, X. y Ma, Z. (2023). Cross-scale sensing of field-level crop residue cover: Integrating field photos, airborne hyperspectral imaging, and satellite data. Remote Sensing of Environment, 285, 113366. https://doi.org/10.1016/j.rse.2022.113366
Wang, D., Shao, Q. y Yue, H. (2019). Surveying wild animals from satellites, manned aircraft and unmanned aerial systems (UASs): A review. Remote Sensing, 11(11), 1308. https://doi.org/10.3390/rs11111308
Wang, X., Xie, L., Dong, C. y Shan, Y. (2021). Real-esrgan: Training real-world blind super-resolution with pure synthetic data. 2021 IEEE/CVF International Conference on Computer Vision Workshops, 1905-1914. https://doi.org/10.1109/ICCVW54120.2021.00217
Wang, X., Yu, K., Wu, S., Gu, J., Liu, Y., Dong, C. y Change Loy, C. (2018). Esrgan: Enhanced super-resolution generative adversarial networks. arXiv, 1809.00219v2. https://doi.org/10.48550/arXiv.1809.00219
Zhang, Y., Li, K., Li, K., Wang, L., Zhong, B. y Fu, Y. (2018). Image super-resolution using very deep residual channel attention networks. European Conference on Computer Vision, ECCV 2018, 286-301. https://doi.org/10.48550/arXiv.1807.02758
Zhu, Z., Lei, Y., Qin, Y., Zhu, C. y Zhu, Y. (2023). IRE: Improved image super-resolution based on real-ESRGAN. IEEE Access, 11, 45334-45348. https://doi.org/10.1109/ACCESS.2023.3256086
Descargas
Publicado
Número
Sección
Licencia
Derechos de autor 2026 Magda Alexandra Trujillo-Jiménez, Francisco Iaconis, Debora Pollicelli, Gisela Noelia Revollo Sarmiento, Claudio Delrieux

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-CompartirIgual 4.0.
Aquellos autores/as que tengan publicaciones con esta revista, aceptan los términos siguientes:
- Los autores/as conservarán sus derechos de autor y garantizarán a la revista el derecho de primera publicación de su obra, el cuál estará simultáneamente sujeto a la Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0) que permite a terceros compartir la obra siempre que se indique su autor y su primera publicación esta revista, no hagan uso comercial de ella y las obras derivadas de hagan bajo la misma licencia.
- Los autores/as podrán adoptar otros acuerdos de licencia no exclusiva de distribución de la versión de la obra publicada (p. ej.: depositarla en un archivo telemático institucional o publicarla en un volumen monográfico) siempre que se indique la publicación inicial en esta revista.
- Se permite y recomienda a los autores/as difundir su obra a través de Internet (p. ej.: en archivos telemáticos institucionales o en su página web) antes y durante el proceso de envío, lo cual puede producir intercambios interesantes y aumentar las citas de la obra publicada. (Véase El efecto del acceso abierto).















