Biblioteca122.294 documentos en línea

Artículo

Artificial Intelligence-Based Deep Fusion Model for Pan-Sharpening of Remote Sensing ImagesModelo de fusión profunda basado en la inteligencia artificial para el enfoque panorámico de imágenes de teledetección

Resumen

Durante las dos últimas décadas, se han diseñado muchas técnicas de fusión de imágenes de teledetección para mejorar la resolución espacial de las bandas multiespectrales de baja resolución. El objetivo principal es fusionar la imagen multiespectral (MS) de baja resolución y la imagen pancromática (PAN) de alta resolución espacial para obtener una imagen fusionada con alta información espacial y espectral. Recientemente, se han diseñado muchos modelos de aprendizaje profundo basados en la inteligencia artificial para fusionar las imágenes de teledetección. Sin embargo, estos modelos no tienen en cuenta la diferencia inherente a la distribución de la imagen entre las imágenes MS y PAN. Por lo tanto, las imágenes fusionadas obtenidas pueden sufrir problemas de distorsión de gradiente y color. Para superar estos problemas, en este trabajo se propone un eficiente modelo de aprendizaje profundo basado en inteligencia artificial. El modelo Inception-ResNet-v2 se mejora mediante el uso de una pérdida perceptiva consciente del color (CPL). Las imágenes fusionadas obtenidas se mejoran aún más mediante el uso de un canal de gradiente previo como paso de posprocesamiento. La prioridad del canal de gradiente se utiliza para preservar la información de color y gradiente. Se llevan a cabo amplios experimentos teniendo en cuenta los conjuntos de datos de referencia. El análisis de rendimiento muestra que el modelo propuesto puede preservar eficientemente la información de color y gradiente en las imágenes de teledetección fusionadas que los modelos existentes.

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento