Biblioteca122.739 documentos en línea

Artículo

Convolution Neural Network Based on Two-Dimensional Spectrum for Hyperspectral Image ClassificationRed neuronal de convolución basada en el espectro bidimensional para la clasificación de imágenes hiperespectrales

Resumen

Se determinan las características espectrales inherentes a los datos de imágenes hiperespectrales (HSI) y es necesario extraerlas en profundidad. Se propone un modelo de red neuronal de convolución (CNN) de espectro bidimensional (espectro 2D) basado en las ventajas del aprendizaje profundo para extraer características y clasificar HSI. En primer lugar, los métodos tradicionales de procesamiento de datos que utilizan bloques de píxeles de área pequeña o vectores espectrales unidimensionales como unidad de entrada aportan muchos ruidos heterogéneos. Se propone el método de imagen de espectro 2D para resolver el problema y aprovechar al máximo el valor espectral y la información espacial. Además, se introduce un algoritmo de normalización por lotes (BN) para abordar los desplazamientos internos de las covariables causados por cambios en la distribución de los datos de entrada y acelerar el entrenamiento de la red. Por último, se proponen modelos de pérdida Softmax para inducir la competencia entre las salidas y mejorar el rendimiento del modelo CNN. Los conjuntos de datos HSI de los experimentos incluyen Indian Pines, Salinas, Kennedy Space Center (KSC) y Botsuana. Los resultados experimentales muestran que las precisiones globales del modelo CNN de espectro 2D pueden alcanzar el 98,26%, 97,28%, 96,22% y 93,64%. Estos resultados son superiores a los de otros métodos tradicionales descritos en este artículo. El modelo propuesto puede lograr una gran precisión y eficacia en la clasificación de objetivos.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento