Biblioteca122.739 documentos en línea

Artículo

Deep Belief Network for Feature Extraction of Urban Artificial TargetsRedes profundas de creencia para la extracción de características de objetivos artificiales urbanos

Resumen

La reducción de la dimensión de los datos de imágenes hiperespectrales puede reducir directamente la redundancia de los datos, mejorando así la precisión de la clasificación de imágenes hiperespectrales. En este trabajo, se introduce el algoritmo de red de creencia profunda en la teoría del aprendizaje profundo para extraer las características en profundidad de los datos de imágenes espectrales. En primer lugar, los datos originales se mapean al espacio de características mediante métodos de aprendizaje no supervisado a través de la Máquina de Boltzmann Restringida (RBM). A continuación, se forma una red de creencia profunda superponiendo múltiples máquinas de Boltzmann restringidas y entrenando los parámetros del modelo mediante el algoritmo greedy capa a capa. Al mismo tiempo, como se consigue el objetivo de reducir la dimensionalidad de los datos, se formará la construcción de características subterráneas de los datos originales. El último paso consiste en conectar las características de profundidad de la salida al clasificador de regresión Softmax para completar el ajuste fino (FT) del modelo y la clasificación final. Los experimentos realizados con datos espectrales de imágenes muestran que las características de profundidad extraídas por el algoritmo de red de creencia profunda tienen mejor robustez y separabilidad. Puede mejorar significativamente la precisión de la clasificación y tiene buenas perspectivas de aplicación en la extracción de información de imágenes hiperespectrales.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento