Biblioteca122.739 documentos en línea

Artículos

Undersampled Hyperspectral Image Reconstruction Based on Surfacelet TransformReconstrucción de imágenes hiperespectrales sin muestreo basada en la transformada Surfacelet

Resumen

Las imágenes hiperespectrales son una técnica crucial para la vigilancia militar y medioambiental. Sin embargo, los limitados recursos de hardware de los equipos afectan gravemente a la transmisión y almacenamiento de una enorme cantidad de datos de imágenes hiperespectrales. Esta limitación puede resolverse mediante la detección compresiva (CS), que permite reconstruir imágenes a partir de mediciones submuestreadas con un bajo nivel de error. La sparsity y la incoherencia son dos requisitos esenciales para la CS. En este trabajo, introducimos la surfacelet, una transformada direccional multiresolución para datos 3D, para sparsificar las imágenes hiperespectrales. Además, se utiliza una ortogonalización Gram-Schmidt en la matriz de codificación aleatoria CS, se diseñan matrices de codificación aleatoria CS ortogonales bidimensionales y tridimensionales y un esquema de codificación CS basado en parches. El problema de reconstrucción de imágenes hiperespectrales basado en surfacelets propuesto se resuelve mediante un algoritmo iterativo rápido de contracción-umbralización. Los experimentos demuestran que la reconstrucción de las líneas espectrales y de las imágenes espaciales mejora significativamente con el método propuesto en comparación con las ondículas tridimensionales convencionales, y que la aleatoriedad creciente de la matriz de codificación puede mejorar aún más la calidad de los datos hiperespectrales. La estrategia de codificación CS basada en parches puede utilizarse para tratar datos de gran tamaño, ya que los datos de los distintos parches pueden muestrearse de forma independiente.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento