Biblioteca122.294 documentos en línea

Artículo

A Two-Stream Deep Fusion Framework for High-Resolution Aerial Scene ClassificationUn marco de fusión profunda de dos flujos para la clasificación de escenas aéreas de alta resolución

Resumen

Uno de los problemas más difíciles de entender en las imágenes de teledetección de alta resolución es la clasificación de escenas aéreas. Un método de representación de características y un clasificador bien diseñados pueden mejorar la precisión de la clasificación. En este artículo, construimos una nueva arquitectura profunda de dos flujos para la clasificación de escenas aéreas. En primer lugar, utilizamos dos redes neuronales convolucionales (CNN) preentrenadas como extractor de características para aprender características profundas de la imagen aérea original y de la imagen aérea procesada a través de la detección de saliencia, respectivamente. En segundo lugar, se adoptan dos estrategias de fusión de características para fusionar los dos tipos diferentes de características convolucionales profundas extraídas por el flujo RGB original y el flujo de saliencia. Por último, utilizamos el clasificador de máquina de aprendizaje extremo (ELM) para la clasificación final con las características fusionadas. La eficacia de la arquitectura propuesta se prueba en cuatro conjuntos de datos difíciles: El conjunto de datos UC-Merced con 21 categorías de escenas, el conjunto de datos WHU-RS con 19 categorías de escenas, el conjunto de datos AID con 30 categorías de escenas y el conjunto de datos NWPU-RESISC45 con 45 categorías de escenas desafiantes. Los resultados experimentales demuestran que nuestra arquitectura consigue una mejora significativa en la precisión de la clasificación respecto a todas las referencias del estado del arte.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento