Biblioteca122.294 documentos en línea

Artículo

Adaptive Deep Supervised Autoencoder Based Image Reconstruction for Face RecognitionReconstrucción de imágenes para el reconocimiento facial basada en un autocodificador adaptativo profundo supervisado

Resumen

Basado en un tipo especial de autoencoder de eliminación de ruido (DAE) y reconstrucción de imágenes, presentamos un nuevo marco de aprendizaje profundo supervisado para el reconocimiento facial (FR). A diferencia del autoencoder profundo existente, que es un método de reconocimiento facial no supervisado, el método propuesto tiene en cuenta la información de la etiqueta de clase de las muestras de entrenamiento en el procedimiento de aprendizaje profundo y puede descubrir automáticamente las estructuras no lineales subyacentes. En concreto, definimos una Plantilla de Red Profunda Supervisada Adaptativa (ADSNT) con el autocodificador supervisado que se entrena para extraer rasgos característicos de imágenes faciales corruptas/limpias y reconstruir las correspondientes imágenes faciales similares. La reconstrucción se realiza mediante una red neuronal denominada "cuello de botella" que aprende a mapear imágenes faciales en un vector de baja dimensión y a reconstruir las respectivas imágenes faciales correspondientes a partir de los vectores de mapeo. Una vez entrenada la ADSNT, se puede reconocer una nueva imagen facial comparando su imagen reconstruida con las imágenes individuales de la galería, respectivamente. Extensos experimentos con tres bases de datos (AR, PubFig y Extended Yale B) demuestran que el método propuesto puede mejorar significativamente la precisión del reconocimiento facial en condiciones de enorme iluminación, cambios de pose y una fracción de oclusión.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento