Biblioteca122.294 documentos en línea

Artículo

Objects Classification by Learning-Based Visual Saliency Model and Convolutional Neural NetworkClasificación de objetos mediante un modelo de saliencia visual basado en el aprendizaje y una red neuronal convolucional

Resumen

Los seres humanos pueden clasificar fácilmente diferentes tipos de objetos, mientras que a los ordenadores les resulta bastante difícil. Como problema candente y difícil, la clasificación de objetos ha recibido un gran interés con amplias perspectivas. Inspirado en la neurociencia, se propone el concepto de aprendizaje profundo. Las redes neuronales convolucionales (CNN), como uno de los métodos de aprendizaje profundo, pueden utilizarse para resolver problemas de clasificación. Pero la mayoría de los métodos de aprendizaje profundo, incluida la CNN, ignoran el mecanismo de procesamiento de la información visual humana cuando una persona clasifica objetos. Por lo tanto, en este trabajo, inspirándonos en el procesamiento completo que los humanos realizan para clasificar diferentes tipos de objetos, aportamos un nuevo método de clasificación que combina el modelo de atención visual y la CNN. En primer lugar, utilizamos el modelo de atención visual para simular el procesamiento del mecanismo de selección visual humano. En segundo lugar, utilizamos la CNN para simular el procesamiento de cómo los humanos seleccionan las características y extraen las características locales de esas áreas seleccionadas. Por último, nuestro método de clasificación no sólo depende de esas características locales, sino que también añade las características semánticas humanas para clasificar los objetos. Nuestro método de clasificación tiene aparentemente ventajas en biología. Los resultados experimentales demostraron que nuestro método hizo que la eficiencia de la clasificación mejorara significativamente.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento