Biblioteca122.294 documentos en línea

Artículo

A Novel Edge-Map Creation Approach for Highly Accurate Pupil Localization in Unconstrained Infrared Iris ImagesUn nuevo método de creación de mapas de bordes para la localización precisa de pupilas en imágenes de iris infrarrojas sin restricciones

Resumen

La segmentación del iris en los sistemas de reconocimiento del iris es una tarea difícil en entornos no cooperativos. La segmentación del iris es un proceso de detección de la pupila, el límite exterior del iris y los párpados en la imagen del iris. En este trabajo, proponemos un método de localización de pupilas para localizar las pupilas en las imágenes del iris sin primer plano y de vista frontal que se capturan bajo iluminación infrarroja cercana (NIR) y contienen ruido, como puntos de reflexión especular y de iluminación, gafas, iluminación no uniforme, bajo contraste y oclusiones por los párpados, las pestañas y el pelo de las cejas. En el método propuesto, primero se crea un novedoso mapa de bordes a partir de la imagen del iris, que se basa en la combinación de las técnicas convencionales de umbralización y de segmentación basada en la detección de bordes y, a continuación, se utiliza la transformada circular de Hough (CHT) general para encontrar los parámetros del círculo de la pupila en el mapa de bordes. Nuestra principal contribución en esta investigación es una novedosa técnica de creación de mapas de bordes, que reduce drásticamente los bordes falsos en el mapa de bordes de la imagen del iris y hace que la localización de la pupila en las imágenes NIR ruidosas sea más precisa, rápida, robusta y sencilla. El método propuesto se probó con tres bases de datos de iris: CASIA-Iris-Thousand (versión 4.0), CASIA-Iris-Lamp (versión 3.0) y MMU (versión 2.0). La precisión media del método propuesto es del 99,72 y el coste medio de tiempo por imagen es de 0,727 segundos.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento