Biblioteca122.739 documentos en línea

Artículo

Retinal Vessel Segmentation by Deep Residual Learning with Wide ActivationSegmentación de vasos de la retina mediante aprendizaje residual profundo con activación amplia

Resumen

Objetivo. La segmentación de imágenes de vasos sanguíneos de la retina es un paso importante en el análisis oftalmológico. Sin embargo, es difícil segmentar los vasos pequeños con precisión debido al bajo contraste y a la compleja información de los vasos sanguíneos. El objetivo de este estudio es desarrollar una estructura mejorada de segmentación de vasos sanguíneos de la retina (WA-Net) para superar estos desafíos. Métodos. Este trabajo se centra principalmente en la amplitud del aprendizaje profundo. Los canales del bloque ResNet se ampliaron para propagar más características de bajo nivel, y la vía de mapeo de identidad se adelgazó para mantener la complejidad de los parámetros. Se utilizó un módulo de pirámide espacial de atrio residual para capturar los vasos de la retina a varias escalas. Se aplicó la normalización del peso para eliminar los impactos del minilote y mejorar la precisión de la segmentación. Los experimentos se realizaron con los conjuntos de datos DRIVE y STARE. Para mostrar la generalización de WA-Net, realizamos un entrenamiento cruzado entre conjuntos de datos. Resultados. La precisión global y la especificidad dentro de los conjuntos de datos fueron del 95,66 nd 96,45 y 98,13 y 98,71%, respectivamente. La precisión y el área bajo la curva del conjunto de datos intermedios sólo divergieron en un 1%∼2 en comparación con el rendimiento del conjunto de datos interno correspondiente. Conclusión. Todos los resultados muestran que WA-Net extrae vasos sanguíneos más detallados y muestra un rendimiento superior en las tareas de segmentación de vasos sanguíneos de la retina.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento