Biblioteca122.739 documentos en línea

Artículo

DMCNN: A Deep Multiscale Convolutional Neural Network Model for Medical Image SegmentationDMCNN: Un modelo de red neuronal convolucional profunda multiescala para la segmentación de imágenes médicas

Resumen

La segmentación de imágenes médicas es uno de los temas candentes en el área relacionada con el procesamiento de imágenes. La segmentación precisa de las imágenes médicas es una garantía vital para el seguimiento del tratamiento. En la actualidad, sin embargo, el bajo contraste de grises y los límites borrosos de los tejidos son comunes en las imágenes médicas, y la precisión de la segmentación de las imágenes médicas no se puede mejorar de manera efectiva. Especialmente, los métodos de aprendizaje profundo necesitan más muestras de entrenamiento, lo que lleva a un proceso que consume mucho tiempo. Por lo tanto, en este artículo proponemos un modelo novedoso para la segmentación de imágenes médicas basado en una red neuronal convolucional profunda multiescala (CNN). En primer lugar, extraemos la región de interés de las imágenes médicas sin procesar. A continuación, se opera el aumento de datos para adquirir más conjuntos de datos de entrenamiento. Nuestro método propuesto contiene tres modelos: codificador, red en U y decodificador. El codificador es el principal responsable de la extracción de características de los cortes de imágenes 2D. La U-net combina en cascada las características de cada bloque del codificador con las obtenidas por deconvolución en el decodificador a diferentes escalas. La decodificación se encarga principalmente del remuestreo del gráfico de características tras la extracción de características de cada grupo. Los resultados de la simulación muestran que el nuevo método puede aumentar la precisión de la segmentación. Además, es más robusto que otros métodos de segmentación.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento