Biblioteca122.739 documentos en línea

Artículo

COVID-19 Diagnosis Using an Enhanced Inception-ResNetV2 Deep Learning Model in CXR ImagesDiagnóstico de COVID-19 mediante un modelo mejorado de aprendizaje profundo Inception-ResNetV2 en imágenes de RxC

Resumen

La pandemia de COVID-19 tiene un importante efecto negativo en la salud de las personas, así como en la economía mundial. La reacción en cadena de la polimerasa (PCR) es una de las principales pruebas utilizadas para detectar la infección por COVID-19. Sin embargo, es cara, requiere mucho tiempo y carece de la suficiente precisión. Sin embargo, es cara, requiere mucho tiempo y carece de suficiente precisión. En los últimos años, las redes neuronales convolucionales han acaparado la atención de muchos investigadores en el campo del aprendizaje automático, debido a su elevada precisión en el diagnóstico, especialmente en el reconocimiento de imágenes médicas. Se han propuesto muchas arquitecturas, como Inception, ResNet, DenseNet y VGG16, que han obtenido un excelente rendimiento a un bajo coste computacional. Además, para acelerar el entrenamiento de estas arquitecturas tradicionales, las conexiones residuales se combinan con la arquitectura Inception. Por lo tanto, se han introducido muchas arquitecturas híbridas como Inception-ResNetV2. Este artículo propone un modelo de aprendizaje profundo Inception-ResNetV2 mejorado que puede diagnosticar exploraciones de rayos X de tórax (CXR) con alta precisión. Además, se utiliza un algoritmo Grad-CAM para mejorar la visualización de las regiones infectadas de los pulmones en imágenes CXR. En comparación con los métodos más avanzados, nuestro trabajo propuesto demuestra superioridad en términos de exactitud, recuperación, precisión y medida F1.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento