Biblioteca122.739 documentos en línea

Artículos

MedicalGuard: U-Net Model Robust against Adversarially Perturbed ImagesMedicalGuard: Modelo U-Net robusto frente a imágenes alteradas adversarialmente

Resumen

Las redes neuronales profundas funcionan bien para el reconocimiento de imágenes, reconocimiento de voz y análisis de patrones. Este tipo de red neuronal también se ha utilizado en el campo médico, donde ha mostrado un buen rendimiento en la predicción o clasificación de diagnósticos de pacientes. Un ejemplo es el modelo U-Net, que ha demostrado un buen rendimiento en la segmentación de datos, una tecnología importante en el campo de la imagen médica. Sin embargo, las redes neuronales profundas son vulnerables a ejemplos adversariales. Los ejemplos adversariales son muestras creadas agregando una pequeña cantidad de ruido a una muestra de datos original de tal manera que a la percepción humana parecen ser datos normales pero serán clasificados incorrectamente por el modelo de clasificación. Los ejemplos adversariales representan una amenaza significativa en el campo médico, ya que pueden hacer que los modelos identifiquen o clasifiquen incorrectamente los diagnósticos de los pacientes. En este documento, propongo un método avanzado de entrenamiento adversarial para defenderse de tales ejemplos adversariales. Una vent

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento