Biblioteca122.739 documentos en línea

Artículo

The Defense of Adversarial Example with Conditional Generative Adversarial NetworksLa defensa del ejemplo adversarial con redes adversariales generativas condicionales

Resumen

Los enfoques de redes neuronales profundas han logrado un progreso notable en muchas tareas de aprendizaje automático. Sin embargo, la investigación más reciente indica que son vulnerables a perturbaciones adversariales. Un adversario puede engañar fácilmente a los modelos de red agregando perturbaciones bien diseñadas a la entrada. La causa de los ejemplos adversariales no está clara. Por lo tanto, es un desafío construir un mecanismo de defensa. En este documento, proponemos un modelo de traducción de imagen a imagen para defendernos contra ejemplos adversariales. El modelo propuesto se basa en una red generativa adversarial condicional, que consta de un generador y un discriminador. El generador se utiliza para eliminar las perturbaciones adversariales en la entrada. El discriminador se utiliza para distinguir los datos generados de los datos limpios originales para mejorar el proceso de entrenamiento. En otras palabras, nuestro enfoque puede mapear las imágenes adversariales a las imágenes limpias, que luego se alimentan al modelo de aprendizaje profundo objetivo. El mecanismo de

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento