Biblioteca122.294 documentos en línea

Artículo

Boosting Adversarial Attacks on Neural Networks with Better OptimizerAumentar los ataques adversarios a las redes neuronales con un mejor optimizador

Resumen

Las redes neuronales convolucionales han superado a los humanos en tareas de reconocimiento de imágenes, pero siguen siendo vulnerables a ataques de ejemplos adversariales. Dado que estos datos son creados agregando ruido imperceptible a imágenes normales, su existencia plantea posibles amenazas de seguridad para los sistemas de aprendizaje profundo. Ejemplos adversariales sofisticados con un fuerte rendimiento de ataque también pueden ser utilizados como una herramienta para evaluar la robustez de un modelo. Sin embargo, la tasa de éxito de los ataques adversariales puede ser mejorada aún más en entornos de caja negra. Por lo tanto, este estudio combina un algoritmo modificado de descenso de gradiente Adam con el método de ataque basado en gradiente iterativo. El método propuesto Adam iterativo de gradiente rápido es luego utilizado para mejorar la transferibilidad de ejemplos adversariales. Experimentos extensos en ImageNet mostraron que el método propuesto ofrece una tasa de éxito de ataque más alta que los métodos iterativos existentes. Al extender nuestro método, logram

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento