Las redes neuronales convolucionales han superado a los humanos en tareas de reconocimiento de imágenes, pero siguen siendo vulnerables a ataques de ejemplos adversariales. Dado que estos datos son creados agregando ruido imperceptible a imágenes normales, su existencia plantea posibles amenazas de seguridad para los sistemas de aprendizaje profundo. Ejemplos adversariales sofisticados con un fuerte rendimiento de ataque también pueden ser utilizados como una herramienta para evaluar la robustez de un modelo. Sin embargo, la tasa de éxito de los ataques adversariales puede ser mejorada aún más en entornos de caja negra. Por lo tanto, este estudio combina un algoritmo modificado de descenso de gradiente Adam con el método de ataque basado en gradiente iterativo. El método propuesto Adam iterativo de gradiente rápido es luego utilizado para mejorar la transferibilidad de ejemplos adversariales. Experimentos extensos en ImageNet mostraron que el método propuesto ofrece una tasa de éxito de ataque más alta que los métodos iterativos existentes. Al extender nuestro método, logram
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Un Método de Aprendizaje Semi-Supervisado Basado en Búsqueda Rápida y Picos de Densidad
Artículo:
Una nueva técnica para determinar el centro aproximado de un politopo
Artículo:
Modelo SVM basado en búsqueda de cuco (CS-SVM) para estimación de posición en interiores en tiempo real en redes IoT
Artículo:
Evitación difusa de obstáculos para el sistema móvil de robots de servicio.
Artículo:
Protocolo eficiente de recuperación de información privada con polinomios univariantes de cálculo homomórfico