La aparición de un ataque de envenenamiento representa un grave riesgo para las redes neuronales profundas (DNNs). Específicamente, un adversario puede envenenar el conjunto de datos de entrenamiento para entrenar un modelo de puerta trasera, que se comporta bien con datos limpios pero induce una clasificación errónea dirigida en datos arbitrarios con el desencadenante elaborado. Sin embargo, los métodos de defensa anteriores tienen que purificar el modelo de puerta trasera con la degradación comprometedora del rendimiento. En este documento, para aliviar el problema, se propone un nuevo método de defensa llamado VarDefense, que aprovecha una métrica efectiva, es decir, la varianza, y una estrategia de purificación. En detalle, se adopta la varianza para distinguir las neuronas malas que desempeñan un papel central en el ataque de envenenamiento y luego purificar las neuronas malas. Además, encontramos que las neuronas malas suelen estar ubicadas en las capas posteriores del modelo de puerta trasera porque las cap
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Navegación del perseguidor basada en la navegación proporcional y la fusión óptima de información
Artículo:
Heterogeneidad de Green TFP en la industria logística de China bajo restricciones ambientales
Artículo:
Extracción de Patrones Experienciales de Registros de Juegos de Mesa
Artículo:
Actualización del enlace de grupo basado en PMIPv6 para dispositivos IoT
Artículo:
Comportamiento asintótico de un modelo estocástico de competencia de dos especies bajo el efecto de una enfermedad
Libro:
Ergonomía en los sistemas de trabajo
Artículo:
Obtención de gas combustible mediante la bioconversión del alga marina Ulva lactuca
Artículo:
Sistemas de producción y potencial energético de la energía mareomotriz
Artículo:
La necesidad de la planeación estratégica en las organizaciones industriales modernas