La existencia de ejemplos adversarios y la facilidad con la que pueden generarse plantean varias preocupaciones de seguridad con respecto a los sistemas de aprendizaje profundo, lo que empuja a los investigadores a desarrollar mecanismos de defensa adecuados. Recientemente se ha propuesto el uso de redes que adoptan códigos de salida correctores de errores (ECOC) para contrarrestar la creación de ejemplos adversarios en un entorno de caja blanca. En este artículo, llevamos a cabo una investigación exhaustiva sobre la robustez adversarial lograda por el enfoque ECOC. Lo hacemos proponiendo un nuevo ataque adversarial diseñado específicamente para arquitecturas de clasificación multietiqueta, como la basada en ECOC, y aplicando dos ataques existentes. En contraste con hallazgos anteriores, nuestro análisis revela que las redes basadas en ECOC pueden ser atacadas bastante fácilmente al introducir una pequeña perturbación adversarial. Además, los ejemplos adversarios pueden generarse de tal manera que logren altas probabilidades para la clase objetivo
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Un estudio de caso sobre el diseño de un controlador de modo deslizante para estabilizar el efecto estocástico del ruido en estructuras mecánicas: Edificios residenciales equipados con ATMD.
Artículo:
Esquema de Control de Acceso CP-ABE para Restricción de Conjuntos de Datos Sensibles con Política de Acceso Oculta y Política de Restricción
Artículo:
Análisis de las diferencias en el desarrollo económico regional basado en un algoritmo híbrido inteligente.
Artículo:
Un método de evaluación objetiva para la restauración de imágenes
Artículo:
Modelo de Reconocimiento de Información Pseudo-Salud en Red: Una Arquitectura Integrada de Asignación Latente de Dirichlet y Actualización de Bloque de Datos