En los últimos años, una serie de investigaciones han revelado que la Red Neuronal Profunda (DNN, por sus siglas en inglés) es vulnerable a ataques adversariales, y se han propuesto varios métodos de ataque. Entre esos métodos, un tipo de ataque extremadamente astuto llamado ataque de un píxel puede engañar a las DNN para clasificar erróneamente una imagen modificando solo un píxel de la imagen, lo que conlleva graves amenazas de seguridad para los sistemas de información basados en DNN. Actualmente, no existe un método que realmente pueda detectar el ataque de un píxel, por lo que este artículo llenará ese vacío. Este artículo propone dos métodos de detección, incluyendo la detección de disparadores y la detección de candidatos. El método de detección de disparadores analiza la vulnerabilidad de los modelos de DNN y muestra el píxel más sospechoso que ha sido modificado por el ataque de un píxel. El método de detección de candidatos identifica un conjunto de
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Revisar la multiplicación modular de la suma de residuos
Artículo:
Modelado armónico y validación experimental de los convertidores del sistema de generación eólica basado en DFIG.
Artículo:
Investigación sobre el Método de Evaluación del Nivel de Seguridad para Interrupciones en Cascada Basado en WSN
Artículo:
Detección basada en el aprendizaje de aplicaciones Android maliciosas mediante vectorización de código
Artículo:
Incrustación de redes de la comunidad semisupervisada que preserva con restricciones por pares.