En los últimos años, el aprendizaje automático ha avanzado enormemente en los campos de la visión por computadora, el procesamiento del lenguaje natural y la ciberseguridad; sin embargo, no podemos ignorar que los modelos de aprendizaje automático son vulnerables a ejemplos adversarios, con algunas modificaciones menores en la entrada maliciosa, mientras que parecen no modificados para los observadores humanos, las salidas del modelo basado en aprendizaje automático pueden ser fácilmente engañadas. Del mismo modo, los atacantes pueden evadir los modelos de defensa de seguridad basados en aprendizaje automático para atacar sistemas en tiempo real generando ejemplos adversarios. En este documento, proponemos un método de ataque de caja negra contra algoritmos de detección de flujo de red anómalo basados en aprendizaje automático. Nuestra estrategia de ataque consiste en entrenar otro modelo para sustituir al modelo de aprendizaje automático objetivo. Basándonos en la comprensión general del modelo sustituto y en la migración de los ejemplos adversarios
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Extracción de información dinámica de sistemas complejos desconocidos mediante redes neuronales.
Artículo:
Cifrado de imágenes médicas basado en la confusión en zigzag 2D y la difusión dinámica
Artículo:
Diseño e Implementación de un Sistema de Administración Educativa Inteligente Utilizando el Algoritmo de Agrupamiento Difuso.
Artículo:
Modelo de desarrollo basado en métricas de usabilidad para la construcción de aplicaciones móviles educativas
Artículo:
Diseño de un decodificador VLSI para códigos LDPC parcialmente estructurados