Biblioteca122.294 documentos en línea

Artículo

Exploring Security Vulnerabilities of Deep Learning Models by Adversarial AttacksExplorando las vulnerabilidades de seguridad de los modelos de aprendizaje profundo mediante ataques adversarios

Resumen

Hoy en día, los modelos de aprendizaje profundo juegan un papel importante en una variedad de escenarios, como la clasificación de imágenes, el procesamiento de lenguaje natural y el reconocimiento de voz. Sin embargo, se ha demostrado que los modelos de aprendizaje profundo son vulnerables; un pequeño cambio en los datos originales puede afectar la salida del modelo, lo que puede acarrear consecuencias graves como el error de reconocimiento y la filtración de privacidad. Los datos modificados intencionalmente se conocen como ejemplos adversariales. En este documento, exploramos las vulnerabilidades de seguridad de los modelos de aprendizaje profundo diseñados para análisis textual. Específicamente, proponemos un algoritmo de reemplazo de palabras visualmente similares (VSWR) para generar ejemplos adversariales contra modelos de análisis textual. Al utilizar ejemplos adversariales como entrada de los modelos de aprendizaje profundo, verificamos que estos son vulnerables a tales ataques adversariales. Hemos realizado experimentos en varios modelos de aprendizaje profundo para el análisis de sent

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento