Hoy en día, los modelos de aprendizaje profundo juegan un papel importante en una variedad de escenarios, como la clasificación de imágenes, el procesamiento de lenguaje natural y el reconocimiento de voz. Sin embargo, se ha demostrado que los modelos de aprendizaje profundo son vulnerables; un pequeño cambio en los datos originales puede afectar la salida del modelo, lo que puede acarrear consecuencias graves como el error de reconocimiento y la filtración de privacidad. Los datos modificados intencionalmente se conocen como ejemplos adversariales. En este documento, exploramos las vulnerabilidades de seguridad de los modelos de aprendizaje profundo diseñados para análisis textual. Específicamente, proponemos un algoritmo de reemplazo de palabras visualmente similares (VSWR) para generar ejemplos adversariales contra modelos de análisis textual. Al utilizar ejemplos adversariales como entrada de los modelos de aprendizaje profundo, verificamos que estos son vulnerables a tales ataques adversariales. Hemos realizado experimentos en varios modelos de aprendizaje profundo para el análisis de sent
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Comparación de los análisis estadístico, gráfico y de transformada de ondículas para las tendencias y patrones de lluvia en la cuenca de Badulu Oya, Sri Lanka.
Artículo:
Estudio sobre la tecnología de preparación y la huella física de las gránulos de Chuilian Jianpi basado en QbD.
Artículo:
Proporcionando información contextual adaptada en una red vehicular superpuesta.
Artículo:
Campus inteligente: Tendencias en ciberseguridad y desarrollo futuro
Artículo:
Análisis de los Sistemas de Salud mediante un Enfoque Sistémico.