Biblioteca122.294 documentos en línea

Artículo

Attention-Guided Digital Adversarial Patches on Visual DetectionParches Adversariales Digitales Guiados por la Atención en la Detección Visual

Resumen

El aprendizaje profundo ha sido ampliamente utilizado en el campo de la clasificación e identificación de imágenes y ha logrado resultados prácticos positivos. Sin embargo, en los últimos años, varios estudios han encontrado que la precisión del modelo de aprendizaje profundo basado en clasificación disminuye significativamente al realizar cambios sutiles en los ejemplos originales, lo que lleva a un ataque al modelo de aprendizaje profundo. Los principales métodos son los siguientes: ajustar los píxeles de ejemplos de ataque invisibles para el ojo humano e inducir al modelo de aprendizaje profundo a realizar una clasificación errónea; al agregar un parche adversario en el objetivo de detección, guiar y engañar al modelo de clasificación para que realice una clasificación errónea. Por lo tanto, estos métodos tienen una fuerte aleatoriedad y tienen un uso muy limitado en la aplicación práctica. A diferencia de la perturbación anterior a las señales de tráfico, nuestro artículo propone un método que puede ocultar con éxito y clasificar erróneamente vehículos en contextos

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento