El aprendizaje profundo ha sido ampliamente utilizado en el campo de la clasificación e identificación de imágenes y ha logrado resultados prácticos positivos. Sin embargo, en los últimos años, varios estudios han encontrado que la precisión del modelo de aprendizaje profundo basado en clasificación disminuye significativamente al realizar cambios sutiles en los ejemplos originales, lo que lleva a un ataque al modelo de aprendizaje profundo. Los principales métodos son los siguientes: ajustar los píxeles de ejemplos de ataque invisibles para el ojo humano e inducir al modelo de aprendizaje profundo a realizar una clasificación errónea; al agregar un parche adversario en el objetivo de detección, guiar y engañar al modelo de clasificación para que realice una clasificación errónea. Por lo tanto, estos métodos tienen una fuerte aleatoriedad y tienen un uso muy limitado en la aplicación práctica. A diferencia de la perturbación anterior a las señales de tráfico, nuestro artículo propone un método que puede ocultar con éxito y clasificar erróneamente vehículos en contextos
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Mejora visual para entretenimiento deportivo mediante realidad aumentada basada en visión.
Artículo:
Simetría de Mei y nuevas cantidades conservadas de las ecuaciones de Birkhoff a escala de tiempo.
Artículo:
Revisión de los sistemas de firma proxy basados en identidades sólidas
Artículo:
Modelo de predicción de la demanda turística basado en el algoritmo mejorado de la mosca de la fruta
Artículo:
Estudio empírico sobre la respuesta a las reseñas de clientes en línea y las ventas en el comercio electrónico: Desde la perspectiva del sistema de información móvil