En la reidentificación de personas en persona, el aprendizaje de métricas de distancia enfrenta un gran desafío con las personas impostoras. Mayormente, las métricas de distancia se aprenden al maximizar la similitud entre pares positivos frente a impostores que se encuentran en diferentes modalidades de transformación. Además, estos impostores se obtienen solo de la muestra de consulta, mientras que la muestra de Galería es totalmente ignorada. En el mundo real, un par dado de consulta y Galería experimenta diferentes cambios en la pose, el punto de vista y la iluminación. Por lo tanto, los impostores solo de la vista no pueden maximizar óptimamente su similitud. Por lo tanto, para resolver estos problemas, hemos propuesto una métrica multimodal resistente a impostores (IRM3). IRM3 se aprende para cada transformación modal en el espacio de la imagen y utiliza impostores de ambas vistas para restringir efectivamente un gran número de impostores. El IRM3 aprendido luego se evalúa en tres conjuntos de datos de referencia, VIPeR, CUHK01 y CUHK03, y muestra una
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Video:
El liderazgo del mercado a través de big data & machine learning
Artículo:
Combinando la Red Neuronal Convolucional y el Campo Aleatorio de Markov para la Recuperación Semántica de Imágenes
Artículo:
Análisis, Modelado y Predicción de Transmisiones de Video de Alta Definición
Documento Editorial:
Big data para la convivencia
Artículo:
Archivos Multimedia: Nuevos Filtros Digitales para Corregir Errores de Ecualización en Cintas de Audio Digitalizadas.