El contenido de video generado por los usuarios ha crecido tremendamente rápido hasta el punto de superar la creación de contenido profesional. En este trabajo desarrollamos métodos que analizan información contextual de múltiples videos generados por usuarios con el fin de obtener información semántica sobre eventos públicos (por ejemplo, eventos deportivos y de música en vivo) que están siendo grabados en estos videos. Una de las principales contribuciones de este trabajo es la utilización conjunta de diferentes modalidades de datos, incluyendo aquellas capturadas por sensores auxiliares durante la grabación de video realizada por cada usuario. En particular, analizamos datos de GPS, datos de magnetómetro, datos de acelerómetro, datos de contenido de video y audio. Utilizamos estas modalidades de datos para inferir información sobre el evento que está siendo grabado, en términos de ubicación (por ejemplo, estadio), género, escena interior versus exterior, y la principal área de interés del evento. Además, proponemos un método que identifica automáticamente el conjunto óptimo de cámaras a ser utilizadas en una producción de video multicámara. Finalmente, detectamos a
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Evaluación de diferentes diseños de probetas de tracción ZX en la fabricación aditiva de compuestos poliméricos amorfos y semicristalinos
Artículo:
Predicción de precios de índices bursátiles a través de la atención a patrones temporales y la memoria a largo plazo y corto plazo.
Artículo:
Algoritmo de segmentación de imágenes adaptativo basado en la fusión selectiva de características.
Artículo:
Identificación del potencial de innovación en las organizaciones mediante el análisis de la cartera de proyectos de tecnologías de la información
Artículo:
Evaluando aplicaciones de televisión digital interactiva a través de heurísticas de usabilidad