Con el fin de mejorar la precisión de reconocimiento del comportamiento peatonal en secuencias de video en un fondo complejo, se propone en este artículo una red de dos flujos espacio-temporales mejorada. En primer lugar, se utiliza una red diferencial profunda para reemplazar la red de flujo temporal con el objetivo de mejorar la capacidad de representación y la eficiencia de extracción de características espacio-temporales. Luego, se emplea una función de pérdida Softmax mejorada basada en un mecanismo de fusión de características a nivel de toma de decisiones para entrenar el modelo, lo que permite conservar las características espacio-temporales de las imágenes entre diferentes cuadros de red en mayor medida y reflejar de manera más realista la categoría de acción de los peatones. Los resultados de la simulación muestran que la red mejorada propuesta logra una precisión de reconocimiento del 87% en el conjunto de datos infrarrojos autoconstruido, y la eficiencia computacional se mejora en un 15.1%.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
IWKNN: Un método eficaz de posicionamiento Bluetooth basado en Isomap y WKNN
Artículo:
Supervisión distribuida basada en redes de Petri P-Time y reconocimiento crónico de la red ferroviaria tunecina
Artículo:
Acelerador de hardware basado en lógica difusa con etapa de desdifusificación parcialmente reconfigurable para la detección de bordes en imágenes.
Artículo:
Un modelo de inventario con demanda dependiente del tiempo y capacidad de almacenamiento limitada bajo inflación
Artículo:
Análisis Dinámico de un Sistema de Presa-Depredador Difusivo Heterogéneo en un Entorno Periódico en el Tiempo