La tecnología deepfake es convenientemente abusada con el bajo umbral tecnológico, lo cual puede traer enormes riesgos de seguridad social. A medida que la tecnología de síntesis basada en GAN se vuelve más fuerte, varios métodos son difíciles de clasificar el contenido falso de manera efectiva. Sin embargo, aunque el contenido falso generado por las GAN puede engañar a los ojos humanos, ignora las señales biológicas ocultas en el video facial. En este documento, proponemos un nuevo método de forense de video con señales biológicas multidimensionales, que extrae la diferencia de la señal biológica entre videos reales y falsos desde tres dimensiones. Los resultados experimentales muestran que nuestro método logra una precisión del 98% en el conjunto de datos público principal. En comparación con otras tecnologías, el método propuesto solo extrae información de videos falsos y no está limitado a un método de generación específico, por lo que no se ve afectado por los métodos sintéticos y tiene una buena adaptabilidad.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Un modelo de Unidad Recurrente Mejorada por Red de Carreteras para la Predicción de Congestiones en Ciudades Inteligentes
Artículo:
Esquema de cifrado basado en criterios multiautoridad para IoT
Artículo:
Una investigación de reconocimiento de entidades con nombre de bajo costo basada en aprendizaje activo.
Artículo:
Investigación sobre el algoritmo de seguimiento de objetivos basado en la red neuronal siamesa
Artículo:
Enfoque de vectorización de par inteligente para vehículos eléctricos con motores por rueda.