La tecnología deepfake es convenientemente abusada con el bajo umbral tecnológico, lo cual puede traer enormes riesgos de seguridad social. A medida que la tecnología de síntesis basada en GAN se vuelve más fuerte, varios métodos son difíciles de clasificar el contenido falso de manera efectiva. Sin embargo, aunque el contenido falso generado por las GAN puede engañar a los ojos humanos, ignora las señales biológicas ocultas en el video facial. En este documento, proponemos un nuevo método de forense de video con señales biológicas multidimensionales, que extrae la diferencia de la señal biológica entre videos reales y falsos desde tres dimensiones. Los resultados experimentales muestran que nuestro método logra una precisión del 98% en el conjunto de datos público principal. En comparación con otras tecnologías, el método propuesto solo extrae información de videos falsos y no está limitado a un método de generación específico, por lo que no se ve afectado por los métodos sintéticos y tiene una buena adaptabilidad.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Análisis del rendimiento de la privacidad de una red cognitiva para IoT sobre canales -
Artículo:
Un método de modelado basado en planificación inteligente para diagnóstico y reparación.
Artículo:
Estudio comparativo del rendimiento de los esquemas de retransmisión híbridos basados en LLR y SNR
Artículo:
Optimización del Sistema de Control de Inyección de Combustible de Motor de Avión de Dos Tiempos de UAV
Artículo:
Estudio sistemático de la factorización rápida mediante procesamiento paralelo o distribuido aplicado al criptoanálisis