La manipulación facial permite alterar las expresiones faciales o reemplazar identidades faciales en videos. Los videos falsos son tan realistas que resulta difícil incluso para los ojos humanos distinguirlos. Esto representa una gran amenaza para la seguridad de la información social y pública. Se han propuesto varios detectores de manipulación facial para hacer frente a esta amenaza. Sin embargo, estudios previos han demostrado que la precisión de estos detectores es sensible a ejemplos adversarios. Los métodos de defensa existentes son muy limitados en cuanto a escenas aplicables y efectos de defensa. Este artículo propone una nueva estrategia de defensa para los detectores de manipulación facial, que combina un método de defensa pasiva, filtrado bilateral, y un método de defensa proactivo, entrenamiento adversarial conjunto, para mitigar la vulnerabilidad de los detectores de manipulación facial frente a ejemplos adversarios. El método de filtrado bilateral se aplica en la etapa de preprocesamiento del modelo sin ninguna modificación para eliminar el ruido de los ejemplos adversarios de entrada. El entrenamiento adversarial
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Modelos matemáticos de propagación de malware
Artículo:
Lucha contra el malware móvil evasivo mediante la detección de malware basada en diagramas de salto
Artículo:
Diseño de Observador Robusto para Sistemas Descriptor Discretos con Pérdida de Paquetes
Artículo:
Evolución en el tiempo de la cobertura y conectividad de las redes de sensores submarinos utilizando un modelo de movilidad basado en la física.
Artículo:
Algunos Resultados Adicionales sobre la Reducción de Sistemas Bidimensionales