La Generación Z es una generación impulsada por los datos. Todos tienen la totalidad del conocimiento de la humanidad en sus manos. Las posibilidades tecnológicas son infinitas. Sin embargo, usamos y abusamos de esta bendición para enfrentarnos al intercambio de datos mediante el deepfake. El deepfake es un subdominio emergente de la tecnología de inteligencia artificial en el que la cara de una persona se superpone a la de otra, y que es muy prominente en las redes sociales. El aprendizaje automático es el elemento principal de los deepfakes, y ha permitido generar imágenes y vídeos deepfake considerablemente más rápido y a un coste menor. A pesar de las connotaciones negativas asociadas a la frase "deepfakes", la tecnología se está empleando cada vez más a nivel comercial e individual. Aunque es relativamente nueva, los últimos avances tecnológicos hacen que sea cada vez más difícil detectar los deepfakes y las imágenes sintetizadas de las reales. La aparición de las tecnologías deepfake ha generado una creciente sensación de inquietud. Nuestro principal objetivo es detectar con precisión las imágenes deepfake a partir de las reales. En esta investigación, implementamos varios métodos para detectar imágenes deepfake y realizamos un análisis comparativo. Nuestro modelo fue entrenado por conjuntos de datos de Kaggle, que tenían 70.000 imágenes del conjunto de datos de Flickr y 70.000 imágenes producidas por styleGAN. Para este estudio comparativo del uso de redes neuronales convolucionales (CNN) para identificar imágenes genuinas y deepfake, entrenamos ocho modelos CNN diferentes. Tres de estos modelos se entrenaron con la arquitectura DenseNet (DenseNet121, DenseNet169 y DenseNet201); dos se entrenaron con la arquitectura VGGNet (VGG16, VGG19); uno con la arquitectura ResNet50, otro con VGGFace y otro con una arquitectura CNN a medida. También hemos implementado un modelo a medida que incorpora métodos como el dropout y el padding que ayudan a determinar si los otros modelos reflejan o no sus objetivos. Los resultados se clasificaron según cinco métricas de evaluación: exactitud, precisión, recuperación, puntuación F1 y área bajo la curva ROC (receiver operating characteristic). Entre todos los modelos, VGGFace fue el que mejor funcionó, con un 99
de precisión. Además, obtuvimos 97 del ResNet50, 96 del DenseNet201, 95 del DenseNet169, 94 del VGG19, 92 del VGG16, 97 del modelo DenseNet121 y 90 del modelo personalizado.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Aplicación de nanopartículas de oro para biosensores electroquímicos de ADN
Artículo:
Modelización y análisis de sistemas basados en datos a través de la neurociencia computacional Modelo optimizado por ondas para la previsión de datos multicomponentes no lineales
Artículo:
Análisis de la tecnología de descripción inteligente de vídeos de voleibol basada en la red de memoria informática y el mecanismo de atención
Artículo:
Fabricación y viabilidad estructural de paneles aislantes estructurales poliméricos reforzados con fibra natural para la construcción con paneles
Artículo:
Dispositivos de neuroprótesis basados en micro y nanosensores: Una revisión sistemática
Artículo:
Creación de empresas y estrategia : reflexiones desde el enfoque de recursos
Libro:
Ergonomía en los sistemas de trabajo
Artículo:
La gestión de las relaciones con los clientes como característica de la alta rentabilidad empresarial
Artículo:
Los web services como herramienta generadora de valor en las organizaciones