Biblioteca93.141 documentos en línea

Artículo

Comparative Analysis of Deepfake Image Detection Method Using Convolutional Neural NetworkAnálisis comparativo del método de detección de imágenes falsas mediante redes neuronales convolucionales

Resumen

La Generación Z es una generación impulsada por los datos. Todos tienen la totalidad del conocimiento de la humanidad en sus manos. Las posibilidades tecnológicas son infinitas. Sin embargo, usamos y abusamos de esta bendición para enfrentarnos al intercambio de datos mediante el deepfake. El deepfake es un subdominio emergente de la tecnología de inteligencia artificial en el que la cara de una persona se superpone a la de otra, y que es muy prominente en las redes sociales. El aprendizaje automático es el elemento principal de los deepfakes, y ha permitido generar imágenes y vídeos deepfake considerablemente más rápido y a un coste menor. A pesar de las connotaciones negativas asociadas a la frase "deepfakes", la tecnología se está empleando cada vez más a nivel comercial e individual. Aunque es relativamente nueva, los últimos avances tecnológicos hacen que sea cada vez más difícil detectar los deepfakes y las imágenes sintetizadas de las reales. La aparición de las tecnologías deepfake ha generado una creciente sensación de inquietud. Nuestro principal objetivo es detectar con precisión las imágenes deepfake a partir de las reales. En esta investigación, implementamos varios métodos para detectar imágenes deepfake y realizamos un análisis comparativo. Nuestro modelo fue entrenado por conjuntos de datos de Kaggle, que tenían 70.000 imágenes del conjunto de datos de Flickr y 70.000 imágenes producidas por styleGAN. Para este estudio comparativo del uso de redes neuronales convolucionales (CNN) para identificar imágenes genuinas y deepfake, entrenamos ocho modelos CNN diferentes. Tres de estos modelos se entrenaron con la arquitectura DenseNet (DenseNet121, DenseNet169 y DenseNet201); dos se entrenaron con la arquitectura VGGNet (VGG16, VGG19); uno con la arquitectura ResNet50, otro con VGGFace y otro con una arquitectura CNN a medida. También hemos implementado un modelo a medida que incorpora métodos como el dropout y el padding que ayudan a determinar si los otros modelos reflejan o no sus objetivos. Los resultados se clasificaron según cinco métricas de evaluación: exactitud, precisión, recuperación, puntuación F1 y área bajo la curva ROC (receiver operating characteristic). Entre todos los modelos, VGGFace fue el que mejor funcionó, con un 99 de precisión. Además, obtuvimos 97 del ResNet50, 96 del DenseNet201, 95 del DenseNet169, 94 del VGG19, 92 del VGG16, 97 del modelo DenseNet121 y 90 del modelo personalizado.

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento