Please use this identifier to cite or link to this item:
http://repositorio.yachaytech.edu.ec/handle/123456789/849
Title: | Artificial Intelligence based detection of manipulated audio for political forensics |
Authors: | Astudillo León, Juan Pablo Moreno Guaicha, Jefferson Alexander Mendoza Núñez, Patricio Joshue |
Keywords: | Inteligencia Artificial Redes neuronales Ética Artificial Intelligence Neural networks Ethics |
Issue Date: | Nov-2024 |
Publisher: | Universidad de Investigación de Tecnología Experimental Yachay |
Abstract: | La proliferación de audio deepfake plantea desafíos significativos en la pericia política, ya que puede utilizarse para difundir desinformación y manipular la opinión pública. Esta tesis aborda estos desafíos desarrollando y evaluando modelos basados en IA para detectar audio manipulado. Se realizó una revisión sistemática de la literatura sobre técnicas avanzadas en la detección de contenido multimedia manipulado, destacando las dificultades que presentan las técnicas de síntesis y edición. A partir de este análisis, se compiló un conjunto de datos de discursos políticos reales y fabricados artificialmente, utilizando métodos de procesamiento de lenguaje natural (NLP) para extraer vectores de características. Se evaluaron dos arquitecturas de redes neuronales: Redes Neuronales Convolucionales (CNN) y Transformers. El modelo CNN consta de una red de 7 capas para procesar formas de onda de audio, mientras que el modelo Transformer utiliza 12 o 24 bloques de Transformer para capturar dependencias globales e información contextual. El estudio también analiza características acústicas que distinguen el audio real del falso, incluyendo espectrogramas, niveles de decibelios y representaciones de características como MFCC y Mel-Espectrograma. Los resultados indican que el audio falso tiende a ser más fuerte y menos variable que el audio real, y las características confirman la naturaleza sintética del audio falso. Las conclusiones destacan la efectividad de los modelos Transformers en la detección de audio manipulado, superando a las CNN en precisión y capacidad de generalización, sugiriendo un camino prometedor para futuras investigaciones en esta área. |
Description: | The proliferation of deepfake audio poses significant challenges in political forensics, as it can be used to spread misinformation and manipulate public opinion. This thesis addresses these challenges by developing and evaluating AI-based models to detect manipulated audio. A systematic review of the literature on advanced techniques for detecting manipulated multimedia content was conducted, highlighting the difficulties posed by synthesis and editing techniques. Based on this analysis, a dataset of real and artificially fabricated political speeches was compiled, utilizing natural language processing (NLP) methods to extract feature vectors. Two neural network architectures were evaluated: Convolutional Neural Networks (CNN) and Transformers. The CNN model consists of a 7-layer network to process audio waveforms, while the Transformer model employs 12 or 24 Transformer blocks to capture global dependencies and contextual information. The study also analyzes acoustic features that distinguish real from fake audio, including spectrograms, decibel levels, and feature representations such as MFCC and Mel-Spectrogram. The results indicate that fake audio tends to be louder and less variable than real audio, and the feature representations confirm the synthetic nature of fake audio. The conclusions highlight the effectiveness of Transformer models in detecting manipulated audio, outperforming CNNs in accuracy and generalization capability, suggesting a promising path for future research in this area. |
URI: | http://repositorio.yachaytech.edu.ec/handle/123456789/849 |
Appears in Collections: | Tecnologías de la Información |
Files in This Item:
There are no files associated with this item.
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.