Please use this identifier to cite or link to this item: http://repositorio.yachaytech.edu.ec/handle/123456789/727
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorFonseca Delgado, Rigoberto Salomón-
dc.contributor.advisorMorales Navarrete, Diego Fabián-
dc.contributor.authorVelasco Silva, Ricardo Isaías-
dc.date.accessioned2024-03-15T16:27:40Z-
dc.date.available2024-03-15T16:27:40Z-
dc.date.issued2024-03-
dc.identifier.urihttp://repositorio.yachaytech.edu.ec/handle/123456789/727-
dc.descriptionAn initial and experimental evaluation of a mispronunciation detection system was developed for the Kichwa language. The study implemented pretrained convolutional neural network architectures to classify spectrograms of accurately pronounced and inaccurately pronounced words. The initial model, known as the CNN feature-based model, extracts features from the fully connected layers. It then employs a feature selection technique to separate discriminative features from non-discriminative ones. Finally, these features are classified using a KNN classifier. The second model, which is based on transfer learning with convolutional neural networks (CNNs), uses the knowledge from convolutional layers and adapts the classifier layer for binary classification, distinguishing between well-pronounced and mispronounced audios. When referring to the used dataset, two datasets were constructed and used in this study: a dataset with Kichwa words and synthetic words, and the same but with synthetic words for training. In conclusion, the CNN transfer learning-based method is superior to the CNN feature-based method in both datasets. Concretely, AlexNet with hyperparameter tuning achieves 0.90 and 0.92 in the balanced predictive value metric in both datasets, respectively.es
dc.description.abstractSe ha realizado una evaluación inicial y experimental de un sistema de detección de errores de pronunciación para la lengua kichwa. Se empleó arquitecturas de redes neuronales convolucionales preentrenadas para clasificar espectrogramas de palabras pronunciadas con exactitud y palabras pronunciadas con inexactitud. El modelo inicial, conocido como un modelo basado en características de redes convolucionales, extrae características de las capas totalmente conectadas. A continuación, emplea una técnica de selección de características para separar las características discriminativas de las no discriminativas. Por último, estas características se clasifican mediante un clasificador KNN. El segundo modelo, basado en el aprendizaje por transferencia con redes neuronales convolucionales (CNN), utiliza el conocimiento de las capas convolucionales y adapta la capa clasificadora para la clasificación binaria, distinguiendo entre audios bien pronunciados y mal pronunciados. En cuanto al conjunto de datos utilizado, se construyeron dos conjuntos de datos que se utilizaron en este estudio: un conjunto de datos con palabras en Kichwa y palabras sintéticas, y el mismo pero con palabras sintéticas para el entrenamiento. En conclusión, el método basado en el aprendizaje por transferencia es superior al método basado en características en ambos conjuntos de datos. Concretamente, AlexNet con ajuste de hiperparámetros alcanza 0,90 y 0,92 en la métrica de valor predictivo equilibrado en ambos conjuntos de datos, respectivamente.es
dc.language.isoenges
dc.publisherUniversidad de Investigación de Tecnología Experimental Yachayes
dc.rightsopenAccesses
dc.subjectRedes neuronales convolucionaleses
dc.subjectModelo basado en característicases
dc.subjectAjuste de hiperparámetroses
dc.subjectConvolutional neural networkses
dc.subjectFeatures-based modeles
dc.subjectHyperparameter tuninges
dc.titleComputer-assisted mispronunciation detection system for L2 kichwa speeches
dc.typebachelorThesises
dc.description.degreeIngeniero/a en Tecnologías de la Informaciónes
dc.pagination.pages119 hojases
Appears in Collections:Tecnologías de la Información

Files in This Item:
File Description SizeFormat 
ECMC0147.pdf7.91 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.