Please use this identifier to cite or link to this item: http://repositorio.yachaytech.edu.ec/handle/123456789/676
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorMorocho Cayamcela, Manuel Eugenio-
dc.contributor.authorJami Jami, Bryan Eduardo-
dc.date.accessioned2023-11-17T16:31:17Z-
dc.date.available2023-11-17T16:31:17Z-
dc.date.issued2023-11-
dc.identifier.urihttp://repositorio.yachaytech.edu.ec/handle/123456789/676-
dc.descriptionDeep learning and computer vision are used to create applications that facilitate a better interaction between humans and machines. In the educational domain, obtaining information about sign language is simple, but finding a platform that allows for intuitive interaction is quite challenging. A web app has been developed to address this issue by employing deep learning to assist users in learning sign language. In this study, two models for hand-gesture recognition were tested, utilizing 20,800 images; the models tested were AlexNet and GoogLeNet. The overfitting problem encountered in convolutional neural networks has been considered while training these models. Several techniques to minimize the overfitting and improve the overall accuracy have been employed in this study. AlexNet achieved an 87% of accuracy rate when interpreting hand gestures whereas GoogLeNet achieved an 85% accuracy rate. These results were incorporated into the web app, which aims to teach the alphabet of American sign language intuitively.es
dc.description.abstractEl aprendizaje profundo y la visión por computadora se utilizan para crear aplicaciones que faciliten una mejor interacción entre humanos y máquinas. En el ´ámbito educativo, obtener información sobre el lenguaje de señas es sencillo, pero encontrar una plataforma que permita una interacción intuitiva es todo un desafío. Se ha desarrollado una aplicación web para abordar este problema mediante el empleo de aprendizaje profundo para ayudar a los usuarios a aprender el lenguaje de señas. En este estudio, se probaron dos modelos de reconocimiento de gestos con las manos, utilizando 20.800 imágenes; Los modelos probados fueron AlexNet y GoogLeNet. Durante el entrenamiento de estos modelos se ha considerado el problema de sobreajuste que se encuentra en las redes neuronales convolucionales. En este estudio se han empleado varias técnicas para minimizar el sobreajuste y mejorar la precisión general. AlexNet logró una tasa de precisión del 87% al interpretar gestos con las manos, mientras que GoogLeNet logró una tasa de precisión del 85%. Estos resultados se incorporaron a la aplicación web, cuyo objetivo es enseñar el alfabeto de la lengua de signos estadounidense de forma intuitiva.es
dc.language.isoenges
dc.publisherUniversidad de Investigación de Tecnología Experimental Yachayes
dc.rightsopenAccesses
dc.subjectAprendizaje profundoes
dc.subjectVisión computacionales
dc.subjectLenguaje de señases
dc.subjectDeep learninges
dc.subjectComputer visiones
dc.subjectSign languagees
dc.titleWeb application to learn sign language with deep learninges
dc.typebachelorThesises
dc.description.degreeIngeniero/a en Tecnologías de la Informaciónes
dc.pagination.pages72 hojases
Appears in Collections:Tecnologías de la Información

Files in This Item:
File Description SizeFormat 
ECMC0139.pdf6.07 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.