Please use this identifier to cite or link to this item:
http://repositorio.yachaytech.edu.ec/handle/123456789/676
Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.advisor | Morocho Cayamcela, Manuel Eugenio | - |
dc.contributor.author | Jami Jami, Bryan Eduardo | - |
dc.date.accessioned | 2023-11-17T16:31:17Z | - |
dc.date.available | 2023-11-17T16:31:17Z | - |
dc.date.issued | 2023-11 | - |
dc.identifier.uri | http://repositorio.yachaytech.edu.ec/handle/123456789/676 | - |
dc.description | Deep learning and computer vision are used to create applications that facilitate a better interaction between humans and machines. In the educational domain, obtaining information about sign language is simple, but finding a platform that allows for intuitive interaction is quite challenging. A web app has been developed to address this issue by employing deep learning to assist users in learning sign language. In this study, two models for hand-gesture recognition were tested, utilizing 20,800 images; the models tested were AlexNet and GoogLeNet. The overfitting problem encountered in convolutional neural networks has been considered while training these models. Several techniques to minimize the overfitting and improve the overall accuracy have been employed in this study. AlexNet achieved an 87% of accuracy rate when interpreting hand gestures whereas GoogLeNet achieved an 85% accuracy rate. These results were incorporated into the web app, which aims to teach the alphabet of American sign language intuitively. | es |
dc.description.abstract | El aprendizaje profundo y la visión por computadora se utilizan para crear aplicaciones que faciliten una mejor interacción entre humanos y máquinas. En el ´ámbito educativo, obtener información sobre el lenguaje de señas es sencillo, pero encontrar una plataforma que permita una interacción intuitiva es todo un desafío. Se ha desarrollado una aplicación web para abordar este problema mediante el empleo de aprendizaje profundo para ayudar a los usuarios a aprender el lenguaje de señas. En este estudio, se probaron dos modelos de reconocimiento de gestos con las manos, utilizando 20.800 imágenes; Los modelos probados fueron AlexNet y GoogLeNet. Durante el entrenamiento de estos modelos se ha considerado el problema de sobreajuste que se encuentra en las redes neuronales convolucionales. En este estudio se han empleado varias técnicas para minimizar el sobreajuste y mejorar la precisión general. AlexNet logró una tasa de precisión del 87% al interpretar gestos con las manos, mientras que GoogLeNet logró una tasa de precisión del 85%. Estos resultados se incorporaron a la aplicación web, cuyo objetivo es enseñar el alfabeto de la lengua de signos estadounidense de forma intuitiva. | es |
dc.language.iso | eng | es |
dc.publisher | Universidad de Investigación de Tecnología Experimental Yachay | es |
dc.rights | openAccess | es |
dc.subject | Aprendizaje profundo | es |
dc.subject | Visión computacional | es |
dc.subject | Lenguaje de señas | es |
dc.subject | Deep learning | es |
dc.subject | Computer vision | es |
dc.subject | Sign language | es |
dc.title | Web application to learn sign language with deep learning | es |
dc.type | bachelorThesis | es |
dc.description.degree | Ingeniero/a en Tecnologías de la Información | es |
dc.pagination.pages | 72 hojas | es |
Appears in Collections: | Tecnologías de la Información |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
ECMC0139.pdf | 6.07 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.