Please use this identifier to cite or link to this item:
http://repositorio.yachaytech.edu.ec/handle/123456789/808
Title: | Development of an Ecuadorian Sign Language Database (LSEC) and real-time interpretation through action recognition with an LSTM deep learning model in Python |
Authors: | Villalba Meneses, Gandhi Fernando Morocho Cayamcela, Manuel Eugenio Vaca Benalcázar, Giovana Franshesca |
Keywords: | Lenguaje de señas Reconocimiento de acciones Modelo de Aprendizaje Profundo Sign language Action recognition Deep Learning Model |
Issue Date: | Jun-2024 |
Publisher: | Universidad de Investigación de Tecnología Experimental Yachay |
Abstract: | Según los datos proporcionados por el Consejo Nacional para la Igualdad de las Discapacidades (CONADIS), se registran alrededor 62.155 de personas con discapacidad auditiva en Ecuador. Sin embargo, no existe una cifra precisa de hablantes de lengua de señas, dado que el acceso a su aprendizaje implica costos elevados y no se imparte como materia dentro del plan académico de las instituciones públicas. En este contexto, el reconocimiento de la lengua de signos mediante la detección de acciones se ha convertido en un área de investigación prometedora. Así, este proyecto se centra en la detección continua de imágenes en tiempo real mediante la identificación de señales no estáticas, con el fin de interpretar las acciones realizadas por los usuarios. Además, aportar con la creación de una base de datos, ya que actualmente no existe. Con estos antecedentes se llevó a cabo la creación de una base de datos denominada LSEC Data, que contiene 23 palabras no estáticas de la Lengua de Señas Ecuatoriana. Posteriormente, se entrenó el modelo de aprendizaje profundo basado en LSTM (Long Short-Term Memory), con el fin de mejorar la capacidad de capturar dependencias temporales complejas de los datos proporcionados. Este proyecto logró identificar con éxito características y patrones a través de puntos clave asociados a las acciones proporcionadas al sistema durante el entrenamiento del modelo. Los resultados demostraron un logro significativo, alcanzando una precisión del 99%. |
Description: | According to data provided by the National Council for the Equality of Disabilities (CONADIS), there are about 62,155 people with hearing disabilities in Ecuador. However, there is no precise number of sign language speakers, since access to learning sign language involves high costs and it is not offered as a subject within the academic curriculum of public educational institutions. In this context, sign language recognition through action detection has emerged as a promising area of research. So, this project focuses on the continuous detection of images in real-time through the identification of non-static signals, in order to interpret the actions performed by users. In addition, contribute with the creation of a database, since it currently does not exist. With this background, the creation of a database called LSEC Data was carried out, which contains 23 non-static words of the Ecuadorian Sign Language. Subsequently, the deep learning model based on LSTM (Long Short-Term Memory) was trained to improve the ability to capture complex temporal dependencies in the provided data. This project successfully identified features and patterns through key points associated with the actions provided to the system during the training of the model. The results demonstrated a significant achievement, reaching 99% accuracy. |
URI: | http://repositorio.yachaytech.edu.ec/handle/123456789/808 |
Appears in Collections: | Biomedicina |
Files in This Item:
There are no files associated with this item.
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.