Please use this identifier to cite or link to this item: http://www.dspace.espol.edu.ec/handle/123456789/62323
Title: Desarrollo de un modelo de Aprendizaje Profundo para la detección de movimientos y ademanes en presentaciones del sistema RAP de ESPOL
Authors: Domínguez Bonini, Federico , Director
Chévez Coronel, Kevin Isaac
Rugel Díaz, Pamela Nayeli
Keywords: Detección de ademanes
Procesamiento de Video
Retroalimentación Automática
Inteligencia Artificial
Análisis de Datos
Issue Date: 2024
Publisher: ESPOL.FIEC
Citation: Chévez Coronel, K. I. y Rugel Díaz, P. N. (2024). Desarrollo de un modelo de Aprendizaje Profundo para la detección de movimientos y ademanes en presentaciones del sistema RAP de ESPOL. [Proyecto Integrador]. ESPOL.FIEC .
Description: Esta investigación desarrolla un módulo de retroalimentación automática para presentaciones orales usando un modelo de detección de ademanes basado en inteligencia artificial. El objetivo es mejorar la precisión y utilidad del sistema RAP mediante este módulo. Se hipotetiza que un modelo entrenado con datos históricos y sintéticos ofrecerá una retroalimentación más precisa. El proyecto se justifica por la necesidad de optimizar la evaluación del RAP. Se mplearon técnicas de procesamiento de video y análisis de datos con herramientas como Python, OpenCV y MediaPipe. Se aplicaron técnicas de normalización y data augmentation para enriquecer el dataset, y se entrenaron tres tipos de modelos: uno con datos históricos, otro con datos sintéticos y un modelo combinado. Los resultados obtenidos demostraron que el modelo entrenado con datos generados en un entorno controlado ofreció el mejor desempeño en la identificación de ademanes. La retroalimentación generada incluyó un análisis detallado de la frecuencia de acciones, acompañado de ejemplos visuales y estadísticas precisas. El modelo implementado permite una evaluación efectiva y cuantitativa de las acciones durante las presentaciones y facilita una comprensión clara del desempeño del usuario y mejora la utilidad del sistema RAP. Palabras Clave: Detección de ademanes, Retroalimentación Automática, Procesamiento de Video, Inteligencia Artificial, Análisis de Datos.
metadata.dc.description.abstractenglish: This research develops an automatic feedback module for oral presentations using a gesture detection model based on artificial intelligence. The main objective is to improve the accuracy and usefulness of the RAP system through this module. It is hypothesized that a model trained with both historical and synthetic data will provide more precise feedback. The project is justified by the need to optimize the current RAP evaluation. Video processing and data analysis techniques were employed using tools such as Python, OpenCV, and MediaPipe. Techniques like normalization and data augmentation were applied to enrich the dataset, and three types of models were trained: one with historical data, another with synthetic data, and a combined model. The results showed that the model trained with data generated in a controlled environment performed the best in gesture identification. The feedback provided included a detailed analysis of action frequency, along with visual examples and precise statistics. The implemented model enables effective and quantitative evaluation of actions during presentations, facilitating a clear understanding of user performance and enhancing the utility of the RAP system. Keywords: Gesture Detection, Automatic Feedback, Video Processing, Artificial Intelligence, Data Analysis.
URI: http://www.dspace.espol.edu.ec/handle/123456789/62323
metadata.dc.identifier.codigoproyectointegrador: TECH-361
Appears in Collections:Tesis de Computación

Files in This Item:
File SizeFormat 
T-76976 TECH-361 CHEVEZ-RUGEL.pdf2.75 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.