Descripción:
Esta investigación desarrolla un módulo de retroalimentación automática para presentaciones orales usando un modelo de detección de ademanes basado en inteligencia artificial. El objetivo es mejorar la precisión y utilidad del sistema RAP mediante este módulo. Se hipotetiza que un modelo entrenado con datos históricos y sintéticos ofrecerá una retroalimentación más precisa. El proyecto se justifica por la necesidad de optimizar la evaluación del RAP. Se mplearon técnicas de procesamiento de video y análisis de datos con herramientas como Python, OpenCV y MediaPipe. Se aplicaron técnicas de normalización y data augmentation para enriquecer el dataset, y se entrenaron tres tipos de modelos: uno con datos históricos, otro con datos sintéticos y un modelo combinado. Los resultados obtenidos demostraron que el modelo entrenado con datos generados en un entorno controlado ofreció el mejor desempeño en la identificación de ademanes. La retroalimentación generada incluyó un análisis detallado de la frecuencia de acciones, acompañado de ejemplos visuales y estadísticas precisas. El modelo implementado permite una evaluación efectiva y cuantitativa de las acciones durante las presentaciones y facilita una comprensión clara del desempeño del usuario y mejora la utilidad del sistema RAP. Palabras Clave: Detección de ademanes, Retroalimentación Automática, Procesamiento de Video, Inteligencia Artificial, Análisis de Datos.