Abstract:
El presente proyecto busca evaluar distintos modelos CNN con el fin de comparar su rendimiento en el reconocimiento de una gama de defectos en manzanas y mangos para garantizar la calidad de la producción de estos alimentos. Usando los modelos CNN, InceptionV3, MobileNetV2, VGG16 y DenseNet121, los cuales se entrenaron con un dataset de imágenes reales y sintéticas de manzanas y mangos que abarcan la fruta en condiciones aceptables de calidad y con los defectos: podredumbre, golpes, costras y puntos negros. Los entrenamientos se realizaron con variaciones en los hiper-parámetros para obtener las métricas de rendimiento: accuracy, precision, recall y F1-score. El modelo MobileNetV2 alcanzó el accuracy más alto en los entrenamientos y pruebas, obteniendo 97.90% para manzanas y 95.65% para mangos, siendo este el modelo más apto para la detección de defectos en estas frutas. Los modelos InceptionV3 y DenseNet121 presentaron valores de accuracy superiores al 90%, mientras que el modelo VGG16 obtuvo el rendimiento más pobre al no superar el 82% de accuracy para ninguna de las frutas. Los modelos entrenados, sobre todo MobileNetV2, son capaces de reconocer una gama de defectos en las frutas objeto de estudio con un alto grado de exactitud y son adecuados para su uso en el desarrollo de aplicaciones de automatización del proceso de evaluación de la calidad de manzanas y mangos.