Aplicación móvil para el reconocimiento de expresiones faciales en el autismo infantil.

dc.contributor.advisorIntriago Rodríguez, Diego Fernando
dc.contributor.authorAguirre Gómez , Jorge Alexánder
dc.date.accessioned2026-03-05T19:31:04Z
dc.date.available2026-03-05T19:31:04Z
dc.date.issued2024
dc.descriptionThis project developed a mobile application to recognize facial expressions in infants with autism, with the aim of enhancing educational and therapeutic interventions. The methodology involved an initial literature review to select deep learning models, followed by the collection of 2000 images categorized into four emotions (joy, anger, fear, and sadness) to train an image classification model based on MobileNetV2. The model was evaluated using metrics such as accuracy, model size, latency, and memory usage, ensuring its efficiency on mobile devices. During trials at the Special Education Unit "Fe y Alegría" in Santo Domingo, Ecuador, with children aged 4 to 9, the model achieved an accuracy of 74% on the training set and 70% on the validation set, demonstrating its ability to generalize to new data. The application was well-received by educators and therapists, who confirmed the accurate identification of emotions, enabling more effective and timely interventions. This tool holds significant potential to improve interaction and the educational process for children with Autism Spectrum Disorder (ASD), offering an accessible and user-friendly solution. It is recommended to expand the dataset to include a wider variety of facial expressions and contexts to further increase accuracy.
dc.description.abstractEste proyecto desarrolló una aplicación móvil para el reconocimiento de expresiones faciales en infantes con autismo con la finalidad de mejorar las intervenciones educativas y terapéuticas. La metodología incluyó una revisión bibliográfica inicial para seleccionar modelos de aprendizaje profundo, seguida de la recopilación de 2000 imágenes clasificadas en cuatro emociones (alegría, ira, miedo y tristeza) para entrenar un modelo de clasificación de imágenes basado en MobileNetV2. El modelo se analizó utilizando métricas como precisión, tamaño del modelo, latencia y uso de memoria, asegurando su eficiencia en dispositivos móviles. Durante las pruebas en la Unidad Educativa Especial Fe y Alegría, en Santo Domingo, Ecuador, con niños de entre 4 y 9 años, el modelo alcanzó una precisión del 74% en el conjunto de entrenamiento y del 70% en el conjunto de validación, demostrando su capacidad para generalizar nuevos resultados. La aplicación fue bien recibida por parte de educadores y terapeutas, quienes comprobaron la identificación de las emociones, permitiendo una intervención más efectiva y oportuna. Esta herramienta tiene un gran potencial para mejorar la interacción y el proceso educativo de los niños con TEA, ofreciendo una solución accesible y fácil de usar. Se recomienda ampliar el conjunto de datos para incluir una mayor variedad de expresiones faciales y contextos, con el fin de incrementar la precisión.
dc.format.extent79
dc.identifier.citationAguirre Gómez, Jorge Alexánder (2024). Aplicación móvil para el reconocimiento de expresiones faciales en el autismo infantil. Quevedo. UTEQ. 79 Páginas.
dc.identifier.issn460069
dc.identifier.urihttps://repositorio.uteq.edu.ec/handle/43000/9122
dc.language.isospa
dc.publisherQUEVEDO: UTEQ
dc.rightsAttribution-NonCommercial-ShareAlike 3.0 United Statesen
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/3.0/us/
dc.subjectRedes neuronales convolucionales
dc.subjectAprendizaje profundo
dc.subjectDataset de imágenes
dc.subjectDetección de emociones
dc.titleAplicación móvil para el reconocimiento de expresiones faciales en el autismo infantil.
dc.typebachelorThesis

Files

Original bundle
Now showing 1 - 1 of 1
Thumbnail Image
Name:
T-UTEQ-68.pdf
Size:
3.88 MB
Format:
Adobe Portable Document Format
License bundle
Now showing 1 - 1 of 1
Thumbnail Image
Name:
license.txt
Size:
1.71 KB
Format:
Item-specific license agreed upon to submission
Description: