Revista Sinapsis. ISSN 1390 – 9770
Periodo. Julio – Diciembre 2025
Vol. 27, Nro. 2, Publicado 2025-12-31
https://www.itsup.edu.ec/sinapsis
la fuente de datos difiere (acústica vs. inercial), ambos métodos evidencian que tecnologías no
invasivas pueden detectar condiciones dentales con gran precisión.
En el terreno de la interacción humano-máquina, Sun et al. (2021) desarrollaron TeethTap, un
modelo de detección de gestos dentales con soporte SVM y DTW, alcanzando una exactitud del
90.9%. Aunque se orienta a interfaces computacionales, destaca la capacidad de los sensores
inerciales para detectar micro-movimientos, algo que el modelo también captura en hábitos de
cepillado. Por último, García-de-Villa et al. (2024) realizaron una revisión sobre sensores
inerciales en análisis de movimiento y concluyeron que el Deep Learning mejora notablemente la
calidad de la clasificación frente a métodos tradicionales. El presente estudio lo confirma al lograr
valores en rango de 0.89–0.955, compatibles con estudios modernos en este campo.
En comparación con los estudios mencionados, los resultados de precisión y sensibilidad
obtenidos aquí están entre los valores reportados para aplicaciones biomédicas similares,
reafirmando la eficacia del enfoque. La incorporación del componente cualitativo y la validación
clínica confieren mayor solidez que muchos estudios que solo miden desempeño computacional
en condiciones ideales. Sin embargo, persisten desafíos. Por ejemplo, los errores en zonas
posteriores coinciden con las dificultades identificadas en Palanisamy (2024) y mTeeth (Shetty et
al., 2021), lo que sugiere que se requiere recopilar más datos variados y tal vez mejorar la
segmentación de señales.
En fases futuras, se pretende entrenar los modelos para que no solo clasifique patrones de
cepillado, sino que pueda integrarse con módulos de retroalimentación educativa personalizados.
Aunque el presente modelo no configura recomendaciones automáticas, su arquitectura y
precisión permiten proyectar su evolución hacia aplicaciones que orienten al usuario sobre
mejoras técnicas en tiempo real. Además, se podrían aplicar otros algoritmos de clasificaciones
como RESNET y INCEPTION para comparar resultados, para saber si los resultados es factible
realizar el análisis de ANOVA.
RECONOCIMIENTO
Apoyado por el proyecto “OPMIA: Optimización de modelos de inteligencia artificial sobre
conjuntos de datos numéricos, textuales y de imágenes” (PYTAUTO3334-2023-FCI0027,
Universidad Técnica de Manabí).
Bibliografía
1. Ahmad, W., Kazmi, M., & Ali, H. (2020). Human activity recognition using multi‑head
CNN followed by LSTM. arXiv. https://arxiv.org/abs/2003.06327.
2. Akther, S., Saleheen, N., Saha, M., Shetty, V., & Kumar, S. (2021). mTeeth: Identifying
brushing teeth surfaces using wrist‑worn inertial sensors. Proceedings of the ACM on
Interactive, Mobile, Wearable and Ubiquitous Technologies, 5(2), 1–25.
https://doi.org/10.1145/3463494
3. Al‑Saffar, Z., Nguyen, T. T., & Harb, H. (2020). Human motion classification via
inertial sensor data and machine learning: A systematic review. Sensors, 20(19), 5632.
https://doi.org/10.3390/s20195632
4. Armas‑Vega, A., Parise‑Vasco, J. M., Díaz‑Segovia, M. C., Arroyo‑Bonilla, D. A.,
Cabrera‑Dávila, M. J., Zambrano‑Bonilla, M. C., … Viteri‑García, A. (2023).
Prevalence of dental caries in schoolchildren from the Galapagos Islands: ESSO‑Gal
cohort report. International Journal of Dentistry, 2023, 6544949.
https://doi.org/10.1155/2023/6544949
5. Bevilacqua, A., MacDonald, K., Rangarej, A., Widjaya, V., Caulfield, B., & Kechadi,
T. (2019). Human activity recognition with convolutional neural networks. arXiv.
https://arxiv.org/abs/1906.01935.
6. Chen, C.-H., Wang, C.-C., & Chen, Y.-Z. (2021). Intelligent brushing monitoring using
a smart toothbrush with recurrent probabilistic neural network. Sensors (Basel), 21(4),
1238. https://doi.org/10.3390/s21041238
7. Chen, X., Li, Y., Wang, Z., & Ho, K. L. (2021). Smart toothbrush with inertial sensors
and an RPNN classifier for motion recognition. IEEE Transactions on Neural Networks
and Learning Systems, 32(5), 2123–2134.