Por favor, use este identificador para citar o enlazar este ítem:
https://hdl.handle.net/20.500.12104/110235
Título: | Predicción de apnea obstructiva del sueño aplicando técnicas de aprendizaje automático en datos biométricos |
Autor: | López Zaldivar, Marissa |
Director: | Salido Ruiz, Ricardo Antonio |
Palabras clave: | Apnea Obstructiva Del Sueño;Aprendizaje Automatico;Señales De Voz;Imagenes Faciales;Modelos De Prediccion |
Fecha de titulación: | 13-jun-2025 |
Editorial: | Biblioteca Digital wdg.biblio Universidad de Guadalajara |
Resumen: | La apnea obstructiva del sueño (AOS) es un padecimiento frecuente con consecuencias neurológicas, cardiovasculares y metabólicas. El diagnóstico es lento, costoso e invasivo por lo que persiste la necesidad de desarrollar alternativas confiables. En los últimos años han surgido diferentes métodos de clasificación para el diagnóstico automático de AOS. Particularmente, se han aplicado técnicas de aprendizaje automático y aprendizaje profundo como herramientas de predicción para el diagnóstico. Entre los tipos de datos utilizados se encuentran: ECG, imágenes faciales, señales de voz, variables clínicas y respuestas a cuestionarios. Los tipos de datos más utilizados han sido las señales de voz y las características extraídas de imágenes faciales. El uso de ambos tipos de datos por separado ha probado ser útil en la identificación de sujetos con AOS. Específicamente para el uso de este tipo de datos para clasificar sujetos con AOS, los estudios con señales de voz han logrado valores de especificidad de hasta 86 % y sensibilidad de 84 % en mujeres, y 83 % y 79 % en hombres, además de valores de precisión de 84.85 % en otros casos. Los estudios basados en imágenes faciales han alcanzado valores de AUC (Area Under the Curve) de 0.916 con un valor de sensibilidad de hasta 95 %. Combinando medidas craneofaciales o características acústicas extraídas de señales de voz junto con variables clínicas, se han reportado resultados con un valor de MAE (Mean Absolute Error) de 11.97 y una correlación de 0.45 para la estimación del índice apnea-hipopnea (IAH). Se ha llegado a la conclusión de que la combinación de ciertos tipos de datos ha mejorado la predicción de la gravedad de AOS. Si bien los trabajos previos han alcanzado resultados aceptables, no se ha explorado suficientemente la posibilidad de utilizar señales de voz e imágenes faciales de manera simultánea. Cabe mencionar que aunque existen estudios previos que utilizan ambos tipos de datos para clasificar personas con y sin AOS, los resultados están basados en los valores predichos por modelos de regresión, viii ya que la asignación de clases se realizó manualmente a partir de estos resultados. Es decir, no se crearon modelos de clasificación. Este trabajo de investigación busca contribuir al conocimiento en el campo de la identificación de sujetos con predisposición a AOS, mediante el uso de señales obtenidas de manera no invasiva, con el fin de agilizar el proceso diagnóstico y acelerar la aplicación del tratamiento. Considerando lo anterior, el objetivo de este trabajo de investigación es el de crear modelos de predicción de AOS, mediante el uso de técnicas de aprendizaje automático en la combinación de conjuntos de datos que incluyen características acústicas extraídas de señales de voz y medidas craneofaciales obtenidas a partir de imágenes faciales. Este estudio demuestra que el desempeño de los modelos de predicción, al hacer uso de las características acústicas extraídas de las señales de voz, mejora cuando se utilizan conjuntos de datos que combinan estas características con medidas craneofaciales. De manera general, las medidas craneofaciales arrojaron los mejores resultados entre los conjuntos de características evaluados, mientras que las características acústicas de frases (habla continua) mostraron un mejor desempeño en contraste con las vocales (habla sostenida). Con algoritmos como Lasso, árboles de decisión y Random Forests, la combinación de medidas craneofaciales y características acústicas mejoró los resultados en algunos casos para habla continua y para habla sostenida, en comparación con los otros datasets que solo incluyen un tipo de dato acústico (vocales o frases). En el futuro, se recomienda ampliar la cantidad de características acústicas y craneofaciales utilizadas, así como aumentar el tamaño de la base de datos para mejorar el desempeño de los modelos. Un análisis separado por sexo podría ser útil para la personalización de los modelos, dado que existen diferencias entre hombres y mujeres en cuanto a los rangos normales en medidas craneofaciales y rangos de valores en las características acústicas de las señales de voz. Además, la extracción de características acústicas en el habla sostenida por ventanas y varias repeticiones podría ser útil para obtener más informácion de su comportamiento en el tiempo. |
URI: | https://wdg.biblio.udg.mx https://hdl.handle.net/20.500.12104/110235 |
Programa educativo: | MAESTRIA EN CIENCIAS EN BIOINGENIERIA Y COMPUTO INTELIGENTE |
Aparece en las colecciones: | CUCEI |
Ficheros en este ítem:
Fichero | Tamaño | Formato | |
---|---|---|---|
MCUCEI11233FT.pdf | 8.38 MB | Adobe PDF | Visualizar/Abrir |
Los ítems de RIUdeG están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.