Por favor, use este identificador para citar o enlazar este ítem: https://hdl.handle.net/20.500.12104/110235
Registro completo de metadatos
Campo DCValorLengua/Idioma
dc.contributor.authorLópez Zaldivar, Marissa
dc.date.accessioned2025-09-05T22:23:57Z-
dc.date.available2025-09-05T22:23:57Z-
dc.date.issued2025-06-13
dc.identifier.urihttps://wdg.biblio.udg.mx
dc.identifier.urihttps://hdl.handle.net/20.500.12104/110235-
dc.description.abstractLa apnea obstructiva del sueño (AOS) es un padecimiento frecuente con consecuencias neurológicas, cardiovasculares y metabólicas. El diagnóstico es lento, costoso e invasivo por lo que persiste la necesidad de desarrollar alternativas confiables. En los últimos años han surgido diferentes métodos de clasificación para el diagnóstico automático de AOS. Particularmente, se han aplicado técnicas de aprendizaje automático y aprendizaje profundo como herramientas de predicción para el diagnóstico. Entre los tipos de datos utilizados se encuentran: ECG, imágenes faciales, señales de voz, variables clínicas y respuestas a cuestionarios. Los tipos de datos más utilizados han sido las señales de voz y las características extraídas de imágenes faciales. El uso de ambos tipos de datos por separado ha probado ser útil en la identificación de sujetos con AOS. Específicamente para el uso de este tipo de datos para clasificar sujetos con AOS, los estudios con señales de voz han logrado valores de especificidad de hasta 86 % y sensibilidad de 84 % en mujeres, y 83 % y 79 % en hombres, además de valores de precisión de 84.85 % en otros casos. Los estudios basados en imágenes faciales han alcanzado valores de AUC (Area Under the Curve) de 0.916 con un valor de sensibilidad de hasta 95 %. Combinando medidas craneofaciales o características acústicas extraídas de señales de voz junto con variables clínicas, se han reportado resultados con un valor de MAE (Mean Absolute Error) de 11.97 y una correlación de 0.45 para la estimación del índice apnea-hipopnea (IAH). Se ha llegado a la conclusión de que la combinación de ciertos tipos de datos ha mejorado la predicción de la gravedad de AOS. Si bien los trabajos previos han alcanzado resultados aceptables, no se ha explorado suficientemente la posibilidad de utilizar señales de voz e imágenes faciales de manera simultánea. Cabe mencionar que aunque existen estudios previos que utilizan ambos tipos de datos para clasificar personas con y sin AOS, los resultados están basados en los valores predichos por modelos de regresión, viii ya que la asignación de clases se realizó manualmente a partir de estos resultados. Es decir, no se crearon modelos de clasificación. Este trabajo de investigación busca contribuir al conocimiento en el campo de la identificación de sujetos con predisposición a AOS, mediante el uso de señales obtenidas de manera no invasiva, con el fin de agilizar el proceso diagnóstico y acelerar la aplicación del tratamiento. Considerando lo anterior, el objetivo de este trabajo de investigación es el de crear modelos de predicción de AOS, mediante el uso de técnicas de aprendizaje automático en la combinación de conjuntos de datos que incluyen características acústicas extraídas de señales de voz y medidas craneofaciales obtenidas a partir de imágenes faciales. Este estudio demuestra que el desempeño de los modelos de predicción, al hacer uso de las características acústicas extraídas de las señales de voz, mejora cuando se utilizan conjuntos de datos que combinan estas características con medidas craneofaciales. De manera general, las medidas craneofaciales arrojaron los mejores resultados entre los conjuntos de características evaluados, mientras que las características acústicas de frases (habla continua) mostraron un mejor desempeño en contraste con las vocales (habla sostenida). Con algoritmos como Lasso, árboles de decisión y Random Forests, la combinación de medidas craneofaciales y características acústicas mejoró los resultados en algunos casos para habla continua y para habla sostenida, en comparación con los otros datasets que solo incluyen un tipo de dato acústico (vocales o frases). En el futuro, se recomienda ampliar la cantidad de características acústicas y craneofaciales utilizadas, así como aumentar el tamaño de la base de datos para mejorar el desempeño de los modelos. Un análisis separado por sexo podría ser útil para la personalización de los modelos, dado que existen diferencias entre hombres y mujeres en cuanto a los rangos normales en medidas craneofaciales y rangos de valores en las características acústicas de las señales de voz. Además, la extracción de características acústicas en el habla sostenida por ventanas y varias repeticiones podría ser útil para obtener más informácion de su comportamiento en el tiempo.
dc.description.tableofcontentsÍndice General Agradecimientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . v Abstract . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . vi Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . viii Índice de Figuras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xiii Índice de tablas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xiv 1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.1 Antecedentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Estado del arte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2.1 Señales de voz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2.2 Imágenes/Métricas Craneofaciales . . . . . . . . . . . . . . . . . . . 3 1.2.3 Combinación de datos . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.3 Planteamiento del problema . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.4 Justificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.5 Hipótesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.6 Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.6.1 Objetivo general . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.6.2 Objetivos específicos . . . . . . . . . . . . . . . . . . . . . . . . . . 8 2 Marco teórico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 x 2.1 Apnea Obstructiva del Sueño (AOS) . . . . . . . . . . . . . . . . . . . . . . 9 2.1.1 Etiología . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.1.2 Diagnóstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.1.3 Tratamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.1.4 Impacto en otros órganos y sistemas . . . . . . . . . . . . . . . . . . 11 2.2 Características particulares relacionadas con AOS . . . . . . . . . . . . . . . . 11 2.2.1 Antropometría craneofacial . . . . . . . . . . . . . . . . . . . . . . 11 2.2.2 Características acústicas de la voz . . . . . . . . . . . . . . . . . . . . 12 2.3 Aprendizaje automático . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.3.1 Algoritmos para Clasificación . . . . . . . . . . . . . . . . . . . . . 13 2.3.1.1 Naïve Bayes (NB) . . . . . . . . . . . . . . . . . . . . . . 13 2.3.1.2 Quadratic Discriminant Analysis (QDA) . . . . . . . . . . 14 2.3.1.3 K-Nearest Neighbors (KNN) . . . . . . . . . . . . . . . . 14 2.3.2 Algoritmos para Regresión . . . . . . . . . . . . . . . . . . . . . . . 15 2.3.2.1 Descenso de Gradiente Estocástico (SGD) . . . . . . . . . 15 2.3.2.2 Regresión LASSO (RL) . . . . . . . . . . . . . . . . . . . 15 2.3.2.3 Regresión Ridge (RR) . . . . . . . . . . . . . . . . . . . . 16 2.3.3 Algoritmos para regresión y clasificación . . . . . . . . . . . . . . . . 17 2.3.3.1 Máquinas de Soporte Vectorial (SVM) . . . . . . . . . . . 17 2.3.3.2 Árbol de decisión (DT) . . . . . . . . . . . . . . . . . . . 18 2.3.3.3 Bosques Aleatorios (RF) . . . . . . . . . . . . . . . . . . 18 2.3.3.4 Perceptrón Multicapa (MLP) . . . . . . . . . . . . . . . . 19 2.3.4 Búsqueda de hiperparámetros . . . . . . . . . . . . . . . . . . . . . 20 2.3.5 Evaluación de los modelos de predicción . . . . . . . . . . . . . . . . 20 2.3.5.1 Métricas de desempeño para regresión . . . . . . . . . . . . 20 2.3.5.2 Métricas de desempeño para clasificación . . . . . . . . . . 22 3 Metodología . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 3.1 Diseño e implementación del protocolo . . . . . . . . . . . . . . . . . . . . . 26 3.1.1 Diseño del protocolo de adquisición . . . . . . . . . . . . . . . . . . 26 3.1.2 Aprobación del Comité de Ética del IMSS . . . . . . . . . . . . . . . 26 3.1.3 Adquisición de los datos . . . . . . . . . . . . . . . . . . . . . . . . 26 3.2 Preprocesamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 xi 3.2.1 Preprocesamiento de las señales de voz . . . . . . . . . . . . . . . . . 28 3.2.2 Preprocesamiento de las imágenes faciales . . . . . . . . . . . . . . . 30 3.3 Caracterización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 3.3.1 Caracterización de las señales de voz . . . . . . . . . . . . . . . . . . 33 3.3.2 Medidas craneofaciales . . . . . . . . . . . . . . . . . . . . . . . . . 33 3.4 Predicción (Estimación del IAH y clasificación de sujetos con AOS) . . . . . . 36 4 Resultados y discusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 4.1 Estimación del IAH mediante algoritmos de regresión . . . . . . . . . . . . . 46 4.1.1 Primera aproximación: caracterización sin segmentación de datos . . . 47 4.1.2 Segunda aproximación: caracterización con segmentación de datos . . 48 4.2 Detección de sujetos con AOS mediante algoritmos de clasificación . . . . . . . 50 4.2.1 Primera aproximación: caracterización sin segmentación de datos . . . 50 4.2.2 Segunda aproximación: caracterización con segmentación de datos . . 51 4.3 Discusión y comparación con el estado del arte . . . . . . . . . . . . . . . . . 51 5 Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 6 Productos obtenidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 Anexos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
dc.formatapplication/PDF
dc.language.isospa
dc.publisherBiblioteca Digital wdg.biblio
dc.publisherUniversidad de Guadalajara
dc.rights.urihttps://www.riudg.udg.mx/info/politicas.jsp
dc.subjectApnea Obstructiva Del Sueño
dc.subjectAprendizaje Automatico
dc.subjectSeñales De Voz
dc.subjectImagenes Faciales
dc.subjectModelos De Prediccion
dc.titlePredicción de apnea obstructiva del sueño aplicando técnicas de aprendizaje automático en datos biométricos
dc.typeTesis de Maestría
dc.rights.holderUniversidad de Guadalajara
dc.rights.holderLópez Zaldivar, Marissa
dc.coverageGUADALAJARA, JALISCO
dc.type.conacytmasterThesis
dc.degree.nameMAESTRIA EN CIENCIAS EN BIOINGENIERIA Y COMPUTO INTELIGENTE
dc.degree.departmentCUCEI
dc.degree.grantorUniversidad de Guadalajara
dc.rights.accessopenAccess
dc.degree.creatorMAESTRIA EN CIENCIAS EN BIOINGENIERO EN Y COMPUTO INTELIGENTE
dc.contributor.directorSalido Ruiz, Ricardo Antonio
dc.contributor.codirectorTorres Ramos, Sulema
Aparece en las colecciones:CUCEI

Ficheros en este ítem:
Fichero TamañoFormato 
MCUCEI11233FT.pdf8.38 MBAdobe PDFVisualizar/Abrir


Los ítems de RIUdeG están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.