Show simple item record

dc.contributor.advisorVentura Soto, S.
dc.contributor.authorMoya Martín-Castaño, Antonio Rafael
dc.date.accessioned2024-10-30T12:46:48Z
dc.date.available2024-10-30T12:46:48Z
dc.date.issued2024
dc.identifier.urihttp://hdl.handle.net/10396/29770
dc.description.abstractLos conceptos de Inteligencia Artificial (Artificial Intelligence - AI) y Aprendizaje Automático (Machine Learning - ML) han despertado gran interés en los últimos años. El avance de la tecnología permite que cada vez haya más cantidad de datos disponible para entrenar modelos de ML, lo que lleva a modelos más complejos y eficaces. Todos estos modelos de ML requieren de un refinamiento adecuado para obtener de ellos el mayor rendimiento posible. Es por ello por lo que la tarea de optimización de los hiperparámetros que los conforman es de vital importancia. El gran esfuerzo y coste temporal que supone el llevar a cabo esta tarea de manera manual (así como el conocimiento previo que requiere) hace que la tarea de optimización de los hiperparámetros (Hyperparameter Optimization - HPO) de los modelos de ML de manera automática se erija como un importante área de investigación. De este modo, esta tesis doctoral se centrará en analizar y mejorar las técnicas de HPO de los modelos de ML mediante el uso de algoritmos evolutivos, los cuales han demostrado su buen funcionamiento en numerosos problemas de optimización. Así, en esta tesis doctoral se abordará la optimización de hiperparámetros en modelos de ML desde dos perspectivas: en modelos entrenados de manera online (Online Learning) y en modelos entrenados de manera offline (Offline Learning). La diferencia entre este tipo de modelos se basa en el modo en que reciben los datos de entrada para el entrenamiento. El caso offline se basa en en entrenamiento mediante el uso de "batches" estáticos, datos que no varían con el tiempo y que se han recolectado de manera previa. Por el contrario, el entrenamiento online se realiza "en línea", siguiendo flujos de datos continuos que cambian a lo largo del tiempo. Cabe destacar que en el caso del entranamiento online los modelos se deben adaptar a adversidades tales como la necesidad de seguir enfoques incrementales; el entrenamiento en tiempo real; o la aparición del fenómeno conocido como Concept Drift. Por ello, las propuestas en uno y otro caso deben adaptarse adecuadamente al mismo. La cantidad de trabajos y el área que abarca cada uno de estos enfoques es muy diferente. Por las complicaciones indicadas previamente, la tarea de HPO en el caso del entrenamiento online cuenta con una cantidad de propuestas mucho menor que el caso del entrenamiento offline. Precisamente por lo grande que es este área de investigación, para el caso del entrenamiento offline, vamos a destacar el subárea en el que nos vamos a centrar. Dado el gran coste computacional requerido para esta tarea de HPO, surge un área de investigación que trata de reducir dicho coste mediante un menor coste de evaluación, usando para ello evaluaciones de fidelidades más baja (ejemplo, evaluaciones parciales en lugar de totales). A este enfoque se le conoce como optimización basada en múltiples fidelidades (multifidelity). Así, dentro de la tarea de HPO en modelos entrenados de manera offline, nos vamos a centrar en revisar y mejorar aquellos que siguen un enfoque basado en múltiples fidelidades. De este modo, en esta tesis doctoral se persiguen tres objetivos principales (y que quedan plasmados en el desarrollo de un capítulo por objetivo): ■ Realizar una propuesta basada en el uso de Evolución Diferencial para mejorar el estado del arte en la tarea de HPO de modelos cuyo entrenamiento se realiza online. Esta propuesta se adapta bien a las tres dificultades nombradas anteriormente: uso de modelos incrementales, entrenamiento en tiempo real y aparición de Concept Drift. ■ Llevar a cabo un estudio y análisis exhaustivo del estado del arte en la tarea de HPO offline usando enfoques basados en múltiples fidelidades. Particularmente, se centra el estudio en modelos de Deep Learning, que son modelos complejos y que sufren claramente con el problema del coste computacional. Concretamente, se realizará una revisión experimental del estado del arte en que: (i) se defina adecuadamente una taxonomía que ubique los trabajos que se encuentran dentro de este enfoque, ya que se podría considerar que este área se encuentra bastante desestructurada. (ii) Se realice una experimentación que permite una discusión y extracción de conclusiones que puede ser de gran interés. ■ Realizar una propuesta basada en el uso de un algoritmo genético para mejorar algunos de los inconvenientes comunes en estos trabajados basados en múltiples fidelidades. Particularmente, se propondrá un algoritmo genético que alivie el problema del descarte prematuro de soluciones. En un capítulo final, se recogen las principales conclusiones extraídas de esta tesis doctoral, así como trabajos futuros a seguir a partir de la misma.es_ES
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoenges_ES
dc.publisherUniversidad de Córdoba, UCOPresses_ES
dc.rightshttps://creativecommons.org/licenses/by-nc-nd/4.0/es_ES
dc.subjectAutoMLes_ES
dc.subjectHyper-parameter optimisationes_ES
dc.subjectMachine learninges_ES
dc.subjectOnline learninges_ES
dc.subjectOffline learninges_ES
dc.subjectBayesian optimizationes_ES
dc.subjectClassificationes_ES
dc.subjectDatasetses_ES
dc.subjectDeep learninges_ES
dc.subjectNeural networkses_ES
dc.subjectEvolutionary algorithmses_ES
dc.titleHyperparameter optimization in machine learning models: an approach based on evolutionary computationes_ES
dc.title.alternativeOptimización de hiperparámetros en modelos de machine learning: un enfoque basado en computación evolutivaes_ES
dc.typeinfo:eu-repo/semantics/doctoralThesises_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record