Tesis doctorales DEIM - EIMS Doktoretza tesiak
Permanent URI for this collection
Browse
Browsing Tesis doctorales DEIM - EIMS Doktoretza tesiak by Author "Bustince Sola, Humberto"
Now showing 1 - 4 of 4
Results Per Page
Sort Options
Publication Open Access Generalized forms of monotonicity in the data aggregation framework(2019) Sesma Sara, Mikel; Bustince Sola, Humberto; Mesiar, Radko; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaEl proceso de agregación trata el problema de combinar una colección de valores numéricos en un único valor que los represente y las funciones encargadas de esta operación se denominan funciones de agregación. A las funciones de agregación se les exige que cumplan dos condiciones de contorno y, además, han de ser monótonas con respecto a todos sus argumentos. Una de las tendencias en el área de investigación de las funciones de agregación es la relajación de la condición de monotonía. En este respecto, se han introducido varias formas de monotonía relajada. Tal es el caso de la monotonía débil, la monotonía direccional y la monotonía respecto a un cono. Sin embargo, todas estas relajaciones de monotonía están basadas en la idea de crecer, o decrecer, a lo largo de un rayo definido por un vector real. No existe noción de monotonía que permita que la dirección de crecimiento dependa de los valores a fusionar, ni tampoco existe noción de monotonía que considere el crecimiento a lo largo de caminos más generales, como son las curvas. Además, otra de las tendencias en la teoría de la agregación es la extensión a escalas más generales que la de los números reales y no existe relajación de monotonía disponible para este contexto general. En esta tesis, proponemos una colección de nuevas formas de monotonía relajada para las cuales las direcciones de monotonía pueden variar dependiendo del punto del dominio. En concreto, introducimos los conceptos de monotonía direccional ordenada, monotonía direccional ordenada reforzada y monotonía direccional punto a punto. Basándonos en funciones que cumplan las propiedades de monotonía direccional ordenada, proponemos un algoritmo de detección de bordes que justifica la aplicabilidad de estos conceptos. Por otro lado, generalizamos el concepto de monotonía direccional tomando, en lugar de direcciones en Rn, caminos más generales: definimos el concepto de monotonía basado en curvas. Por último, combinando ambas tendencias en la teoría de la agregación, generalizamos el concepto de monotonía direccional a funciones definidas en escalas más generales que la de los números reales.Publication Open Access Mejoras a la capacidad de generalización de la inteligencia artificial(2023) Fumanal Idocin, Javier; Bustince Sola, Humberto; Cordón García, Óscar; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaLa fusión de información es un aspecto crucial del análisis moderno de datos y la toma de decisiones. Implica la integración de múltiples fuentes de información para obtener una com prensión más completa y precisa de un tema determinado. Este proceso es especialmente importante en campos como la informática, la ingeniería y las ciencias naturales, donde se generan grandes cantidades de datos procedentes de diversas fuentes que deben sintetizarse para tomar decisiones con conocimiento de causa. La fusión de información también es esencial en el diseño y la implantación de sistemas inteligentes, ya que permite integrar diversos sensores y fuentes de datos para hacer predicciones y recomendaciones más precisas. Desde un punto de vista matemático, una forma de estudiar este problema es a través de la idea de funciones de fusión, que toman como entrada un vector de números y devuelven uno solo, representativo de ellos. Un tipo relevante de funcion de fusión es la familia de funciones de agregación. Estas funciones mantienen dos condiciones de contorno y monotonicidad con respecto a las entradas, que inducen algunas propiedades deseables a la salida de la función. Sin embargo, la fusión de información en los sistemas aplicados comprende algo más que esta noción teórica. A medida que la heterogeneidad, la estructura y el volumen de los datos adquieren mayor relevancia, han surgido otros enfoques para abordar este problema. Por ejemplo, en una estructura de red, las distintas entradas se asocian entre sí según un conjunto preestablecido de relaciones; en las series temporales, los datos presentan dependencias temporales. Cuando se trata de datos no estructurados, como texto, audio e imagen, los enfoques de aprendizaje profundo han tenido mucho exito en la transformación de este tipo de datos en representaciones vectoriales de números reales utilizando series de transformaciones afines. A pesar de los esfuerzos previos en este campo, el problema de combinar eficazmente fuentes de información diversas y heterogéneas, sigue siendo un área de investigación abierta y activa. Esto se debe a los desafíos inherentes a la integracion de múltiples fuentes que pueden estar en diferentes formatos y pueden tener información contradictoria o incompleta. Por ejemplo, el modo en que la información medida se relaciona con otras fuentes de datos y la fiabilidad de esas medidas dependen en gran medida del procedimiento de medición. De hecho, los sistemas que fusionan la información de esas distintas fuentes presentarán también complejidades adicionales al tener en cuenta las particularidades de cada característica considerada. En esta tesis, proponemos un conjunto de funciones y algoritmos para tener en cuenta las posibles interacciones, heterogeneidades e incertidumbres cuando se trabaja con distintas fuentes de información. Lo hacemos mediante la teoría de agregaciones y el análisis de redes sociales, y nos centramos especialmente en aquellos casos en los que los enfoques de aprendizaje profundo no tienen tanto éxito. Aplicamos estos resultados a una amplia gama de problemas, incluyendo la clasificación de se ñales de interfaz cerebro-ordenador, la clasificación de datos tabulares estándar y la detección de anomalías.Publication Open Access Modification of information reduction processes in Convolutional Neural Networks(2024) Rodríguez Martínez, Iosu; Bustince Sola, Humberto; Herrera, Francisco; Takáč, Zdenko; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaDuring the last decade, Deep Artificial Neural Networks have established themselves as the state-of-the-art solution for solving complex tasks such as image processing, time-series forecasting, or natural language processing. One of the most studied families of artificial neural network is that of Convolutional Neural Networks (CNNs), which can exploit the local information of data sources such as images by automatically extracting increasingly more complex features in a hierarchical manner. Although plenty of work has been dedicated to the introduction of more complex (or more efficient) model architectures of CNN; to solving the optimisation problems faced by them and accelerating training convergence; or to trying to interpret their inner workings as well as explaining their generated predictions, an important key aspect of these models is sometimes overlooked: that of feature fusion. Feature fusion appears in plenty of forms in CNNs. Feature downsampling is necessary in order to compress the intermediate representations generated by the model, while preserving the most relevant information, a process which also makes models robust to small shifts in the inputs. Combining different sources of data or different feature representations is also a recurrent problem in neural networks, which is usually taken care of by simply allowing the model to learn additional transformations in a supervised manner, increasing its parameter count. In this dissertation, we study the application of solutions of the Information Fusion field to better tackle these problems. In particular, we explore the use of aggregation functions which replace a set of input values by a suitable single representative. We study the most important properties of these functions in the context of CNN feature reduction, and present novel pooling and Global Pooling proposals inspired by our discoveries. We also test the suitability of our proposals for the detection of COVID-19 patients, presenting an end-to-end pipeline which automatically analyses chest x-ray images.Publication Open Access Uncertainty management in federated learning(2025) Urío Larrea, Asier; Bustince Sola, Humberto; Pereira Dimuro, Graçaliz; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaDurante los últimos años se ha generalizado el uso de una gran variedad de técnicas de aprendizaje automático para extraer conocimiento de la multitud de datos disponibles en diversos sectores. Estas aplicaciones van desde la medicina, hasta las finanzas, pasando por las recomendaciones de productos, entre otras. Sin embargo, por diversos motivos, ya sean legislativos, éticos o incluso técnicos, no siempre es posible disponer de todos los datos en un único punto para poder aplicar estos algoritmos. Para atajar este problema surge el denominado aprendizaje federado. Esta técnica tiene como objetivo el poder crear un modelo a partir de la información de los agentes participantes, sin que estos tengan que enviar sus propios datos. La forma de generar este modelo es mediante el entrenamiento de modelos locales en cada uno de los agentes y la transmisión de, únicamente, los parámetros de estos modelos. Otro de los problemas que tienen que tratar las diversas técnicas de aprendizaje automático es el tratamiento de la incertidumbre. Entendemos por incertidumbre la (des)confianza que poseemos en torno a la validez de los datos. Esta puede ser debida a desviaciones de los datos de la información real, errores de medición, etc. Una de las propuestas para tratar esta situación es el empleo de la teoría de conjuntos difusos. En esta tesis proponemos algoritmos de aprendizaje federado que gestionan la incertidumbre desde la perspectiva de la teoría de conjuntos difusos. En concreto, proponemos dos algoritmos, uno de ellos supervisado y el otro no supervisado. El algoritmo supervisado se basa en la lógica difusa mediante el uso de reglas si-entonces, mientras que el no supervisado consiste en la utilización de algoritmos de agrupamiento difusos en flujos de datos.