Tesis doctorales DEIM - EIMS Doktoretza tesiak
Permanent URI for this collection
Browse
Browsing Tesis doctorales DEIM - EIMS Doktoretza tesiak by browse.metadata.doctorateProgram "Programa de Doctorado en Ciencias y Tecnologías Industriales (RD 99/2011)"
Now showing 1 - 20 of 22
Results Per Page
Sort Options
Publication Open Access Aplicación de tecnologías de realidad aumentada y realidad virtual mediante dispositivos móviles para la salvaguarda de patrimonio lingüístico(2024) Sánchez Campos, Walter; Pina Calafi, Alfredo; Rubio Navarro, Gabriel; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika; Universidad Pública de Navarra/Nafarroako Unibertsitate PublikoaEsta investigación presenta los resultados de un estudio sobre el impacto de la incorporación de un libro de texto de realidad aumentada y aplicaciones móviles android en el proceso de enseñanzaaprendizaje de la lengua náhuat en escuelas públicas de El Salvador. Se aplicó inferencia estadística para determinar la significancia de los valores de las calificaciones entre los estudiantes de un grupo de control y experimental mediante la prueba de Mann-Whitney y la prueba de Brunner-Munzel, previa verificación de los supuestos paramétricos de estas pruebas, en total participaron 150 estudiantes. También se muestran los resultados de la percepción de los estudiantes correspondiente al uso de los recursos antes mencionados, para tal fin fueron administradas encuestas a 113 estudiantes en total, a través de dos cuestionarios con escala de Likert de 5 puntos y frases con escala de tipo diferencial semántica para la recopilación de datos adicionales relacionados para cada pregunta de tipo escala Likert antes mencionado. Los resultados muestran que los estudiantes perciben ventajas específicas vinculadas al uso del libro de texto de realidad aumentada y de aplicaciones móviles android en el proceso de enseñanza-aprendizaje de la lengua náhuat. Este estudio permite concluir que los estudiantes matriculados en cursos de náhuat en escuelas públicas de El Salvador que participaron en este estudio valoran mucho el proceso de enseñanza-aprendizaje mediado por tecnología de realidad aumentada y aplicaciones móviles.Publication Open Access Behavioral analysis in cybersecurity using machine learning: a study based on graph representation, class imbalance and temporal dissection(2022) Zola, Francesco; Galar Idoate, Mikel; Bruse, Jan Lukas; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaThe main goal of this thesis is to improve behavioral cybersecurity analysis using machine learning, exploiting graph structures, temporal dissection, and addressing imbalance problems.This main objective is divided into four specific goals: OBJ1: To study the influence of the temporal resolution on highlighting micro-dynamics in the entity behavior classification problem. In real use cases, time-series information could be not enough for describing the entity behavior classification. For this reason, we plan to exploit graph structures for integrating both structured and unstructured data in a representation of entities and their relationships. In this way, it will be possible to appreciate not only the single temporal communication but the whole behavior of these entities. Nevertheless, entity behaviors evolve over time and therefore, a static graph may not be enoughto describe all these changes. For this reason, we propose to use a temporal dissection for creating temporal subgraphs and therefore, analyze the influence of the temporal resolution on the graph creation and the entity behaviors within. Furthermore, we propose to study how the temporal granularity should be used for highlighting network micro-dynamics and short-term behavioral changes which can be a hint of suspicious activities. OBJ2: To develop novel sampling methods that work with disconnected graphs for addressing imbalanced problems avoiding component topology changes. Graph imbalance problem is a very common and challenging task and traditional graph sampling techniques that work directly on these structures cannot be used without modifying the graph’s intrinsic information or introducing bias. Furthermore, existing techniques have shown to be limited when disconnected graphs are used. For this reason, novel resampling methods for balancing the number of nodes that can be directly applied over disconnected graphs, without altering component topologies, need to be introduced. In particular, we propose to take advantage of the existence of disconnected graphs to detect and replicate the most relevant graph components without changing their topology, while considering traditional data-level strategies for handling the entity behaviors within. OBJ3: To study the usefulness of the generative adversarial networks for addressing the class imbalance problem in cybersecurity applications. Although traditional data-level pre-processing techniques have shown to be effective for addressing class imbalance problems, they have also shown downside effects when highly variable datasets are used, as it happens in cybersecurity. For this reason, new techniques that can exploit the overall data distribution for learning highly variable behaviors should be investigated. In this sense, GANs have shown promising results in the image and video domain, however, their extension to tabular data is not trivial. For this reason, we propose to adapt GANs for working with cybersecurity data and exploit their ability in learning and reproducing the input distribution for addressing the class imbalance problem (as an oversampling technique). Furthermore, since it is not possible to find a unique GAN solution that works for every scenario, we propose to study several GAN architectures with several training configurations to detect which is the best option for a cybersecurity application. OBJ4: To analyze temporal data trends and performance drift for enhancing cyber threat analysis. Temporal dynamics and incoming new data can affect the quality of the predictions compromising the model reliability. This phenomenon makes models get outdated without noticing. In this sense, it is very important to be able to extract more insightful information from the application domain analyzing data trends, learning processes, and performance drifts over time. For this reason, we propose to develop a systematic approach for analyzing how the data quality and their amount affect the learning process. Moreover, in the contextof CTI, we propose to study the relations between temporal performance drifts and the input data distribution for detecting possible model limitations, enhancing cyber threat analysis.Publication Embargo Controlador neuronal basado en aprendizaje por refuerzo para el despegue y aterrizaje autónomo de drones en entornos con viento variable(2025) Olaz Moratinos, Xabier; Villadangos Alonso, Jesús; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaEl control autónomo de drones en condiciones de viento variable representa un desafío crucial en los campos de la aeronáutica y la robótica. En esta tesis, se presenta el diseño y la evaluación de un controlador neuronal basado en aprendizaje por refuerzo (RL), orientado a optimizar la maniobrabilidad autónoma durante las fases críticas de despegue y aterrizaje en entornos complejos. El objetivo principal es superar las limitaciones de los controladores PID tradicionales, mejorando la estabilidad y la precisión del vuelo. Para validar estos avances, se realizarán pruebas exhaustivas mediante simulaciones Hardware-in-the-Loop (HIL), estableciendo comparaciones detalladas con el desempeño de los controladores PID. El aprendizaje por refuerzo (RL - Reinforcement Learning) ha emergido como una solución innovadora para sistemas complejos, permitiendo a los agentes desarrollar políticas óptimas de control a partir de la interacción directa con su entorno, sin requerir modelos precisos del sistema. Este enfoque se destaca por su adaptabilidad y su capacidad para gestionar no linealidades en la dinámica de vuelo de los drones, superando así limitaciones de los métodos convencionales. En este trabajo, el RL se implementa progresivamente en controladores neuronales profundos: desde algoritmos en espacios de acción discretos como Deep Q-Network (DQN) hasta soluciones definitivas en entornos continuos mediante Deep Deterministic Policy Gradient (DDPG) y Proximal Policy Optimization (PPO), integrando simulaciones de entornos realistas que modelan dispositivos y fuerzas externas, incluyendo efectos de viento. Una de las contribuciones clave es el desarrollo de una arquitectura de red neuronal con un Módulo de Adaptación y un Módulo de Conversión, que transforman las fuerzas y momentos en velocidades de motor. Esta innovación permite al controlador neuronal responder a ráfagas de viento de hasta 10 m/s, optimizando a su vez la previsibilidad y confiabilidad mediante una discretización de acciones, lo cual reduce tanto la cantidad de acciones necesarias como el error de posición durante maniobras. Los resultados de las pruebas muestran mejoras notables en estabilidad y precisión de trayectoria, así como en la capacidad de respuesta ante variaciones de viento abruptas. Durante las pruebas, el controlador permitió al modelo 3DR Iris+ mantener la estabilidad en situaciones de viento de hasta 10 m/s (91%de su velocidad máxima) en maniobras de despegue y aterrizaje, obteniendo un rendimiento competitivo con drones avanzados en resistencia relativa. Las pruebas con Hardware-in-the-Loop (HIL) también validaron la eficacia del controlador en entornos físicos, comparándolo contra sistemas PID. Los hallazgos indican que el enfoque propuesto no solo ofrece una solución robusta y eficiente para el control autónomo de drones, sino que además abre nuevas oportunidades para aplicaciones seguras en áreas críticas como vigilancia, rescate y logística. Esta tesis aporta significativamente al campo del control autónomo de UAVs, estableciendo una base sólida para futuros desarrollos en controladores adaptativos inteligentes y en el estudio del vuelo en condiciones ambientales adversas.Publication Open Access Dealing with uncertainty: a human perception approach in image processing(2019) Marco Detchart, Cedric; López Molina, Carlos; Fernández Fernández, Francisco Javier; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaUna de las maneras de abordar la comparación entre objetos es mediante el uso de la similitud (comparando sus atributos comunes) o la disimilitud (comparando sus diferencias). La similitud ha sido estudiada de maneras muy diversas, desde muchos puntos de vista y en una variedad de campos tales que la psicología, la neurociencia o las matemáticas. Uno de los principales temas en los que las distancias y las similitudes han sido abordadas es a través de la lógica difusa, que permite implementar una perspectiva humana en las medidas de comparación, aportando una herramienta que permite capturar la incertidumbre inherente en la percepción de la distancia. Dentro de este contexto de la comparación y la similitud, encontramos un concepto relacionado, como es la correspondencia de características. Este concepto es una de las técnicas más utilizada en la detección de patrones o la evaluación del rendimiento de un algoritmo. En esta tesis doctoral hemos estudiado la similitud en el contexto de la lógica difusa junto con una serie de propuestas en las que tiene cabida. Entre otras, podemos citar la extracción de patrones en el análisis de huellas dactilares, cuyo estudio ha llevado en esta tesis al desarrollo de nuevos conceptos como las Funciones de Equivalencia Restringidas Radiales y las Medidas de Similitud Radiales, que modelan la similitud percibida entre datos radiales, tanto escalares como vectoriales. Además, como un estudio más explícito de las distancias en la lógica difusa, hemos abordado el estudio de las distancias, las medidas de similitud y la entropía en conjuntos difusos intervalo-valorados. Para ello, hemos incluido la amplitud del intervalo en el cálculo de las medidas. Esta condición adicional nos ha permitido conectar la incertidumbre contenida en el intervalo final con la del intervalo inicial. Finalmente, de manera complementaria hemos estudiado la aplicación de nuestros resultados teóricos en tareas de procesamiento de imagen. Hemos desarrollado un detector de bordes mediante el uso de funciones monótonas direccionalmente ordenadas y técnicas de toma de decisión por consenso. Además, hemos realizado un estudio que recoge las diferentes técnicas de análisis de calidad para los métodos de extracción de bordes, resultando en una nueva taxonomía de los diferentes métodos y un análisis de su comportamiento, mostrando que ninguno de los métodos es más adecuado que otro, siendo equivalentes entre si.Publication Open Access Demographic bias in machine learning: measuring transference from dataset bias to model predictions(2024) Domínguez Catena, Iris; Galar Idoate, Mikel; Paternain Dallo, Daniel; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaAs artificial intelligence (AI) systems increasingly influence critical decisions in society, ensuring fairness and avoiding bias have become pressing challenges. This dissertation investigates demographic bias in machine learning, with a particular focus on measuring how bias transfers from datasets to model predictions. Using Facial Expression Recognition (FER) as a primary case study, we develop novel metrics and methodologies to quantify and analyze bias at both the dataset and model levels. The thesis makes several key contributions to the field of algorithmic fairness. We propose a comprehensive taxonomy of types of dataset bias and metrics available for each type. Through extensive evaluation on FER datasets, we demonstrate the effectiveness and limitations of these metrics in capturing different aspects of demographic bias. Additionally, we introduce DSAP (Demographic Similarity from Auxiliary Profiles), a novel method for comparing datasets based on their demographic properties. DSAP enables interpretable bias measurement and analysis of demographic shifts between datasets, providing valuable insights for dataset curation and model development. Our research includes in-depth experiments examining the propagation of representational and stereotypical biases from datasets to FER models. Our findings reveal that while representational bias tends to be mitigated during model training, stereotypical bias is more likely to persist in model predictions. Furthermore, we present a framework for measuring bias transference from datasets to models across various bias induction scenarios. This analysis uncovers complex relationships between dataset bias and resulting model bias, highlighting the need for nuanced approaches to bias mitigation. Throughout the dissertation, we emphasize the importance of considering both representational and stereotypical biases in AI systems. Our work demonstrates that these biases can manifest and propagate differently, necessitating tailored strategies for detection and mitigation. By providing robust methodologies for quantifying and analyzing demographic bias, this research contributes to the broader goal of developing fairer and more equitable AI systems. The insights and tools presented here have implications beyond FER, offering valuable approaches for addressing bias in various machine learning applications. This dissertation paves the way for future work in algorithmic fairness, emphasizing the need for continued research into bias measurement, mitigation strategies, and the development of more inclusive AI technologies.Publication Embargo Digital twin development for VTOL UAVs(2024) Aláez Gómez, Daniel; Villadangos Alonso, Jesús; Astrain Escola, José Javier; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaThe use of vertical take-off and landing (VTOL) drones in various industries is becoming increasingly popular. However, the democratization of drones also raíces significant concerns about safety during their operations. Their relatively new technology and growing interest often lead to the use of undertested vehicles in missions where safety is critical. To address these risks and reduce the costs associated with experimental flights of new aircraft, the implementation of high-fidelity emulators is proposed. These advanced emulators, known as digital twins, have seen exponential growth in popularity in recent years. This thesis addresses the complete process of developing digital twins for VTOL unmanned aerial vehicles (UAVs). Initially, we propose a digital twin development model based on a variation of the double diamond design process. After identifying critical systems in two types of VTOL UAVs, a hexacopter and a commercial tiltrotor aircraft, we have developed a mathematical model to characterize aerodynamic, gravitational, and propulsive actions. Propulsive actions are measured through experimental tests on a motor test bench. Gravitational actions are determined using precise computeraided design/computer-aided manufacturing (CAD/CAM) models and experi mental measurements. Finally, aerodynamic actions are obtained through a novel aerodynamic model, which calculates the complete aircraft aerodynamics based on the incident wind direction, relying on numerous computational fluid dynamics (CFD) simulations. To mitigate the costs associated with CFD simulations, we employ surrogate models, developing and validating a surrogate model capable of potentially reducing the number of simulations by up to 50%. Another critical subsystem is the communication system. Based on experimental measurements, we fit and validate a path loss model for Received Signal Strength Indicator (RSSI) to estimate signal losses as a function of the aircraft’s position and attitude. This model allows us to predict and quantify the impact of the UAV’s attitude and position relative to the communication source. Ultimately, the digital twin is successfully implemented and validated using both hardware-in-the-loop and X-Plane for a commercial flight controller, as well as software-in-the-loop and Gazebo for an open-source controller (Ardupilot). This comprehensive validation approach ensures that the digital twin accurately replicates the behavior and performance of the actual UAV systems, regardless of the emulation engine and architecture chosen.Publication Embargo Discrete fuzzy integrals and their applications(2025) Wieczynski, Jonata; López Molina, Carlos; Pereira Dimuro, Graçaliz; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaThis doctoral thesis introduces new generalizations of discrete fuzzy integrals with three distinct applications. We introduce four new families of discrete fuzzy integrals, including the d-XChoquet integral, the dCF -integrals, and the extended families of discrete Choquet and Sugeno integrals. These new generalizations are designed to provide better flexibility and performance in applications. In addition, we investigate the theoretical properties of these new integral generalizations, such as monotonicity. Furthermore, extensive experiments are conducted to compare the performance of the new, proposed, integrals with existing ones in three distinct applications: in classification, decision-making analysis, and in brain signal processing. The results demonstrate that the proposed generalizations perform better than other discrete fuzzy integrals in most applications.Publication Open Access Enhancing semantic segmentation models for high-resolution satellite imagery(2024) Ayala Lauroba, Christian; Galar Idoate, Mikel; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaEl objetivo principal de esta memoria es estudiar, desarrollar y evaluar de manera justa modelos de segmentación semántica que utilicen datos con una resolución espacial limitada para abordar tareas que demandan un alto nivel de detalle, como la segmentación semántica de edificios y carreteras, aprovechando la disponibilidad de datos públicos y de libre acceso. De esta forma se busca reducir la brecha con productos de muy alta resolución, que actualmente son inaccesibles para la gran mayoría de usuarios. La memoria está organizada en torno a cuatro grandes objetivos, cada uno correspondiente a un problema abierto expuesto en la sección anterior, y que en conjunto abordan el objetivo principal mencionado: Estudiar y desarrollar modelos de segmentación semántica para abordar problemas que requieren de un alto nivel de detalle, como la segmentación de edificios y carreteras, utilizando imágenes satelitales de baja resolución espacial. Dados los numerosos métodos existentes en la literatura para segmentar edificios y carreteras [ZLW18, BHF+19,W+20, SZH+21], nos planteamos realizar un estudio de estas técnicas con el objetivo de identificar sus limitaciones y los problemas que puedan surgir al aplicarlas a imágenes satelitales de baja resolución, como las ofrecidas por los satélites Sentinel. Basándonos en esta información, planeamos diseñar un nuevo modelo de aprendizaje profundo capaz de extraer edificios y carreteras a partir de imágenes de baja resolución, con una calidad cercana a la obtenida a partir de imágenes de muy alta resolución. Investigar cuál es la mejor estrategia para abordar problemas de segmentación semántica con múltiples clases. Habitualmente, los problemas de segmentación semántica multi-clase se afrontan de manera directa [YRH18]. Sin embargo, en un contexto donde la resolución espacial influye significativamente en la separación de las clases, parece lógico recurrir a estrategias de descomposición binaria [LdCG09] o esquemas de entrenamiento multi-tarea [Gir15]. Estos enfoques podrían simplificar el problema multi-clase y, por tanto, mejorar la clasificación. No obstante, en el ámbito de la observación de la Tierra, estas estrategias no han sido ampliamente utilizadas en problemas de segmentación semántica. Por ello, nos proponemos llevar a cabo un estudio comparativo de las diferentes estrategias para abordar problemas de segmentación semántica con varias clases en el ámbito de la teledetección, con el objetivo de establecer pautas claras al respecto. Diseñar nuevas técnicas de aumento de datos que exploten la alta periodicidad que ofrecen los satélites de baja resolución. Las técnicas de aumento de datos basadas en fotometría aplicadas al ámbito de la observación de la Tierra presentan limitaciones importantes, como la generación de artefactos sintéticos y la incapacidad de modelar eventos como la siembra, cosecha o la posición del sol [GSD+20]. Además, estas técnicas se encuentran estrechamente ligadas a sensores ópticos, por lo que no son extrapolables a otros tipos de sensores como térmicos o radar. Por ello, nos plantemos proponer formas de explotar la alta periodicidad provista por los satélites de baja resolución como técnica de aumento de datos, sin necesidad de etiquetar estos datos previamente. Establecer pautas para comparar mapas de segmentación semántica a múltiples resoluciones. Dado que en literatura no existe un consenso sobre cómo se deben comparar métricas obtenidas a partir de modelos de segmentación semántica con resoluciones espaciales diferentes, nos planteamos estudiar las limitaciones y ventajas de cada una de las aproximaciones existentes para poder plantear pautas claras que indiquen cuál es la forma correcta de llevar a cabo dicha comparación.Publication Open Access Enhancing user experience in immersive virtual environments: advances in multiple object selection and affective interaction(2025) Elizondo Martínez, Sonia; Marzo Pérez, Asier; Ortiz Nicolás, Amalia; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaLos Entornos Virtuales Inmersivos (EVI) se utilizan para el entretenimiento, la educación, la atención sanitaria y la colaboración remota. Los EVI permiten a los usuarios participar e interactuar con contenido digital tridimensional de manera segura, consistente y controlada. Tres aspectos relevantes para lograr interacciones adecuadas entre los usuarios y los EVI son: 1) diseñar técnicas de interacción semejantes a las acciones del mundo real; 2) integrar tanto capacidades técnicas como emocionales; y 3) realizar evaluaciones exhaustivas de la experiencia de usuario para permitir una mejora constante de las capacidades de los EVI. Esta tesis doctoral ofrece una introducción detallada a los tres aspectos mencionados anteriormente: las técnicas de interacción (con un enfoque en la selección); el campo de la Computación Afectiva y cómo puede mejorar la experiencia de usuario en los EVIs; y los métodos implícitos y explícitos para evaluar tanto necesidades técnicas como emocionales con el fin de lograr una experiencia de usuario completa. Esta tesis también destaca las actuales limitaciones en la implementación de estos aspectos en los entornos virtuales y propone una nueva técnica de selección multiobjeto para los EVIs, así como un marco de diseño para guiar el desarrollo de EVIs con capacidades emocionales.Publication Open Access A framework for general fusion processes under uncertainty modeling control, with an application in interval-valued fuzzy rule-based classification systems(2022) Da Cruz Asmus, Tiago; Sanz Delgado, José Antonio; Pereira Dimuro, Graçaliz; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaLa fusión de información es el proceso de combinar varios valores numéricos en uno solo que los represente. En problemas con algún tipo de modelado difuso, este proceso generalmente se realiza mediante funciones de fusión o, su subclase más importante, las funciones de agregación. Estas funciones se han aplicado ampliamente en varias técnicas para resolver problemas de clasificación, en particular, en los Sistemas de Clasificación Basados en Reglas Difusas (SCBRDs). En este tipo de clasificador, se han aplicado de forma exitosa las funciones de solapamiento (que son funciones de agregación bivariadas con propiedades deseables) y sus generalizaciones n-dimensionales. Cuando hay incertidumbre con respecto al modelado de las funciones de pertenencia en los SCBRDs, generalmente asociados con términos lingüísticos, se pueden aplicar conjuntos difusos intervalo-valorados. El modelado de etiquetas lingüísticas a través de conjuntos difusos intervalo-valorados en los SCBRDs origino a los Sistemas de Clasificación Basados en Reglas Difusas Intervalo-valorados (IV-SCBRDs). En estos sistemas, los procesos de fusión se calculan mediante funciones de agregación definidas en el contexto intervalar, mientras que las amplitudes de los intervalos de pertenencia asignados están intrínsecamente relacionadas con la incertidumbre con respecto a los valores que están aproximando y, luego, con la calidad de la información que representan. Sin embargo, no existe una guía en la literatura que muestre cómo definir y construir funciones de fusión con valores intervalares que tomen en consideración el control de la calidad de la información. Por todo ello, en esta tesis, desarrollamos un marco para definir funciones de fusión intervalo-valoradas n-dimensionales generalizadas considerando los órdenes admisibles y el control de la calidad de la información. Aplicamos los conceptos desarrollados en un IV-SCBRD considerado como estado del arte (es decir, IVTURS), desarrollando nuestra propia versión basada en operadores de solapamiento con control de la calidad de la información, demostrando que nuestro enfoque mejora el rendimiento del clasificador. Finalmente, desarrollamos un marco para definir funciones de fusión n-dimensionales que actúan en un intervalo real cerrado arbitrario como homólogas de clases conocidas de funciones de fusión que actúan sobre el intervalo unitario, para expandir la aplicabilidad de las funciones de fusión con propiedades deseables a problemas que no involucren un modelado difuso.Publication Open Access Generalized forms of monotonicity in the data aggregation framework(2019) Sesma Sara, Mikel; Bustince Sola, Humberto; Mesiar, Radko; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaEl proceso de agregación trata el problema de combinar una colección de valores numéricos en un único valor que los represente y las funciones encargadas de esta operación se denominan funciones de agregación. A las funciones de agregación se les exige que cumplan dos condiciones de contorno y, además, han de ser monótonas con respecto a todos sus argumentos. Una de las tendencias en el área de investigación de las funciones de agregación es la relajación de la condición de monotonía. En este respecto, se han introducido varias formas de monotonía relajada. Tal es el caso de la monotonía débil, la monotonía direccional y la monotonía respecto a un cono. Sin embargo, todas estas relajaciones de monotonía están basadas en la idea de crecer, o decrecer, a lo largo de un rayo definido por un vector real. No existe noción de monotonía que permita que la dirección de crecimiento dependa de los valores a fusionar, ni tampoco existe noción de monotonía que considere el crecimiento a lo largo de caminos más generales, como son las curvas. Además, otra de las tendencias en la teoría de la agregación es la extensión a escalas más generales que la de los números reales y no existe relajación de monotonía disponible para este contexto general. En esta tesis, proponemos una colección de nuevas formas de monotonía relajada para las cuales las direcciones de monotonía pueden variar dependiendo del punto del dominio. En concreto, introducimos los conceptos de monotonía direccional ordenada, monotonía direccional ordenada reforzada y monotonía direccional punto a punto. Basándonos en funciones que cumplan las propiedades de monotonía direccional ordenada, proponemos un algoritmo de detección de bordes que justifica la aplicabilidad de estos conceptos. Por otro lado, generalizamos el concepto de monotonía direccional tomando, en lugar de direcciones en Rn, caminos más generales: definimos el concepto de monotonía basado en curvas. Por último, combinando ambas tendencias en la teoría de la agregación, generalizamos el concepto de monotonía direccional a funciones definidas en escalas más generales que la de los números reales.Publication Open Access Mejora de los algoritmos de minería de datos: combinación de clasificadores, preprocesamiento y sus aplicaciones(2021) Uriz Martín, Mikel Xabier; Galar Idoate, Mikel; Paternain Dallo, Daniel; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaEl objetivo general de esta tesis es tratar de mejorar los resultados que se obtienen en los problemas de clasificación mejorando las fases que preceden y suceden a la fase de aprendizaje, es decir, a la construcción del clasificador o de los clasificadores, sin necesidad de modificar ningún aspecto de esta fase ni de los clasificadores obtenidos. Por un lado, se proponen explorar nuevos métodos de preprocesamiento de datos que traten de transformar los datos de forma que los clasificadores puedan extraer conocimiento más preciso, obteniendo así mejores resultados en la clasificación. Por otro lado, se exploran nuevas formas de combinar las salidas de los clasificadores que componen un ensemble haciendo uso de integrales difusas basadas en medidas difusas y poniendo especial hincapié en la forma de construcción de estas medidas.Publication Open Access Mejoras a la capacidad de generalización de la inteligencia artificial(2023) Fumanal Idocin, Javier; Bustince Sola, Humberto; Cordón García, Óscar; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaLa fusión de información es un aspecto crucial del análisis moderno de datos y la toma de decisiones. Implica la integración de múltiples fuentes de información para obtener una com prensión más completa y precisa de un tema determinado. Este proceso es especialmente importante en campos como la informática, la ingeniería y las ciencias naturales, donde se generan grandes cantidades de datos procedentes de diversas fuentes que deben sintetizarse para tomar decisiones con conocimiento de causa. La fusión de información también es esencial en el diseño y la implantación de sistemas inteligentes, ya que permite integrar diversos sensores y fuentes de datos para hacer predicciones y recomendaciones más precisas. Desde un punto de vista matemático, una forma de estudiar este problema es a través de la idea de funciones de fusión, que toman como entrada un vector de números y devuelven uno solo, representativo de ellos. Un tipo relevante de funcion de fusión es la familia de funciones de agregación. Estas funciones mantienen dos condiciones de contorno y monotonicidad con respecto a las entradas, que inducen algunas propiedades deseables a la salida de la función. Sin embargo, la fusión de información en los sistemas aplicados comprende algo más que esta noción teórica. A medida que la heterogeneidad, la estructura y el volumen de los datos adquieren mayor relevancia, han surgido otros enfoques para abordar este problema. Por ejemplo, en una estructura de red, las distintas entradas se asocian entre sí según un conjunto preestablecido de relaciones; en las series temporales, los datos presentan dependencias temporales. Cuando se trata de datos no estructurados, como texto, audio e imagen, los enfoques de aprendizaje profundo han tenido mucho exito en la transformación de este tipo de datos en representaciones vectoriales de números reales utilizando series de transformaciones afines. A pesar de los esfuerzos previos en este campo, el problema de combinar eficazmente fuentes de información diversas y heterogéneas, sigue siendo un área de investigación abierta y activa. Esto se debe a los desafíos inherentes a la integracion de múltiples fuentes que pueden estar en diferentes formatos y pueden tener información contradictoria o incompleta. Por ejemplo, el modo en que la información medida se relaciona con otras fuentes de datos y la fiabilidad de esas medidas dependen en gran medida del procedimiento de medición. De hecho, los sistemas que fusionan la información de esas distintas fuentes presentarán también complejidades adicionales al tener en cuenta las particularidades de cada característica considerada. En esta tesis, proponemos un conjunto de funciones y algoritmos para tener en cuenta las posibles interacciones, heterogeneidades e incertidumbres cuando se trabaja con distintas fuentes de información. Lo hacemos mediante la teoría de agregaciones y el análisis de redes sociales, y nos centramos especialmente en aquellos casos en los que los enfoques de aprendizaje profundo no tienen tanto éxito. Aplicamos estos resultados a una amplia gama de problemas, incluyendo la clasificación de se ñales de interfaz cerebro-ordenador, la clasificación de datos tabulares estándar y la detección de anomalías.Publication Open Access Modelling and simulation techniques for transport networks within urban areas applied to logistics and resilience(2021) Alvarez Indave, Pablo; Faulín Fajardo, Javier; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika; Universidad Pública de Navarra / Nafarroako Unibertsitate PublikoaEsta tesis doctoral investiga el uso de técnicas de modelización y simulación en áreas urbanas de ciudades inteligentes, explorando a su vez cómo el big data puede usarse para alimentar estos modelos. Estas técnicas de modelización se han aplicado a dos campos diferentes que han ganado importancia durante los últimos años pero donde la investigación es aún limitada: logística urbana y resiliencia urbana. A través de esta tesis, el autor ha ampliado el conocimiento en estos campos mediante la exploración de diferentes métodos como metaheurísticas, modelización de transporte y simulación basada en agentes de cara a definir nuevas metodologías que se pueden aplicar en áreas urbanas. En relación al campo de la logística, el autor ha demostrado mediante el uso de metaheurísticas que cuando se considera la congestión del tráfico como un atributo dinámico para optimizar las rutas de reparto en áreas urbanas, el tiempo de reparto puede reducirse en un 11%, lo cual es crucial para las empresas de logística en un mercado que es más feroz cada día. Esto es cierto no solo para áreas urbanas, sino que también se ha demostrado que optimizar rutas considerando la congestión del tráfico también es beneficioso a nivel estratégico para las rutas entre ciudades. Para considerar los costes de congestión en tiempo real, se ha desarrollado un nuevo enfoque en el que se descargan datos de Google para alimentar estos modelos metaheurísticos, aunque también se podrían utilizar otras fuentes de big data. En esta tesis también se presenta una metodología que se ha implementado para modelar rutas logísticas en áreas urbanas considerando datos en tiempo real y con la flexibilidad de agregar diferentes atributos de red (gradiente, direcciones prohibidas, CO2, etc.) de cara a simular diferentes escenarios. Esto puede ser útil para que las empresas de logística optimicen sus entregas (eligiendo entre furgoneta o triciclo, seleccionando la hora del día para entregar, etc.) pero también para servir a las autoridades públicas de guía en materia de políticas urbanas y de transporte (peatonalización de algunas calles, prohibiciones de tráfico, etc.). En cuanto a la resiliencia urbana, la tesis se centra en la planificación de la evacuación. Se ha creado una nueva metodología en la que se utiliza la simulación basada en agentes a través de submodelos interconectados para modelar un escenario de evacuación a gran escala (evento de inundación como consecuencia del colapso de una presa). Esta investigación define los datos necesarios para crear estos modelos que pueden ser de gran ayuda para mejorar la resiliencia de las ciudades, y también analiza cómo la congestión del tráfico puede afectar los procedimientos de evacuación. A través de los diferentes artículos de investigación que componen esta tesis, el autor aporta luz a estas cuestiones mediante el desarrollo de nuevas metodologías y el uso de casos de estudio reales con el objetivo de ayudar a planificadores urbanos, empresas y responsables políticos a crear ciudades inteligentes más eficientes, sostenibles y resilientes.Publication Open Access Modification of information reduction processes in Convolutional Neural Networks(2024) Rodríguez Martínez, Iosu; Bustince Sola, Humberto; Herrera, Francisco; Takáč, Zdenko; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaDuring the last decade, Deep Artificial Neural Networks have established themselves as the state-of-the-art solution for solving complex tasks such as image processing, time-series forecasting, or natural language processing. One of the most studied families of artificial neural network is that of Convolutional Neural Networks (CNNs), which can exploit the local information of data sources such as images by automatically extracting increasingly more complex features in a hierarchical manner. Although plenty of work has been dedicated to the introduction of more complex (or more efficient) model architectures of CNN; to solving the optimisation problems faced by them and accelerating training convergence; or to trying to interpret their inner workings as well as explaining their generated predictions, an important key aspect of these models is sometimes overlooked: that of feature fusion. Feature fusion appears in plenty of forms in CNNs. Feature downsampling is necessary in order to compress the intermediate representations generated by the model, while preserving the most relevant information, a process which also makes models robust to small shifts in the inputs. Combining different sources of data or different feature representations is also a recurrent problem in neural networks, which is usually taken care of by simply allowing the model to learn additional transformations in a supervised manner, increasing its parameter count. In this dissertation, we study the application of solutions of the Information Fusion field to better tackle these problems. In particular, we explore the use of aggregation functions which replace a set of input values by a suitable single representative. We study the most important properties of these functions in the context of CNN feature reduction, and present novel pooling and Global Pooling proposals inspired by our discoveries. We also test the suitability of our proposals for the detection of COVID-19 patients, presenting an end-to-end pipeline which automatically analyses chest x-ray images.Publication Embargo Multivalued and non-symmetric operators for sequential information processing(2024) Ferrero Jaurrieta, Mikel; López Molina, Carlos; Takáč, Zdenko; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaLas estructuras de datos multivaluadas son un tipo de organización de datos que permiten representar información compuesta por varios atributos, variables, dimensiones o coordenadas. Para su funcionamiento básico se dotan de operaciones básicas como la igualdad, comparación y orden. A partir de estas se definen operaciones como, por ejemplo, la agregación de información. Un tipo de dato multivaluado de especial interés es la información secuencial, en el cual existe una dependencia temporal, espacial o de orden entre sus elementos. Ejemplos relevantes de información secuencial son el texto (lenguaje natural) o las series temporales. En esta tesis presentamos un nuevo framework para información multivaluada. De esta manera, presentamos nuevos métodos de agregación de información multivaluada. Para ello, se extienden funciones que tienen en cuenta la posible relación entre los datos internos a la estructura multivaluada. Dado que estas funciones necesitan una ordenación de sus argumentos, se presentan distintos enfoques: por componentes individuales y proponiendo un nuevo método de ordenación. Estas funciones se aplican en la fusión de información secuencial en redes neuronales recurrentes. En el contexto multivaluado también se presenta un nuevo método para la comparación de estructuras multivaluadas. De forma complementaria, se considera un problema adicional en el procesamiento de información secuencial: la simetría. Se considera que, en la agregación de información secuencial, el orden de los argumentos es una cuestión de gran relevancia. Por lo tanto, el uso de funciones simétricas no tiene sentido, dado que puede que estemos rompiendo la correlación temporal. Por ello, se presentan nuevos métodos de construcción de funciones de agregación no-simétricas. Estas serán aplicadas en tareas de agregación de información con dependencia secuencial, como puede ser el procesamiento de texto en redes neuronales convolucionales y la combinación de modelos de predicción de series temporales.Publication Open Access Novel contactless haptic technologies for creating affective tactile sensations when interacting with computer systems(2025) Irisarri Erviti, Josu; Marzo Pérez, Asier; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika; Gobierno de Navarra / Nafarroako GobernuaEsta tesis doctoral desarrolla y explora nuevas tecnologías hápticas sin contacto para generar sensaciones táctiles en los usuarios a distancia y sin obligarles a llevar dispositivos. De esta forma, se reduce el tiempo de empezar a usar el sistema y se mejora la disponibilidad a utilizar dispositivos públicos. Utilizando hápticas sin contacto, esta tesis también quiere ir más allá del tacto funcional (p.ej., notificaciones o discriminación de objetos) e intenta reproducir algunas experiencias perdidas en entornos virtuales como el tacto afectivo. Por ejemplo, los movimientos de roce en el antebrazo pueden tener un fuerte significado afectivo (caricias) pero la tecnología de ultrasonidos focalizados actual no estimula con suficiente intensidad estas áreas de piel. Sin embargo, otras tecnologías sin contacto, como la luz infrarroja o la electrostática podrían generar estas sensaciones afectivas. Los sentidos visual y auditivo han dominado los sistemas de interacción humano-ordenador, a veces desatendiendo el sentido del tacto. En este trabajo, se presentan tecnologías hápticas que pueden proporcionar sensaciones táctil a distancia. Tienen el potencial de mejorar las experiencias inmersivas en entornos virtuales, así como de facilitar una conexión más profunda entre sus usuarios. Esta tesis también explora brevemente el uso de la háptica sin contacto para experiencias multimodales, tecnologías sin contacto y computación afectiva. En primer lugar, la tesis desarrolla una técnica híbrida, un material inteligente que es una combinación de termoplástico y polvo de hierro que se puede activar a distancia mediante calor y campos magnéticos, pero el usuario sigue necesitando contacto directo con el material. Se pensó que este sistema sería la base para comparaciones. En segundo lugar, se presenta una demostración utilizando electrostática para crear piloerección en el antebrazo. Esta tecnología puede actuar a distancia y tiene el potencial de crear estímulos afectivos. En tercer lugar, se combinan el plasma eléctrico y el ultrasonido para guíar chispas eléctricas en el aire, capaz de generar estímulos fuertes y con una buena resolución espacial y temporal. Finalmente, se explican combinaciones aún inacabadas de tecnologías; como ultrasonido, electrostática, chispas eléctricas, aerosoles, luz infrarroja, cambio de humedad/temperatura, aire y láseres. Espero que este trabajo sirva para introducir otras tecnologías hápticas sin contacto distintas de los ultrasonidos, que ha sido la tecnología dominante en la última década. Tener disponibles más tecnologías hápticas sin contacto, puede motivar la incorporación de feedback táctil en algunos sistemas de interacción entre humanos-computadoras, como las experiencias interactivas públicas en exposiciones, museos o teatros.Publication Open Access Nuevos métodos para la combinación de características en procesamiento de imágenes(2021) Forcén Carvalho, Juan Ignacio; Pagola Barrio, Miguel; Barrenechea Tartas, Edurne; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaEn esta memoria estudiamos diferentes problemas abiertos entorno a la agregación de información y presentamos el estudio de nuevas técnicas de agregación de características de imágenes para mejorar el rendimiento en los problemas de clasificación y recuperación de imágenes, realizando propuestas para algoritmos de visión por computador tradicional y para modelos de Deep Learning. Concretamente, hemos propuesto un método para agregar información en problemas de clasificación multi-clase a través de ensembles ponderados. También presentamos una nueva función de pooling capaz de auto aprenderse para redes neuronales convolucionales. Centrándonos en el problema de recuperación de imágenes proponemos un esquema de agregación de características donde damos mayor importancia a los objetos relevantes de la imagen y finalmente introducimos una nueva representación de Co-Ocurrencias auto aprendible para redes neuronales convolucionales capaz de capturar la correlación espacial entre diferentes características. La memoria está dividida en dos partes: Parte I. Dedicada al planteamiento del problema, la discusión de los métodos propuestos, los resultados y las conclusiones obtenidas. Parte II. Contiene las publicaciones asociadas al estudio realizado.Publication Open Access Optimization of acoustic fields: advances towards its use for matter manipulation and contactless fabrication(2023) Ezcurdia Aguirre, Íñigo Fermín; Marzo Pérez, Asier; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika; Universidad Pública de Navarra / Nafarroako Unibertsitate PublikoaLos campos de presión acústica son capaces de modelar y levitar partículas de una amplia gama de materiales y tamaños a través del aire, el agua o el tejido biológico. Esto tiene aplicaciones en cristalografía, manipulación celular, escenarios lab-on-a-chip, farmacología, transporte sin contacto e incluso levitación de seres vivos. En general, la investigación de campos de presión acústica ha experimentado avances significativos en los últimos años. Su flexibilidad y sus posibles aplicaciones han aumentado considerablemente con el desarrollo de técnicas holográficas y el uso de optimizadores. Sin embargo, aún hay margen de mejora, ya que las limitaciones dificultan la aplicación de los campos acústicos en diversos escenarios de investigación. Por ejemplo, no existe una plataforma de hardware unificada que motive de forma flexible la investigación exploratoria en aplicaciones de holografía acústica. La mayoría de los dispositivos comerciales o de caseros carecen de la resolución o la potencia que necesitan las personas investigadoras, por lo que tienen que fabricar dispositivos más complejos y caros. Además, investigaciones anteriores se han centrado en la levitación y manipulación de pequeñas partículas y gotas; sin embargo, aún no se ha desarrollado un prototipo completo para la fabricación sin contacto; no existen artículos científicos que estudien el atrapamiento de objetos alargados tanto en posición como en orientación. Además, la microfluídica está limitada en cuanto a la manipulación tridimensional (3D), el tamaño de las gotas y la contaminación cruzada. Esta tesis ofrece una introducción exhaustiva a la optimización de los campos acústicos, repasando su importancia en aplicaciones de múltiples ámbitos de la investigación y la industria. Esta tesis también examina las limitaciones y deficiencias previamente expuestas y presentes en el actual diseño y aplicación de campos acústicos. Se proponen algoritmos novedosos para generar los campos deseados y mejorar significativamente su resolución y potencia mediante multiplexación espacial y temporal. Se presenta una plataforma de hardware abierta y asequible para facilitar la adaptación a los requisitos experimentales de los investigadores que exploran nuevas aplicaciones de los hologramas ultrasónicos. Se diseñan y evalúan trampas acústicas óptimas para manipular elementos alargados controlando su posición y orientación. Se demuestra la fabricación sin contacto utilizando trampas acústicas de piezas alargadas mediante fabricación aditiva basada en partículas levitadas, varillas y resina UV; también se ilustra la adición sobre otros objetos y la construcción dentro de contenedores. Por último, se propone un sistema, destinado a microfluídica 3D, basado en ultrasonidos focalizados a través de una malla hidrófoba. Es sistema es capaz de manejar un gran número de gotas (> 40µL), y capaz de fusionarlas/dividirlas o propulsarlas verticalmente, este sistema mejora significativamente los sistemas EWOD ya existentes generando una menor contaminación superficial. Esta tesis presenta estos logros y sus trabajos relacionados, modelos, metodologías, procedimientos y conclusiones. Espero que estos trabajos supongan un avance significativo en la investigación de los campos acústicos y puedan inspirar y facilitar futuras aplicaciones novedosas de los hologramas acústicos por parte de las personas investigadoras en diversos ámbitos del mundo académico y de la industria.Publication Open Access Sistemas y tecnologías para dotar de autonomía a vehículos aéreos no tripulados (UAV) basadas en ontologías(2023) Martín Lammerding, David; Astrain Escola, José Javier; Córdoba Izaguirre, Alberto; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaEn esta tesis se propone dotar de autonomía a los vehículos aéreos sin tripulación (UAV) empleando sistemas y tecnologías basadas en ontologías. Los sistemas autónomos están teniendo una gran importancia gracias a las ventajas que aportan en cuanto a coste y seguridad, pero, por otro lado, se están planteando retos en cuanto a transparencia y confiabilidad que limitan su desarrollo. Previo al diseño del sistema autónomo se presenta el Estado del Arte sobre los sistemas y tecnologías que se han aplicado a los sistemas autónomos, describiendo sus características y las limitaciones encontradas en la bibliografía. La ontología propuesta, denominada Dronetology, tiene como objetivo definir el conocimiento necesario para que un UAV pueda operar con autonomía e inferir nuevo conocimiento que mejore la eficiencia y la seguridad de la misión. Para que la ontología pueda tomar decisiones y ejecute maniobras requiere de varios componentes software auxiliares que forman el sistema Dronetology KIT. Éste realiza labores de interface con los sistemas de la aeronave, integrando información y enviando órdenes al sistema de control de vuelo y de inferencia, ejecutando sentencias SPARQL. Dronetology KIT se implementa usando estándares abiertos basados en la web semántica, código abierto o libre, y el paradigma de programación declarativa, con el fin de facilitar su adaptación a diferentes escenarios y asegurar un funcionamiento transparente. Adicionalmente, su diseño permite que se ejecute en los equipos embarcados en el UAV para tomar decisiones y dar respuesta con un retardo mínimo. Dronetology KIT se implementa en dos aplicaciones con el fin de comprobar su adaptabilidad y su capacidad de tomar decisiones de forma autónoma empleando conocimiento. El primer caso de aplicación es un sistema de recopilación de datos de una red de sensores donde la aeronave no tripulada actúa como un recolector de datos. El conocimiento que adquiere durante el vuelo le permite variar el vuelo pasando al siguiente waypoint cuando no quedan cerca datos pendientes de recoger. El segundo caso de aplicación es un sistema anti-colisión que permite colaborar con otras aeronaves no tripuladas para coordinar velocidades y reducir colisiones, incluso en situaciones con tráfico denso. En algunos escenarios concretos se realizan vuelos reales de UAS para verificar el funcionamiento de Dronetology KIT. Sin embargo, por cuestiones de seguridad y de coste se emplean simuladores Hardware in the Loop. Estos simuladores integran software con hardware con el fin de conocer el comportamiento del sistema autónomo ejecutándose en una plataforma hardware real en la que las entradas son simuladas.