Tesis doctorales - Doktoretza tesiak
Permanent URI for this collection
Browse
Browsing Tesis doctorales - Doktoretza tesiak by Department/Institute "Estadística, Informática y Matemáticas"
Now showing 1 - 20 of 39
Results Per Page
Sort Options
Publication Open Access Advances in the estimation of fixed effects in spatial models with random effects(2024) Urdangarin Iztueta, Arantxa; Goicoa Mangado, Tomás; Ugarte Martínez, María Dolores; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaLa representación cartográfica de enfermedades permite estimar indicadores de salud específicos para áreas geográficas dentro de una región de estudio. Aunque el objetivo principal suele ser proporcionar las tasas/riesgos de incidencia o mortalidad de enfermedades como el cáncer, existen otras aplicaciones. Por ejemplo, el análisis de crímenes contra las mujeres en India. La mayor parte de la investigación en la representación cartográfica de enfermedades usa modelos mixtos de Poisson jerárquicos bayesianos que incorporan la dependencia espacial o temporal para suavizar los riesgos y reducir la variabilidad de los estimadores clásicos de los riesgos como las razones de incidencia/mortalidad estandarizadas (RIE/RME). Sin embargo, los modelos de representación cartográfica de enfermedades tienen algunos inconvenientes. Aquí nos centramos en dos de estas limitaciones. En primer lugar, estos modelos en general no son identificables y se requieren restricciones en el proceso de estimación para obtener resultados razonables. El segundo problema es la confusión espacial y está relacionado con la inclusión de covariables en los modelos. Si las covariables tienen estructura espacial, su asociación con la respuesta puede no estimarse bien debido al sesgo y la inflación de la varianza. El objetivo principal de esta tesis es doble. Por un lado, abordaremos la complejidad de incorporar restricciones de suma cero para resolver los problemas de identificación al ajustar modelos espacio-temporales ampliamente utilizados en la representación cartográfica de enfermedades utilizando NIMBLE (de Valpine et al., 2017), un sistema para crear modelos estadísticos en R que permite ajustar modelos jerárquicos bayesianos utilizando un sistema configurable de algoritmos MCMC. Por otro lado, nos centraremos en la confusión espacial, con el objetivo de proponer un método que garantice estimaciones adecuadas de efectos fijos. La presente tesis está dividida en cuatro capítulos diferentes. El primer capítulo proporciona una introducción general sobre los problemas que se van a bordar en esta tesis y el resto de los capítulos profundizan en esos problemas. Esta tesis se cierra con una sección final que resume los principales resultados e introduce algunas ideas para futuras investigaciones.Publication Open Access Análisis de idoneidad en propuestas para el estudio de cónicas con GeoGebra en Educación Secundaria(2023) Abaurrea Larrayoz, Jaione; Wilhelmi, Miguel R.; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaEn esta tesis doctoral se propone una manera de trabajar las cónicas en Educación Secundaria diferente a las propuestas que en general se plantean en los libros de texto. Así, se describen y analizan actividades que se alejan de la enseñanza meramente transmisiva de las matemáticas, para enfatizar la acción matemática que implica llevar a cabo los procesos de: resolución de problemas, razonamiento y prueba, conexiones y representación.Publication Embargo Análisis de las decisiones médicas en el triaje de pacientes en unidades de cuidados intensivos(2024) Esparza Artanga, Laida; Azcárate Camio, Cristina; Mallor Giménez, Fermín; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaEn el dinámico entorno de las UCI, la toma de decisiones médicas juega un papel crucial en la gestión de recursos, especialmente en escenarios de escasez de camas. Además, según las previsiones este desequilibrio entre la demanda de ingresos y la disponibilidad de camas en UCI irá en aumento y ello llevará al racionamiento de estos recursos, es decir, a decisiones de triaje sobre el alta y el ingreso de los pacientes. La pandemia de COVID-19 también ha destacado la importancia de este triaje en las decisiones sobre la gestión de camas de UCI. El triaje es un proceso fundamental en el que se priorizan los casos más críticos y se asignan recursos de manera eficiente y equitativa. Los profesionales sanitarios de las UCI se enfrentan con frecuencia a estos dilemas éticos. En situaciones de alta ocupación los médicos deben decidir a qué paciente se le asigna la última cama disponible. Estos problemas se discuten ampliamente en la literatura médica, donde se identifican los factores influyentes y se analizan las consecuencias para la salud del paciente. Para mejorar la gestión de los recursos de las UCI es fundamental comprender cómo toman los médicos las decisiones relativas al ingreso y el alta de los pacientes en situaciones de saturación. Al conocer en profundidad estos factores, es posible desarrollar criterios más objetivos y equitativos para el ingreso en la UCI, reduciendo así el riesgo de sesgo, optimizando la utilización de las camas y mejorando la calidad de la atención prestada a los pacientes críticos. Los actuales modelos matemáticos para estudiar la gestión de las UCI y el flujo de pacientes pasan por alto muchos de los factores que tienen en cuenta los médicos a la hora de tomar decisiones de triaje en el mundo real. La presente tesis analiza las decisiones médicas relacionadas con el triaje de los ingresos y las altas en las UCI, en situaciones de alta ocupación de camas, proponiendo un marco de simulación novedoso para representar de manera precisa el funcionamiento de estas unidades. Mediante el desarrollo y aplicación de técnicas y métodos de análisis de datos y simulación computacional hemos evolucionado un modelo de simulación de eventos discretos hacia un gemelo digital capaz de reproducir, en un entorno virtual, el funcionamiento real de una UCI. El gemelo digital desarrollado imita los procesos reales de ingreso y alta en la UCI y recrea el estado de salud de los pacientes a partir de datos clínicos reales. Esta herramienta, validada por los profesionales de la UCI del Hospital Universitario de Navarra, permite analizar la toma de decisiones de los médicos en relación con los problemas de ingreso y alta de los pacientes, al tiempo que sirve como un recurso útil de aprendizaje y formación. Este simulador permite recopilar los datos necesarios para examinar la toma de decisiones relacionadas con el ingreso y el alta de pacientes durante periodos de alta presión de camas. Se modelizan tres acciones clave de control de camas empleadas por los usuarios para gestionar la UCI: admitir o desviar pacientes urgentes, confirmar o cancelar cirugías programadas y adelantar o no el alta a pacientes ingresados en la UCI. Estas decisiones sobre el ingreso y alta de los médicos son analizadas desde múltiples perspectivas, abarcando tanto una evaluación holística como un examen más detallado de las decisiones individuales sobre los pacientes, teniendo en cuenta el nivel de ocupación de camas. Los resultados preliminares de la simulación llevada a cabo por distintos tipos de usuario, entre ellos médicos especialistas en Medicina Intensiva de diferentes hospitales, revelan variabilidad en la toma de decisiones de los médicos ante el dilema de la última cama, tanto en términos generales como con respecto a la evolución del proceso de ingresos y altas a medida que aumenta el nivel de presión de camas. La principal aportación de este trabajo es la investigación del proceso de toma de decisiones en la UCI mediante un gemelo digital que ha puesto de manifiesto la existencia de variabilidad en la toma de decisiones entre los médicos cuando se enfrentan a escenarios idénticos.Publication Open Access Analytic approximations of integral transforms in terms of elementary functions: application to special functions(2023) Palacios Herrero, Pablo; López García, José Luis; Pagola Martínez, Pedro Jesús; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika; Universidad Pública de Navarra / Nafarroako Unibertsitate PublikoaThis thesis focuses on the study of new analytical methods for the approximation of integral transforms and, in particular, of special functions that admit an integral representation. The importance of these functions lies in the fact that they are solutions to a great variety of functional equations that model specific physical phenomena. Moreover, they play an important role in pure and applied mathematics, as well as in other branches of science such as chemistry, statistics or economics. Usually, the integrals defining these special functions depend on various parameters that have a specific physical meaning. For this reason, it is important to have analytical techniques that allow their computation in a quick and easy manner. The most commonly used analytical methods are based on series expansions of local validity: Taylor series and asymptotic (divergent) expansions that are, respectively, valid for small or large values of the physically relevant variable. However, neither of them is, in general, simultaneously valid for large and small values of the variable. In this thesis we seek new methods for the computation of analytic expansions of integral transforms satisfying the following three properties: (a) The expansions are uniformly valid in a large region of the complex plane. Ideally, these regions should be unbounded and contain the point 0 in their interior. (b) The expansions are convergent. Therefore, it is not necessary to obtain error bounds or to study the optimal term to truncate the expansion: the more terms considered, the smaller the error committed. (c) The expansions are given in terms of elementary functions. We develop a theory of uniform expansions that shows the necessary and sufficient conditions to obtain expansions of integral transforms fulfilling the three conditions (a),(b) and (c) above. This theory is applied to obtain new series approximations satisfying (a), (b) and (c) of a large number of special functions. The new expansions are compared with other known representations that we may find in the literature to show their ad-vantages and drawbacks. In contrast to the Taylor and asymptotic expansions, the main benefit of the uniform expansions is that they are valid in a large region of the complex plane. For this reason, they may be used to replace the function they approximate (which is often difficult to work with) when it appears in certain calculations, such as a factor of an integral or in a differential equation. Since these developments are also given in terms of elementary functions, such calculations may be carried out easily. Next, we consider a particularly important case: when the kernel of the integral transform is given by an exponential. We develop a new Laplace’s method for integrals that produces asymptotic and convergent expansions, in contrast to the classical Laplace method which produces divergent developments. The expansions obtained with this new method satisfy (a) and (b) but not (c), since the asymptotic sequence is given in terms of incomplete beta functions. Finally, we develop a new uniform asymptotic method 'saddle point near an end point' which does not satisfy (b) and (c) but, unlike the classical 'saddle point near an end point' method, allows us to calculate the coefficients of the expansion by means of a simple and systematic formula.Publication Open Access Aplicación de tecnologías de realidad aumentada y realidad virtual mediante dispositivos móviles para la salvaguarda de patrimonio lingüístico(2024) Sánchez Campos, Walter; Pina Calafi, Alfredo; Rubio Navarro, Gabriel; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika; Universidad Pública de Navarra/Nafarroako Unibertsitate PublikoaEsta investigación presenta los resultados de un estudio sobre el impacto de la incorporación de un libro de texto de realidad aumentada y aplicaciones móviles android en el proceso de enseñanzaaprendizaje de la lengua náhuat en escuelas públicas de El Salvador. Se aplicó inferencia estadística para determinar la significancia de los valores de las calificaciones entre los estudiantes de un grupo de control y experimental mediante la prueba de Mann-Whitney y la prueba de Brunner-Munzel, previa verificación de los supuestos paramétricos de estas pruebas, en total participaron 150 estudiantes. También se muestran los resultados de la percepción de los estudiantes correspondiente al uso de los recursos antes mencionados, para tal fin fueron administradas encuestas a 113 estudiantes en total, a través de dos cuestionarios con escala de Likert de 5 puntos y frases con escala de tipo diferencial semántica para la recopilación de datos adicionales relacionados para cada pregunta de tipo escala Likert antes mencionado. Los resultados muestran que los estudiantes perciben ventajas específicas vinculadas al uso del libro de texto de realidad aumentada y de aplicaciones móviles android en el proceso de enseñanza-aprendizaje de la lengua náhuat. Este estudio permite concluir que los estudiantes matriculados en cursos de náhuat en escuelas públicas de El Salvador que participaron en este estudio valoran mucho el proceso de enseñanza-aprendizaje mediado por tecnología de realidad aumentada y aplicaciones móviles.Publication Open Access Behavioral analysis in cybersecurity using machine learning: a study based on graph representation, class imbalance and temporal dissection(2022) Zola, Francesco; Galar Idoate, Mikel; Bruse, Jan Lukas; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaThe main goal of this thesis is to improve behavioral cybersecurity analysis using machine learning, exploiting graph structures, temporal dissection, and addressing imbalance problems.This main objective is divided into four specific goals: OBJ1: To study the influence of the temporal resolution on highlighting micro-dynamics in the entity behavior classification problem. In real use cases, time-series information could be not enough for describing the entity behavior classification. For this reason, we plan to exploit graph structures for integrating both structured and unstructured data in a representation of entities and their relationships. In this way, it will be possible to appreciate not only the single temporal communication but the whole behavior of these entities. Nevertheless, entity behaviors evolve over time and therefore, a static graph may not be enoughto describe all these changes. For this reason, we propose to use a temporal dissection for creating temporal subgraphs and therefore, analyze the influence of the temporal resolution on the graph creation and the entity behaviors within. Furthermore, we propose to study how the temporal granularity should be used for highlighting network micro-dynamics and short-term behavioral changes which can be a hint of suspicious activities. OBJ2: To develop novel sampling methods that work with disconnected graphs for addressing imbalanced problems avoiding component topology changes. Graph imbalance problem is a very common and challenging task and traditional graph sampling techniques that work directly on these structures cannot be used without modifying the graph’s intrinsic information or introducing bias. Furthermore, existing techniques have shown to be limited when disconnected graphs are used. For this reason, novel resampling methods for balancing the number of nodes that can be directly applied over disconnected graphs, without altering component topologies, need to be introduced. In particular, we propose to take advantage of the existence of disconnected graphs to detect and replicate the most relevant graph components without changing their topology, while considering traditional data-level strategies for handling the entity behaviors within. OBJ3: To study the usefulness of the generative adversarial networks for addressing the class imbalance problem in cybersecurity applications. Although traditional data-level pre-processing techniques have shown to be effective for addressing class imbalance problems, they have also shown downside effects when highly variable datasets are used, as it happens in cybersecurity. For this reason, new techniques that can exploit the overall data distribution for learning highly variable behaviors should be investigated. In this sense, GANs have shown promising results in the image and video domain, however, their extension to tabular data is not trivial. For this reason, we propose to adapt GANs for working with cybersecurity data and exploit their ability in learning and reproducing the input distribution for addressing the class imbalance problem (as an oversampling technique). Furthermore, since it is not possible to find a unique GAN solution that works for every scenario, we propose to study several GAN architectures with several training configurations to detect which is the best option for a cybersecurity application. OBJ4: To analyze temporal data trends and performance drift for enhancing cyber threat analysis. Temporal dynamics and incoming new data can affect the quality of the predictions compromising the model reliability. This phenomenon makes models get outdated without noticing. In this sense, it is very important to be able to extract more insightful information from the application domain analyzing data trends, learning processes, and performance drifts over time. For this reason, we propose to develop a systematic approach for analyzing how the data quality and their amount affect the learning process. Moreover, in the contextof CTI, we propose to study the relations between temporal performance drifts and the input data distribution for detecting possible model limitations, enhancing cyber threat analysis.Publication Open Access Challenges in disease mapping: predicting cancer incidence and analyzing models’ smoothing(2024) Retegui Goñi, Garazi; Etxeberria Andueza, Jaione; Ugarte Martínez, María Dolores; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika; Universidad Pública de Navarra / Nafarroako Unibertsitate Publikoa, PJUPNA2018-11La representación cartográfica de enfermedades tiene como objetivo estudiar los patrones geográficos y las tendencias temporales de incidencia y mortalidad de distintas enfermedades, principalmente no transmisibles, como el cáncer. Los modelos espacio-temporales para datos de área desempeñan un papel crucial en la descripción del impacto del cáncer en distintas poblaciones, permitiendo a los gestores sanitarios e investigadores formular estrategias de prevención, diagnóstico y tratamiento. Sin embargo, el análisis de datos de cáncer presenta varios retos. Por un lado, la falta de registros de incidencia del cáncer en determinadas zonas geográficas dificulta el análisis espacial o temporal de los patrones de incidencia del cáncer. Por otro lado, algunos tipos de cáncer, como los cánceres poco frecuentes, siguen sin estudiarse lo suficiente debido a la escasa disponibilidad de datos exhaustivos. Esta tesis está dedicada a mejorar y desarrollar metodología para abordar los retos asociados tanto con la estimación de la incidencia del cáncer en ausencia de registros como con el estudio de los cánceres poco frecuentes. La tesis pretende alcanzar los siguientes objetivos. El primer objetivo consiste en examinar los retos asociados a los datos de cáncer y revisar los métodos estadísticos utilizados en la literatura para enfrentarse a estos retos. En el Capítulo 1 se ofrece una introducción general a las problemáticas asociadas con los datos de cáncer para comprender la relevancia del problema. El segundo objetivo de esta tesis es proponer nuevos modelos que permitan predecir las tasas de incidencia en áreas geográficas sin registro de cáncer y, en consecuencia, proporcionar estimaciones de la carga de cáncer a nivel nacional. En el Capítulo 2, utilizamos modelos espaciales multivariantes comúnmente empleados en la literatura del ámbito de la representación cartográfica de enfermedades para predecir la incidencia de cáncer, modelizando conjuntamente la incidencia y la mortalidad por cáncer. El tercer objetivo es ampliar la colección de modelos espacio-temporales multivariantes mediante la introducción de interacciones compartidas adaptables que permitan mejorar el análisis conjunto de incidencia y mortalidad por cánceres raros. En el Capítulo 3, se proporciona una descripción detallada del modelo propuesto. Estos modelos permiten la modulación de interacciones espacio-temporales entre incidencia y mortalidad, permitiendo cambios en su relación a lo largo del tiempo. El cuarto objetivo es evaluar la eficacia del método desarrollado en el Capítulo 3 para la predicción a corto plazo de las tasas de incidencia de cáncer, al tiempo que se manejan datos perdidos en las series temporales dada la falta de registros de cáncer en determinadas áreas geográficas. En el Capítulo 4, se lleva a cabo un estudio de validación para evaluar la capacidad predictiva de los modelos tanto para la predicción a futuro como para la predicción de datos faltantes en determinadas áreas, utilizando datos de mortalidad por cáncer de pulmón de los distritos sanitarios administrativos de Inglaterra para la serie temporal que abarca de 2001 a 2019. El quinto objetivo es ofrecer una visión global del suavizado inducida por los modelos espaciales univariantes. Estos modelos llevan implícito cierto grado de suavizado, en virtud del cual, para cualquier área concreta, las estimaciones empíricas de riesgo o incidencia se ajustan hacia una media adecuada o incorporan un suavizado basado en los vecinos. Por lo tanto, aunque la explicación del modelo puede ser el objetivo principal, es crucial examinar el efecto de suavizado de los modelos. Además, un prior espacial particular tiene parámetros y no se ha estudiado cómo la variación de estos parámetros afecta al suavizado inducido. El Capítulo 5 investiga, tanto teórica como empíricamente, el grado de suavizado conseguido por un modelo determinado. El sexto objetivo, transversal a todos los capítulos, materializa nuestro firme compromiso con la reproducibilidad. El código desarrollado en esta tesis se encuentra disponible públicamente en el repositorio de GitHub de nuestro grupo de investigación https://github.com/spatialstatisticsupna. La tesis finaliza con las principales conclusiones y las líneas futuras de investigación.Publication Embargo Controlador neuronal basado en aprendizaje por refuerzo para el despegue y aterrizaje autónomo de drones en entornos con viento variable(2025) Olaz Moratinos, Xabier; Villadangos Alonso, Jesús; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaEl control autónomo de drones en condiciones de viento variable representa un desafío crucial en los campos de la aeronáutica y la robótica. En esta tesis, se presenta el diseño y la evaluación de un controlador neuronal basado en aprendizaje por refuerzo (RL), orientado a optimizar la maniobrabilidad autónoma durante las fases críticas de despegue y aterrizaje en entornos complejos. El objetivo principal es superar las limitaciones de los controladores PID tradicionales, mejorando la estabilidad y la precisión del vuelo. Para validar estos avances, se realizarán pruebas exhaustivas mediante simulaciones Hardware-in-the-Loop (HIL), estableciendo comparaciones detalladas con el desempeño de los controladores PID. El aprendizaje por refuerzo (RL - Reinforcement Learning) ha emergido como una solución innovadora para sistemas complejos, permitiendo a los agentes desarrollar políticas óptimas de control a partir de la interacción directa con su entorno, sin requerir modelos precisos del sistema. Este enfoque se destaca por su adaptabilidad y su capacidad para gestionar no linealidades en la dinámica de vuelo de los drones, superando así limitaciones de los métodos convencionales. En este trabajo, el RL se implementa progresivamente en controladores neuronales profundos: desde algoritmos en espacios de acción discretos como Deep Q-Network (DQN) hasta soluciones definitivas en entornos continuos mediante Deep Deterministic Policy Gradient (DDPG) y Proximal Policy Optimization (PPO), integrando simulaciones de entornos realistas que modelan dispositivos y fuerzas externas, incluyendo efectos de viento. Una de las contribuciones clave es el desarrollo de una arquitectura de red neuronal con un Módulo de Adaptación y un Módulo de Conversión, que transforman las fuerzas y momentos en velocidades de motor. Esta innovación permite al controlador neuronal responder a ráfagas de viento de hasta 10 m/s, optimizando a su vez la previsibilidad y confiabilidad mediante una discretización de acciones, lo cual reduce tanto la cantidad de acciones necesarias como el error de posición durante maniobras. Los resultados de las pruebas muestran mejoras notables en estabilidad y precisión de trayectoria, así como en la capacidad de respuesta ante variaciones de viento abruptas. Durante las pruebas, el controlador permitió al modelo 3DR Iris+ mantener la estabilidad en situaciones de viento de hasta 10 m/s (91%de su velocidad máxima) en maniobras de despegue y aterrizaje, obteniendo un rendimiento competitivo con drones avanzados en resistencia relativa. Las pruebas con Hardware-in-the-Loop (HIL) también validaron la eficacia del controlador en entornos físicos, comparándolo contra sistemas PID. Los hallazgos indican que el enfoque propuesto no solo ofrece una solución robusta y eficiente para el control autónomo de drones, sino que además abre nuevas oportunidades para aplicaciones seguras en áreas críticas como vigilancia, rescate y logística. Esta tesis aporta significativamente al campo del control autónomo de UAVs, estableciendo una base sólida para futuros desarrollos en controladores adaptativos inteligentes y en el estudio del vuelo en condiciones ambientales adversas.Publication Open Access Dealing with uncertainty: a human perception approach in image processing(2019) Marco Detchart, Cedric; López Molina, Carlos; Fernández Fernández, Francisco Javier; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaUna de las maneras de abordar la comparación entre objetos es mediante el uso de la similitud (comparando sus atributos comunes) o la disimilitud (comparando sus diferencias). La similitud ha sido estudiada de maneras muy diversas, desde muchos puntos de vista y en una variedad de campos tales que la psicología, la neurociencia o las matemáticas. Uno de los principales temas en los que las distancias y las similitudes han sido abordadas es a través de la lógica difusa, que permite implementar una perspectiva humana en las medidas de comparación, aportando una herramienta que permite capturar la incertidumbre inherente en la percepción de la distancia. Dentro de este contexto de la comparación y la similitud, encontramos un concepto relacionado, como es la correspondencia de características. Este concepto es una de las técnicas más utilizada en la detección de patrones o la evaluación del rendimiento de un algoritmo. En esta tesis doctoral hemos estudiado la similitud en el contexto de la lógica difusa junto con una serie de propuestas en las que tiene cabida. Entre otras, podemos citar la extracción de patrones en el análisis de huellas dactilares, cuyo estudio ha llevado en esta tesis al desarrollo de nuevos conceptos como las Funciones de Equivalencia Restringidas Radiales y las Medidas de Similitud Radiales, que modelan la similitud percibida entre datos radiales, tanto escalares como vectoriales. Además, como un estudio más explícito de las distancias en la lógica difusa, hemos abordado el estudio de las distancias, las medidas de similitud y la entropía en conjuntos difusos intervalo-valorados. Para ello, hemos incluido la amplitud del intervalo en el cálculo de las medidas. Esta condición adicional nos ha permitido conectar la incertidumbre contenida en el intervalo final con la del intervalo inicial. Finalmente, de manera complementaria hemos estudiado la aplicación de nuestros resultados teóricos en tareas de procesamiento de imagen. Hemos desarrollado un detector de bordes mediante el uso de funciones monótonas direccionalmente ordenadas y técnicas de toma de decisión por consenso. Además, hemos realizado un estudio que recoge las diferentes técnicas de análisis de calidad para los métodos de extracción de bordes, resultando en una nueva taxonomía de los diferentes métodos y un análisis de su comportamiento, mostrando que ninguno de los métodos es más adecuado que otro, siendo equivalentes entre si.Publication Open Access Decision making with horizontal cooperation and environmental criteria for transportation: optimization and simulation models for the vehicle routing problem and the facility location problem(2018) Serrano Hernández, Adrián; Faulín Fajardo, Javier; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaTransportation is a major contributor to the development of the world economy and, at the same time, a major contributor to air pollution and global warming. Additionally, the unstoppable increase of competition as consequence of the globalization, as well as the increasingly service quality demanded by customers related to shorter times and lower costs, are forcing logistics companies to consider new managerial strategies. In this sense, horizontal cooperation among logistic companies is seen as a real alternative for gaining efficiency and sustainability. These agreements can be summarized as any arrangement between partners, tacit or not, which involves more than one company without vertical relationship between them, i.e., no supplier-customer relationship, based on trust and mutual commitment to identify and exploit win-win situations with the goal of sharing benefits (or risks) that would be higher (or lower) than each company would obtain if they acted completely independently. Therefore, in the first part of this thesis, several simulation models have been developed to track the evolution of a coalition in order to quantify horizontal cooperation impact in both economic and environmental sides considering the existence of trust-related issues. Additionally, as a great source of cooperation, a real application consisted on the location of a biorefinery is presented, developed, and discussed. On the other hand, environmental impacts of transportation should be measured and assessed for their integration in the existing optimization models. Thus, the second part of this thesis is devoted to the pricing through a contingent valuation survey of environmental impacts (externalities) and their internalization in the well-known Vehicle Routing Problem. In this sense, several optimization models are developed to assess the impact of the internalization of externalities on the routing decisions of logistics operations.Publication Open Access Demographic bias in machine learning: measuring transference from dataset bias to model predictions(2024) Domínguez Catena, Iris; Galar Idoate, Mikel; Paternain Dallo, Daniel; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaAs artificial intelligence (AI) systems increasingly influence critical decisions in society, ensuring fairness and avoiding bias have become pressing challenges. This dissertation investigates demographic bias in machine learning, with a particular focus on measuring how bias transfers from datasets to model predictions. Using Facial Expression Recognition (FER) as a primary case study, we develop novel metrics and methodologies to quantify and analyze bias at both the dataset and model levels. The thesis makes several key contributions to the field of algorithmic fairness. We propose a comprehensive taxonomy of types of dataset bias and metrics available for each type. Through extensive evaluation on FER datasets, we demonstrate the effectiveness and limitations of these metrics in capturing different aspects of demographic bias. Additionally, we introduce DSAP (Demographic Similarity from Auxiliary Profiles), a novel method for comparing datasets based on their demographic properties. DSAP enables interpretable bias measurement and analysis of demographic shifts between datasets, providing valuable insights for dataset curation and model development. Our research includes in-depth experiments examining the propagation of representational and stereotypical biases from datasets to FER models. Our findings reveal that while representational bias tends to be mitigated during model training, stereotypical bias is more likely to persist in model predictions. Furthermore, we present a framework for measuring bias transference from datasets to models across various bias induction scenarios. This analysis uncovers complex relationships between dataset bias and resulting model bias, highlighting the need for nuanced approaches to bias mitigation. Throughout the dissertation, we emphasize the importance of considering both representational and stereotypical biases in AI systems. Our work demonstrates that these biases can manifest and propagate differently, necessitating tailored strategies for detection and mitigation. By providing robust methodologies for quantifying and analyzing demographic bias, this research contributes to the broader goal of developing fairer and more equitable AI systems. The insights and tools presented here have implications beyond FER, offering valuable approaches for addressing bias in various machine learning applications. This dissertation paves the way for future work in algorithmic fairness, emphasizing the need for continued research into bias measurement, mitigation strategies, and the development of more inclusive AI technologies.Publication Open Access Desarrollo de modelos de mejora de la eficiencia del sistema sanitario público. Aplicación al servicio de urgencias hospitalarias del Complejo Hospitalario de Navarra(2024) Ibarra Bolt, Amaya; Mallor Giménez, Fermín; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaEn esta tesis se ha intentado estudiar y reflejar la importancia del estrés laboral en las profesiones sanitarias y, en especial, en servicios como urgencias con características propias que favorecen el desarrollo del estrés y del burnout dentro de sus trabajadores. Hemos querido resaltar las causas principales que pueden desencadenar estrés dentro de los servicios, en general y dentro del complejo hospitalario de Navarra en particular, desgranando cada uno de ellos y ponderando su importancia dentro del conjunto de los mismos. Se ha querido medir de la manera más exacta posible el nivel de estrés de cada momento dentro del turno de trabajo (el llamado estrés a tiempo real) así como el estrés acumulado a lo largo del turno laboral. Finalmente, y basándonos en los resultados recogidos tanto en los modelos de simulación, en las encuestas anónimas y en las entrevistas con los profesionales se llegó a la conclusión de que teníamos la oportunidad de trabajar sobre políticas de mejora para solventar estos problemas, lo que nos llevó a modificar las reglas de asignación de pacientes que permitieron una mejora sustancial en la calidad asistencial. Se han observado mejoras en los tiempos de espera de los pacientes y en otras medidas de rendimiento de la calidad asistencial, así como en el estrés del profesional, balanceando las cargas de trabajo entre profesionales a lo largo del turno laboral. Como conclusión final de la discusión pondríamos de manifiesto que los modelos de simulación matemática pueden ser un buen punto de partida y una gran herramienta para la valoración y estudio de los procesos que ocurren en un Servicio de Urgencias hospitalario. Complementario a esto último, podemos decir que estas herramientas nos pueden servir para probar in vitro cualquier política de mejora que nos interese implantar pudiendo ver previamente si va a ser eficaz o no. Esto permitiría desechar la política del ensayo error que tantos recursos consume y no siempre tiene buenos resultados.Publication Embargo Digital twin development for VTOL UAVs(2024) Aláez Gómez, Daniel; Villadangos Alonso, Jesús; Astrain Escola, José Javier; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaThe use of vertical take-off and landing (VTOL) drones in various industries is becoming increasingly popular. However, the democratization of drones also raíces significant concerns about safety during their operations. Their relatively new technology and growing interest often lead to the use of undertested vehicles in missions where safety is critical. To address these risks and reduce the costs associated with experimental flights of new aircraft, the implementation of high-fidelity emulators is proposed. These advanced emulators, known as digital twins, have seen exponential growth in popularity in recent years. This thesis addresses the complete process of developing digital twins for VTOL unmanned aerial vehicles (UAVs). Initially, we propose a digital twin development model based on a variation of the double diamond design process. After identifying critical systems in two types of VTOL UAVs, a hexacopter and a commercial tiltrotor aircraft, we have developed a mathematical model to characterize aerodynamic, gravitational, and propulsive actions. Propulsive actions are measured through experimental tests on a motor test bench. Gravitational actions are determined using precise computeraided design/computer-aided manufacturing (CAD/CAM) models and experi mental measurements. Finally, aerodynamic actions are obtained through a novel aerodynamic model, which calculates the complete aircraft aerodynamics based on the incident wind direction, relying on numerous computational fluid dynamics (CFD) simulations. To mitigate the costs associated with CFD simulations, we employ surrogate models, developing and validating a surrogate model capable of potentially reducing the number of simulations by up to 50%. Another critical subsystem is the communication system. Based on experimental measurements, we fit and validate a path loss model for Received Signal Strength Indicator (RSSI) to estimate signal losses as a function of the aircraft’s position and attitude. This model allows us to predict and quantify the impact of the UAV’s attitude and position relative to the communication source. Ultimately, the digital twin is successfully implemented and validated using both hardware-in-the-loop and X-Plane for a commercial flight controller, as well as software-in-the-loop and Gazebo for an open-source controller (Ardupilot). This comprehensive validation approach ensures that the digital twin accurately replicates the behavior and performance of the actual UAV systems, regardless of the emulation engine and architecture chosen.Publication Embargo Discrete fuzzy integrals and their applications(2025) Wieczynski, Jonata; López Molina, Carlos; Pereira Dimuro, Graçaliz; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaThis doctoral thesis introduces new generalizations of discrete fuzzy integrals with three distinct applications. We introduce four new families of discrete fuzzy integrals, including the d-XChoquet integral, the dCF -integrals, and the extended families of discrete Choquet and Sugeno integrals. These new generalizations are designed to provide better flexibility and performance in applications. In addition, we investigate the theoretical properties of these new integral generalizations, such as monotonicity. Furthermore, extensive experiments are conducted to compare the performance of the new, proposed, integrals with existing ones in three distinct applications: in classification, decision-making analysis, and in brain signal processing. The results demonstrate that the proposed generalizations perform better than other discrete fuzzy integrals in most applications.Publication Open Access Enabling intelligent and interactive immersion in smart environments(2022) Al-Rahamneh, Anas; Falcone Lanas, Francisco; Astrain Escola, José Javier; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika; Gobierno de Navarra / Nafarroako GobernuaIn recent years, the Smart City concept has grown in popularity, and a significant number of cities around the world have adopted smart city strategies. Smart and sustainable cities are an emerging urban development approach due to their immense potential to improve environmental sustainability. The Smart City concept is based on collecting, analyzing, and displaying a large amount of data and information concerning urban systems and subsystems. As time goes by, the capacity of smart cities for generating digital information has grown exponentially. However, this digital information is heterogeneous, massive, collected from different sources, generated in different formats, and in most cases not structured, which exacerbates the situation of extracting valuable knowledge from data. Therefore, it is fundamental to handle the significant volumes of heterogeneous sensed data and to integrate such data along with information and analysis tools into a comprehensive platform. This can ensure the security, efficiency, and performance of the different Smart City tasks. A comprehensive software platform could provide services such as facilities for application development, integration of heterogeneous data sources, deployment, and management to ease the construction of sophisticated Smart Cities’ applications. In this context, the work begins with a concise description of the concept of smart city and the technologies involved in it. It addresses the development of an urban data platform along with how to obtain and integrate information from sensors and other data sources, in order to provide aggregated and intelligent views of raw data to support various domains within the city; in our case, smart mobility. The platform architecture is implemented following a five-layer model that considers elements from perception, sensing to data management, processing, and visualization. With the aim of evaluating the efficiency of the developed platform, three different use cases are described and analyzed, which have been implemented in the city of Pamplona, Spain, as vertical services linked to the platform: intelligent urban mobility-bike handling, bike-2-bike communication, and restricted vehicle access zone control system. Ultimately, this work provides an experiment to assess different long-range wireless communication technologies to enable their implementation within an urban environment.Publication Open Access Enhancing semantic segmentation models for high-resolution satellite imagery(2024) Ayala Lauroba, Christian; Galar Idoate, Mikel; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaEl objetivo principal de esta memoria es estudiar, desarrollar y evaluar de manera justa modelos de segmentación semántica que utilicen datos con una resolución espacial limitada para abordar tareas que demandan un alto nivel de detalle, como la segmentación semántica de edificios y carreteras, aprovechando la disponibilidad de datos públicos y de libre acceso. De esta forma se busca reducir la brecha con productos de muy alta resolución, que actualmente son inaccesibles para la gran mayoría de usuarios. La memoria está organizada en torno a cuatro grandes objetivos, cada uno correspondiente a un problema abierto expuesto en la sección anterior, y que en conjunto abordan el objetivo principal mencionado: Estudiar y desarrollar modelos de segmentación semántica para abordar problemas que requieren de un alto nivel de detalle, como la segmentación de edificios y carreteras, utilizando imágenes satelitales de baja resolución espacial. Dados los numerosos métodos existentes en la literatura para segmentar edificios y carreteras [ZLW18, BHF+19,W+20, SZH+21], nos planteamos realizar un estudio de estas técnicas con el objetivo de identificar sus limitaciones y los problemas que puedan surgir al aplicarlas a imágenes satelitales de baja resolución, como las ofrecidas por los satélites Sentinel. Basándonos en esta información, planeamos diseñar un nuevo modelo de aprendizaje profundo capaz de extraer edificios y carreteras a partir de imágenes de baja resolución, con una calidad cercana a la obtenida a partir de imágenes de muy alta resolución. Investigar cuál es la mejor estrategia para abordar problemas de segmentación semántica con múltiples clases. Habitualmente, los problemas de segmentación semántica multi-clase se afrontan de manera directa [YRH18]. Sin embargo, en un contexto donde la resolución espacial influye significativamente en la separación de las clases, parece lógico recurrir a estrategias de descomposición binaria [LdCG09] o esquemas de entrenamiento multi-tarea [Gir15]. Estos enfoques podrían simplificar el problema multi-clase y, por tanto, mejorar la clasificación. No obstante, en el ámbito de la observación de la Tierra, estas estrategias no han sido ampliamente utilizadas en problemas de segmentación semántica. Por ello, nos proponemos llevar a cabo un estudio comparativo de las diferentes estrategias para abordar problemas de segmentación semántica con varias clases en el ámbito de la teledetección, con el objetivo de establecer pautas claras al respecto. Diseñar nuevas técnicas de aumento de datos que exploten la alta periodicidad que ofrecen los satélites de baja resolución. Las técnicas de aumento de datos basadas en fotometría aplicadas al ámbito de la observación de la Tierra presentan limitaciones importantes, como la generación de artefactos sintéticos y la incapacidad de modelar eventos como la siembra, cosecha o la posición del sol [GSD+20]. Además, estas técnicas se encuentran estrechamente ligadas a sensores ópticos, por lo que no son extrapolables a otros tipos de sensores como térmicos o radar. Por ello, nos plantemos proponer formas de explotar la alta periodicidad provista por los satélites de baja resolución como técnica de aumento de datos, sin necesidad de etiquetar estos datos previamente. Establecer pautas para comparar mapas de segmentación semántica a múltiples resoluciones. Dado que en literatura no existe un consenso sobre cómo se deben comparar métricas obtenidas a partir de modelos de segmentación semántica con resoluciones espaciales diferentes, nos planteamos estudiar las limitaciones y ventajas de cada una de las aproximaciones existentes para poder plantear pautas claras que indiquen cuál es la forma correcta de llevar a cabo dicha comparación.Publication Open Access Enhancing user experience in immersive virtual environments: advances in multiple object selection and affective interaction(2025) Elizondo Martínez, Sonia; Marzo Pérez, Asier; Ortiz Nicolás, Amalia; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaLos Entornos Virtuales Inmersivos (EVI) se utilizan para el entretenimiento, la educación, la atención sanitaria y la colaboración remota. Los EVI permiten a los usuarios participar e interactuar con contenido digital tridimensional de manera segura, consistente y controlada. Tres aspectos relevantes para lograr interacciones adecuadas entre los usuarios y los EVI son: 1) diseñar técnicas de interacción semejantes a las acciones del mundo real; 2) integrar tanto capacidades técnicas como emocionales; y 3) realizar evaluaciones exhaustivas de la experiencia de usuario para permitir una mejora constante de las capacidades de los EVI. Esta tesis doctoral ofrece una introducción detallada a los tres aspectos mencionados anteriormente: las técnicas de interacción (con un enfoque en la selección); el campo de la Computación Afectiva y cómo puede mejorar la experiencia de usuario en los EVIs; y los métodos implícitos y explícitos para evaluar tanto necesidades técnicas como emocionales con el fin de lograr una experiencia de usuario completa. Esta tesis también destaca las actuales limitaciones en la implementación de estos aspectos en los entornos virtuales y propone una nueva técnica de selección multiobjeto para los EVIs, así como un marco de diseño para guiar el desarrollo de EVIs con capacidades emocionales.Publication Open Access Exploring disease mapping models in big data contexts: some new proposals(2023) Orozco Acosta, Erick; Adin Urtasun, Aritz; Ugarte Martínez, María Dolores; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika; Universidad Pública de Navarra / Nafarroako Unibertsitate Publikoa, PJUPNA2001La representación cartográfica de enfermedades es un área de investigación muy relevante y significativa dentro del campo de la estadística espacial (datos de área), ya que ofrece un apoyo muy importante para la toma de decisiones en materia de salud pública. Debido a la gran variabilidad de los estimadores de riesgo clásicos, como la razón de mortalidad estandarizada (RME), el uso de modelos estadísticos complejos resulta esencial para obtener una representación más coherente del riesgo de enfermedad subyacente. Durante las últimas décadas se han propuesto en la literatura varios modelos estadísticos para suavizar riesgos espacio-temporales, la mayoría de ellos considerando modelos que incorporan efectos aleatorios con distribuciones a priori condicionales autorregresivas (CAR), basándose en el trabajo seminal de Besag et al. (1991). Sin embargo, la escalabilidad de estos modelos, concretamente su viabilidad en escenarios en los que el número de áreas pequeñas aumenta significativamente, no ha sido estudiada suficientemente. Por lo tanto, el principal objetivo de esta tesis es proponer nuevos métodos de modelización bayesiana escalables para suavizar riesgos (o tasas) de incidencia/mortalidad en datos de área espaciales y espacio-temporales de alta dimensión. La metodología está basada en el principio de “divide y vencerás”. La presente tesis aborda en concreto los objetivos descritos a continuación. El primer objetivo es revisar la bibliografía más reciente acerca de las principales aportaciones en el ámbito espacial y espacio-temporal que son relevantes para los objetivos de esta investigación. El capítulo 1 ofrece una visión general del ajuste y la inferencia de modelos, centrándose en la técnica INLA, basada en aproximaciones de Laplace anidadas e integración numérica, ampliamente utilizada para modelos Gaussianos latentes dentro del paradigma Bayesiano (Rue et al., 2009). En este capítulo también se proporcionan aproximaciones de criterios de selección de modelos basados en la desviación Bayesiana (denominada deviance en inglés) y la distribución predictiva bajo las nuevas propuestas de modelos escalables. También se incluye una breve descripción del paquete bigDM de R, que implementa todos los algoritmos y modelos propuestos en esta disertación. El segundo objetivo de esta tesis es proponer un método de modelización Bayesiana escalable para el tratamiento de datos de área espaciales de alta dimensión. En el Capítulo 2, se facilita una descripción exhaustiva de una nueva metodología de suavización de riesgos. También se lleva a cabo un estudio de simulación multiescenario que incluye casi 8 000 municipios españoles para comparar el método propuesto con un modelo global tipo CAR en términos de bondad de ajuste y precisión en la estimación de la superficie de riesgos. Además, se ilustra el comportamiento de los modelos escalables analizando datos de mortalidad por cáncer de colon y recto en hombres para municipios españoles utilizando dos estrategias diferentes de partición del dominio espacial. El tercer objetivo es ampliar el enfoque de modelización Bayesiana escalable para suavizar riesgos de mortalidad o incidencia espacio-temporales de alta dimensión. En el capítulo 3, se presenta una descripción exhaustiva de los modelos CAR espaciotemporales propuestos originalmente por Knorr-Held (2000), que son la base de la nueva propuesta de modelización para analizar datos de área espacio-temporales. El capítulo también explica las estrategias de paralelización y computación distribuida implementadas en el paquete bigDM para acelerar los cálculos mediante el uso del paquete future (Bengtsson, 2021) de R. Se realiza un estudio de simulación para comparar la nueva propuesta escalable con dos estrategias de fusión diferentes frente a los modelos CAR espacio-temporales tradicionales utilizando el mapa de los municipios españoles como plantilla. Además, se evalúa la nueva propuesta en términos de tiempo computacional. Finalmente, se ilustran y comparan todos los enfoques descritos en este capítulo analizando la evolución espacio-temporal de la mortalidad por cáncer de pulmón en hombres en los municipios españoles durante el periodo 1991-2015. El cuarto objetivo es evaluar la idoneidad del método desarrollado en el Capítulo 3 para la previsión a corto plazo de datos de alta resolución espacial. En el Capítulo 4, se presenta el modelo CAR espacio-temporal que incorpora observaciones faltantes en la variable respuesta para los periodos de tiempo que se van a pronosticar. Adicionalmente, se realiza un estudio de validación para evaluar la capacidad predictiva de los modelos para predicciones a uno, dos y tres periodos utilizando datos reales de mortalidad por cáncer de pulmón en municipios españoles. En este capítulo, también se compara la capacidad predictiva de los modelos utilizando medidas de validación cruzada (denominadas en inglés leave-one-out y leave-group-out) (Liu and Rue, 2022). El quinto objetivo es transversal a todos los capítulos. El objetivo es desarrollar un paquete en lenguaje R de código abierto llamado bigDM (Adin et al., 2023b) que consolida todos los métodos propuestos en esta disertación haciéndolos fácilmente disponibles para su uso por la comunidad científica. La tesis finaliza con las principales conclusiones de este trabajo y detalla futuras líneas de investigación.Publication Open Access A framework for general fusion processes under uncertainty modeling control, with an application in interval-valued fuzzy rule-based classification systems(2022) Da Cruz Asmus, Tiago; Sanz Delgado, José Antonio; Pereira Dimuro, Graçaliz; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaLa fusión de información es el proceso de combinar varios valores numéricos en uno solo que los represente. En problemas con algún tipo de modelado difuso, este proceso generalmente se realiza mediante funciones de fusión o, su subclase más importante, las funciones de agregación. Estas funciones se han aplicado ampliamente en varias técnicas para resolver problemas de clasificación, en particular, en los Sistemas de Clasificación Basados en Reglas Difusas (SCBRDs). En este tipo de clasificador, se han aplicado de forma exitosa las funciones de solapamiento (que son funciones de agregación bivariadas con propiedades deseables) y sus generalizaciones n-dimensionales. Cuando hay incertidumbre con respecto al modelado de las funciones de pertenencia en los SCBRDs, generalmente asociados con términos lingüísticos, se pueden aplicar conjuntos difusos intervalo-valorados. El modelado de etiquetas lingüísticas a través de conjuntos difusos intervalo-valorados en los SCBRDs origino a los Sistemas de Clasificación Basados en Reglas Difusas Intervalo-valorados (IV-SCBRDs). En estos sistemas, los procesos de fusión se calculan mediante funciones de agregación definidas en el contexto intervalar, mientras que las amplitudes de los intervalos de pertenencia asignados están intrínsecamente relacionadas con la incertidumbre con respecto a los valores que están aproximando y, luego, con la calidad de la información que representan. Sin embargo, no existe una guía en la literatura que muestre cómo definir y construir funciones de fusión con valores intervalares que tomen en consideración el control de la calidad de la información. Por todo ello, en esta tesis, desarrollamos un marco para definir funciones de fusión intervalo-valoradas n-dimensionales generalizadas considerando los órdenes admisibles y el control de la calidad de la información. Aplicamos los conceptos desarrollados en un IV-SCBRD considerado como estado del arte (es decir, IVTURS), desarrollando nuestra propia versión basada en operadores de solapamiento con control de la calidad de la información, demostrando que nuestro enfoque mejora el rendimiento del clasificador. Finalmente, desarrollamos un marco para definir funciones de fusión n-dimensionales que actúan en un intervalo real cerrado arbitrario como homólogas de clases conocidas de funciones de fusión que actúan sobre el intervalo unitario, para expandir la aplicabilidad de las funciones de fusión con propiedades deseables a problemas que no involucren un modelado difuso.Publication Open Access Generalized forms of monotonicity in the data aggregation framework(2019) Sesma Sara, Mikel; Bustince Sola, Humberto; Mesiar, Radko; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaEl proceso de agregación trata el problema de combinar una colección de valores numéricos en un único valor que los represente y las funciones encargadas de esta operación se denominan funciones de agregación. A las funciones de agregación se les exige que cumplan dos condiciones de contorno y, además, han de ser monótonas con respecto a todos sus argumentos. Una de las tendencias en el área de investigación de las funciones de agregación es la relajación de la condición de monotonía. En este respecto, se han introducido varias formas de monotonía relajada. Tal es el caso de la monotonía débil, la monotonía direccional y la monotonía respecto a un cono. Sin embargo, todas estas relajaciones de monotonía están basadas en la idea de crecer, o decrecer, a lo largo de un rayo definido por un vector real. No existe noción de monotonía que permita que la dirección de crecimiento dependa de los valores a fusionar, ni tampoco existe noción de monotonía que considere el crecimiento a lo largo de caminos más generales, como son las curvas. Además, otra de las tendencias en la teoría de la agregación es la extensión a escalas más generales que la de los números reales y no existe relajación de monotonía disponible para este contexto general. En esta tesis, proponemos una colección de nuevas formas de monotonía relajada para las cuales las direcciones de monotonía pueden variar dependiendo del punto del dominio. En concreto, introducimos los conceptos de monotonía direccional ordenada, monotonía direccional ordenada reforzada y monotonía direccional punto a punto. Basándonos en funciones que cumplan las propiedades de monotonía direccional ordenada, proponemos un algoritmo de detección de bordes que justifica la aplicabilidad de estos conceptos. Por otro lado, generalizamos el concepto de monotonía direccional tomando, en lugar de direcciones en Rn, caminos más generales: definimos el concepto de monotonía basado en curvas. Por último, combinando ambas tendencias en la teoría de la agregación, generalizamos el concepto de monotonía direccional a funciones definidas en escalas más generales que la de los números reales.