Tesis doctorales DEIM - EIMS Doktoretza tesiak

Permanent URI for this collection

Browse

Recent Submissions

Now showing 1 - 18 of 18
  • PublicationOpen Access
    Advances in the estimation of fixed effects in spatial models with random effects
    (2024) Urdangarin Iztueta, Arantxa; Goicoa Mangado, Tomás; Ugarte Martínez, María Dolores; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika
    La representación cartográfica de enfermedades permite estimar indicadores de salud específicos para áreas geográficas dentro de una región de estudio. Aunque el objetivo principal suele ser proporcionar las tasas/riesgos de incidencia o mortalidad de enfermedades como el cáncer, existen otras aplicaciones. Por ejemplo, el análisis de crímenes contra las mujeres en India. La mayor parte de la investigación en la representación cartográfica de enfermedades usa modelos mixtos de Poisson jerárquicos bayesianos que incorporan la dependencia espacial o temporal para suavizar los riesgos y reducir la variabilidad de los estimadores clásicos de los riesgos como las razones de incidencia/mortalidad estandarizadas (RIE/RME). Sin embargo, los modelos de representación cartográfica de enfermedades tienen algunos inconvenientes. Aquí nos centramos en dos de estas limitaciones. En primer lugar, estos modelos en general no son identificables y se requieren restricciones en el proceso de estimación para obtener resultados razonables. El segundo problema es la confusión espacial y está relacionado con la inclusión de covariables en los modelos. Si las covariables tienen estructura espacial, su asociación con la respuesta puede no estimarse bien debido al sesgo y la inflación de la varianza. El objetivo principal de esta tesis es doble. Por un lado, abordaremos la complejidad de incorporar restricciones de suma cero para resolver los problemas de identificación al ajustar modelos espacio-temporales ampliamente utilizados en la representación cartográfica de enfermedades utilizando NIMBLE (de Valpine et al., 2017), un sistema para crear modelos estadísticos en R que permite ajustar modelos jerárquicos bayesianos utilizando un sistema configurable de algoritmos MCMC. Por otro lado, nos centraremos en la confusión espacial, con el objetivo de proponer un método que garantice estimaciones adecuadas de efectos fijos. La presente tesis está dividida en cuatro capítulos diferentes. El primer capítulo proporciona una introducción general sobre los problemas que se van a bordar en esta tesis y el resto de los capítulos profundizan en esos problemas. Esta tesis se cierra con una sección final que resume los principales resultados e introduce algunas ideas para futuras investigaciones.
  • PublicationOpen Access
    Desarrollo de modelos de mejora de la eficiencia del sistema sanitario público. Aplicación al servicio de urgencias hospitalarias del Complejo Hospitalario de Navarra
    (2024) Ibarra Bolt, Amaya; Mallor Giménez, Fermín; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika
    En esta tesis se ha intentado estudiar y reflejar la importancia del estrés laboral en las profesiones sanitarias y, en especial, en servicios como urgencias con características propias que favorecen el desarrollo del estrés y del burnout dentro de sus trabajadores. Hemos querido resaltar las causas principales que pueden desencadenar estrés dentro de los servicios, en general y dentro del complejo hospitalario de Navarra en particular, desgranando cada uno de ellos y ponderando su importancia dentro del conjunto de los mismos. Se ha querido medir de la manera más exacta posible el nivel de estrés de cada momento dentro del turno de trabajo (el llamado estrés a tiempo real) así como el estrés acumulado a lo largo del turno laboral. Finalmente, y basándonos en los resultados recogidos tanto en los modelos de simulación, en las encuestas anónimas y en las entrevistas con los profesionales se llegó a la conclusión de que teníamos la oportunidad de trabajar sobre políticas de mejora para solventar estos problemas, lo que nos llevó a modificar las reglas de asignación de pacientes que permitieron una mejora sustancial en la calidad asistencial. Se han observado mejoras en los tiempos de espera de los pacientes y en otras medidas de rendimiento de la calidad asistencial, así como en el estrés del profesional, balanceando las cargas de trabajo entre profesionales a lo largo del turno laboral. Como conclusión final de la discusión pondríamos de manifiesto que los modelos de simulación matemática pueden ser un buen punto de partida y una gran herramienta para la valoración y estudio de los procesos que ocurren en un Servicio de Urgencias hospitalario. Complementario a esto último, podemos decir que estas herramientas nos pueden servir para probar in vitro cualquier política de mejora que nos interese implantar pudiendo ver previamente si va a ser eficaz o no. Esto permitiría desechar la política del ensayo error que tantos recursos consume y no siempre tiene buenos resultados.
  • PublicationEmbargo
    Análisis de las decisiones médicas en el triaje de pacientes en unidades de cuidados intensivos
    (2024) Esparza Artanga, Laida; Azcarate Camio, Cristina; Mallor Giménez, Fermín; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika
    En el dinámico entorno de las UCI, la toma de decisiones médicas juega un papel crucial en la gestión de recursos, especialmente en escenarios de escasez de camas. Además, según las previsiones este desequilibrio entre la demanda de ingresos y la disponibilidad de camas en UCI irá en aumento y ello llevará al racionamiento de estos recursos, es decir, a decisiones de triaje sobre el alta y el ingreso de los pacientes. La pandemia de COVID-19 también ha destacado la importancia de este triaje en las decisiones sobre la gestión de camas de UCI. El triaje es un proceso fundamental en el que se priorizan los casos más críticos y se asignan recursos de manera eficiente y equitativa. Los profesionales sanitarios de las UCI se enfrentan con frecuencia a estos dilemas éticos. En situaciones de alta ocupación los médicos deben decidir a qué paciente se le asigna la última cama disponible. Estos problemas se discuten ampliamente en la literatura médica, donde se identifican los factores influyentes y se analizan las consecuencias para la salud del paciente. Para mejorar la gestión de los recursos de las UCI es fundamental comprender cómo toman los médicos las decisiones relativas al ingreso y el alta de los pacientes en situaciones de saturación. Al conocer en profundidad estos factores, es posible desarrollar criterios más objetivos y equitativos para el ingreso en la UCI, reduciendo así el riesgo de sesgo, optimizando la utilización de las camas y mejorando la calidad de la atención prestada a los pacientes críticos. Los actuales modelos matemáticos para estudiar la gestión de las UCI y el flujo de pacientes pasan por alto muchos de los factores que tienen en cuenta los médicos a la hora de tomar decisiones de triaje en el mundo real. La presente tesis analiza las decisiones médicas relacionadas con el triaje de los ingresos y las altas en las UCI, en situaciones de alta ocupación de camas, proponiendo un marco de simulación novedoso para representar de manera precisa el funcionamiento de estas unidades. Mediante el desarrollo y aplicación de técnicas y métodos de análisis de datos y simulación computacional hemos evolucionado un modelo de simulación de eventos discretos hacia un gemelo digital capaz de reproducir, en un entorno virtual, el funcionamiento real de una UCI. El gemelo digital desarrollado imita los procesos reales de ingreso y alta en la UCI y recrea el estado de salud de los pacientes a partir de datos clínicos reales. Esta herramienta, validada por los profesionales de la UCI del Hospital Universitario de Navarra, permite analizar la toma de decisiones de los médicos en relación con los problemas de ingreso y alta de los pacientes, al tiempo que sirve como un recurso útil de aprendizaje y formación. Este simulador permite recopilar los datos necesarios para examinar la toma de decisiones relacionadas con el ingreso y el alta de pacientes durante periodos de alta presión de camas. Se modelizan tres acciones clave de control de camas empleadas por los usuarios para gestionar la UCI: admitir o desviar pacientes urgentes, confirmar o cancelar cirugías programadas y adelantar o no el alta a pacientes ingresados en la UCI. Estas decisiones sobre el ingreso y alta de los médicos son analizadas desde múltiples perspectivas, abarcando tanto una evaluación holística como un examen más detallado de las decisiones individuales sobre los pacientes, teniendo en cuenta el nivel de ocupación de camas. Los resultados preliminares de la simulación llevada a cabo por distintos tipos de usuario, entre ellos médicos especialistas en Medicina Intensiva de diferentes hospitales, revelan variabilidad en la toma de decisiones de los médicos ante el dilema de la última cama, tanto en términos generales como con respecto a la evolución del proceso de ingresos y altas a medida que aumenta el nivel de presión de camas. La principal aportación de este trabajo es la investigación del proceso de toma de decisiones en la UCI mediante un gemelo digital que ha puesto de manifiesto la existencia de variabilidad en la toma de decisiones entre los médicos cuando se enfrentan a escenarios idénticos.
  • PublicationOpen Access
    Toward robustness and performance prediction in Brain-Computer Interfacing
    (2024) Jorajuria Gómez, Tania; Gómez Fernández, Marisol; Vidaurre, Carmen; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika
    Las interfaces cerebro-computadora (BCIs, por sus siglas en inglés) leen y decodifican la actividad cerebral. Entre sus muchas aplicaciones, se pueden emplear como una nueva herramienta de comunicación, para controlar un dispositivo externo, asistir a pacientes durante neurorrehabilitación, o incluso en neuromarketing. Las BCIs normalmente se prueban bajo condiciones controladas. Sin embargo, su correcta operación en condiciones de fuera del laboratorio es crucial, especialmente cuando los investigadores tienen en mente su uso en aplicaciones clínicas. Por tanto, es vital que las BCIs sean robustas a perturbaciones externas. Por otro lado, se ha demostrado que un gran porcentaje de usuarios no puede operar correctamente las BCIs actuales. Este fenómeno, conocido como ineficiencia de las BCIs, señala la necesidad de que los investigadores estimen de antemano qué rendimiento tendrá un nuevo participante. Predecir el desempeño de un participante podría ahorrar recursos de investigación, que siempre son escasos, y ayudar en el diseño de algoritmos para aumentar la fiabilidad operativa de las BCIs. En esta Tesis, se han abordado los puntos anteriores, dando como resultado la propuesta de nuevas herramientas para el procesamiento de señales BCI. En particular, se han propuesto dos métodos de procesamiento (pipelines) para BCIs basadas en señales steady-state visual evoked potential (SSVEP), que funcionan bien con señales de sólo un segundo de duración. Uno de ellos, denominado corrLDA, supera al pipeline del estado del arte basado en el an´alisis de la correlación canónica (CCA). Su aspecto clave es que, aplicando el análisis discriminante lineal regularizado (sLDA), emplea información de clase para encontrar el subespacio de extracción de características, al contrario que CCA. El siguiente pipeline, llamado oscillatory source tensor discriminant analysis (OSTDA), es una extensión de corrLDA con dos características principales: primero, sLDA se reemplaza por su método análogo para datos tensoriales, denominado análisis discriminante de orden superior regularizado (sHODA), desarrollado durante esta Tesis. Este método de extracción de características basado en tensores convierte a OSTDA en un pipeline robusto en condiciones de tamaños muestrales pequeños. Además, OSTDA también incluye un método llamado descomposición espacio-espectral (SSD). Se aplica como un primer paso en el procesado de las señales SSVEP. SSD extrae fuentes oscilatorias con relación señal-ruido mejorada. De este modo, SSD convierte a OSTDA en un pipeline más robusto contra perturbaciones cognitivas puesto que, a diferencia de las señales SSVEP, las perturbaciones no son de naturaleza oscilatoria y por tanto pueden eliminarse al proyectar los datos al subespacio generado por el SSD. Al comparar OSTDA contra tres métodos del estado del arte, demostró tener un desempeño similar o mejor que ellos en todas las configuraciones estudiadas.
  • PublicationOpen Access
    Exploring disease mapping models in big data contexts: some new proposals
    (2023) Orozco Acosta, Erick; Adin Urtasun, Aritz; Ugarte Martínez, María Dolores; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika; Universidad Pública de Navarra / Nafarroako Unibertsitate Publikoa, PJUPNA2001
    La representación cartográfica de enfermedades es un área de investigación muy relevante y significativa dentro del campo de la estadística espacial (datos de área), ya que ofrece un apoyo muy importante para la toma de decisiones en materia de salud pública. Debido a la gran variabilidad de los estimadores de riesgo clásicos, como la razón de mortalidad estandarizada (RME), el uso de modelos estadísticos complejos resulta esencial para obtener una representación más coherente del riesgo de enfermedad subyacente. Durante las últimas décadas se han propuesto en la literatura varios modelos estadísticos para suavizar riesgos espacio-temporales, la mayoría de ellos considerando modelos que incorporan efectos aleatorios con distribuciones a priori condicionales autorregresivas (CAR), basándose en el trabajo seminal de Besag et al. (1991). Sin embargo, la escalabilidad de estos modelos, concretamente su viabilidad en escenarios en los que el número de áreas pequeñas aumenta significativamente, no ha sido estudiada suficientemente. Por lo tanto, el principal objetivo de esta tesis es proponer nuevos métodos de modelización bayesiana escalables para suavizar riesgos (o tasas) de incidencia/mortalidad en datos de área espaciales y espacio-temporales de alta dimensión. La metodología está basada en el principio de “divide y vencerás”. La presente tesis aborda en concreto los objetivos descritos a continuación. El primer objetivo es revisar la bibliografía más reciente acerca de las principales aportaciones en el ámbito espacial y espacio-temporal que son relevantes para los objetivos de esta investigación. El capítulo 1 ofrece una visión general del ajuste y la inferencia de modelos, centrándose en la técnica INLA, basada en aproximaciones de Laplace anidadas e integración numérica, ampliamente utilizada para modelos Gaussianos latentes dentro del paradigma Bayesiano (Rue et al., 2009). En este capítulo también se proporcionan aproximaciones de criterios de selección de modelos basados en la desviación Bayesiana (denominada deviance en inglés) y la distribución predictiva bajo las nuevas propuestas de modelos escalables. También se incluye una breve descripción del paquete bigDM de R, que implementa todos los algoritmos y modelos propuestos en esta disertación. El segundo objetivo de esta tesis es proponer un método de modelización Bayesiana escalable para el tratamiento de datos de área espaciales de alta dimensión. En el Capítulo 2, se facilita una descripción exhaustiva de una nueva metodología de suavización de riesgos. También se lleva a cabo un estudio de simulación multiescenario que incluye casi 8 000 municipios españoles para comparar el método propuesto con un modelo global tipo CAR en términos de bondad de ajuste y precisión en la estimación de la superficie de riesgos. Además, se ilustra el comportamiento de los modelos escalables analizando datos de mortalidad por cáncer de colon y recto en hombres para municipios españoles utilizando dos estrategias diferentes de partición del dominio espacial. El tercer objetivo es ampliar el enfoque de modelización Bayesiana escalable para suavizar riesgos de mortalidad o incidencia espacio-temporales de alta dimensión. En el capítulo 3, se presenta una descripción exhaustiva de los modelos CAR espaciotemporales propuestos originalmente por Knorr-Held (2000), que son la base de la nueva propuesta de modelización para analizar datos de área espacio-temporales. El capítulo también explica las estrategias de paralelización y computación distribuida implementadas en el paquete bigDM para acelerar los cálculos mediante el uso del paquete future (Bengtsson, 2021) de R. Se realiza un estudio de simulación para comparar la nueva propuesta escalable con dos estrategias de fusión diferentes frente a los modelos CAR espacio-temporales tradicionales utilizando el mapa de los municipios españoles como plantilla. Además, se evalúa la nueva propuesta en términos de tiempo computacional. Finalmente, se ilustran y comparan todos los enfoques descritos en este capítulo analizando la evolución espacio-temporal de la mortalidad por cáncer de pulmón en hombres en los municipios españoles durante el periodo 1991-2015. El cuarto objetivo es evaluar la idoneidad del método desarrollado en el Capítulo 3 para la previsión a corto plazo de datos de alta resolución espacial. En el Capítulo 4, se presenta el modelo CAR espacio-temporal que incorpora observaciones faltantes en la variable respuesta para los periodos de tiempo que se van a pronosticar. Adicionalmente, se realiza un estudio de validación para evaluar la capacidad predictiva de los modelos para predicciones a uno, dos y tres periodos utilizando datos reales de mortalidad por cáncer de pulmón en municipios españoles. En este capítulo, también se compara la capacidad predictiva de los modelos utilizando medidas de validación cruzada (denominadas en inglés leave-one-out y leave-group-out) (Liu and Rue, 2022). El quinto objetivo es transversal a todos los capítulos. El objetivo es desarrollar un paquete en lenguaje R de código abierto llamado bigDM (Adin et al., 2023b) que consolida todos los métodos propuestos en esta disertación haciéndolos fácilmente disponibles para su uso por la comunidad científica. La tesis finaliza con las principales conclusiones de este trabajo y detalla futuras líneas de investigación.
  • PublicationEmbargo
    Análisis de idoneidad en propuestas para el estudio de cónicas con GeoGebra en Educación Secundaria
    (2023) Abaurrea Larrayoz, Jaione; Rodríguez Wilhelmi, Miguel; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika
    En esta tesis doctoral se propone una manera de trabajar las cónicas en Educación Secundaria diferente a las propuestas que en general se plantean en los libros de texto. Así, se describen y analizan actividades que se alejan de la enseñanza meramente transmisiva de las matemáticas, para enfatizar la acción matemática que implica llevar a cabo los procesos de: resolución de problemas, razonamiento y prueba, conexiones y representación.
  • PublicationOpen Access
    Behavioral analysis in cybersecurity using machine learning: a study based on graph representation, class imbalance and temporal dissection
    (2022) Zola, Francesco; Galar Idoate, Mikel; Bruse, Jan Lukas; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika
    The main goal of this thesis is to improve behavioral cybersecurity analysis using machine learning, exploiting graph structures, temporal dissection, and addressing imbalance problems.This main objective is divided into four specific goals: OBJ1: To study the influence of the temporal resolution on highlighting micro-dynamics in the entity behavior classification problem. In real use cases, time-series information could be not enough for describing the entity behavior classification. For this reason, we plan to exploit graph structures for integrating both structured and unstructured data in a representation of entities and their relationships. In this way, it will be possible to appreciate not only the single temporal communication but the whole behavior of these entities. Nevertheless, entity behaviors evolve over time and therefore, a static graph may not be enoughto describe all these changes. For this reason, we propose to use a temporal dissection for creating temporal subgraphs and therefore, analyze the influence of the temporal resolution on the graph creation and the entity behaviors within. Furthermore, we propose to study how the temporal granularity should be used for highlighting network micro-dynamics and short-term behavioral changes which can be a hint of suspicious activities. OBJ2: To develop novel sampling methods that work with disconnected graphs for addressing imbalanced problems avoiding component topology changes. Graph imbalance problem is a very common and challenging task and traditional graph sampling techniques that work directly on these structures cannot be used without modifying the graph’s intrinsic information or introducing bias. Furthermore, existing techniques have shown to be limited when disconnected graphs are used. For this reason, novel resampling methods for balancing the number of nodes that can be directly applied over disconnected graphs, without altering component topologies, need to be introduced. In particular, we propose to take advantage of the existence of disconnected graphs to detect and replicate the most relevant graph components without changing their topology, while considering traditional data-level strategies for handling the entity behaviors within. OBJ3: To study the usefulness of the generative adversarial networks for addressing the class imbalance problem in cybersecurity applications. Although traditional data-level pre-processing techniques have shown to be effective for addressing class imbalance problems, they have also shown downside effects when highly variable datasets are used, as it happens in cybersecurity. For this reason, new techniques that can exploit the overall data distribution for learning highly variable behaviors should be investigated. In this sense, GANs have shown promising results in the image and video domain, however, their extension to tabular data is not trivial. For this reason, we propose to adapt GANs for working with cybersecurity data and exploit their ability in learning and reproducing the input distribution for addressing the class imbalance problem (as an oversampling technique). Furthermore, since it is not possible to find a unique GAN solution that works for every scenario, we propose to study several GAN architectures with several training configurations to detect which is the best option for a cybersecurity application. OBJ4: To analyze temporal data trends and performance drift for enhancing cyber threat analysis. Temporal dynamics and incoming new data can affect the quality of the predictions compromising the model reliability. This phenomenon makes models get outdated without noticing. In this sense, it is very important to be able to extract more insightful information from the application domain analyzing data trends, learning processes, and performance drifts over time. For this reason, we propose to develop a systematic approach for analyzing how the data quality and their amount affect the learning process. Moreover, in the contextof CTI, we propose to study the relations between temporal performance drifts and the input data distribution for detecting possible model limitations, enhancing cyber threat analysis.
  • PublicationOpen Access
    Enabling intelligent and interactive immersion in smart environments
    (2022) Al-Rahamneh, Anas; Falcone Lanas, Francisco; Astrain Escola, José Javier; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika; Gobierno de Navarra / Nafarroako Gobernua
    In recent years, the Smart City concept has grown in popularity, and a significant number of cities around the world have adopted smart city strategies. Smart and sustainable cities are an emerging urban development approach due to their immense potential to improve environmental sustainability. The Smart City concept is based on collecting, analyzing, and displaying a large amount of data and information concerning urban systems and subsystems. As time goes by, the capacity of smart cities for generating digital information has grown exponentially. However, this digital information is heterogeneous, massive, collected from different sources, generated in different formats, and in most cases not structured, which exacerbates the situation of extracting valuable knowledge from data. Therefore, it is fundamental to handle the significant volumes of heterogeneous sensed data and to integrate such data along with information and analysis tools into a comprehensive platform. This can ensure the security, efficiency, and performance of the different Smart City tasks. A comprehensive software platform could provide services such as facilities for application development, integration of heterogeneous data sources, deployment, and management to ease the construction of sophisticated Smart Cities’ applications. In this context, the work begins with a concise description of the concept of smart city and the technologies involved in it. It addresses the development of an urban data platform along with how to obtain and integrate information from sensors and other data sources, in order to provide aggregated and intelligent views of raw data to support various domains within the city; in our case, smart mobility. The platform architecture is implemented following a five-layer model that considers elements from perception, sensing to data management, processing, and visualization. With the aim of evaluating the efficiency of the developed platform, three different use cases are described and analyzed, which have been implemented in the city of Pamplona, Spain, as vertical services linked to the platform: intelligent urban mobility-bike handling, bike-2-bike communication, and restricted vehicle access zone control system. Ultimately, this work provides an experiment to assess different long-range wireless communication technologies to enable their implementation within an urban environment.
  • PublicationOpen Access
    A framework for general fusion processes under uncertainty modeling control, with an application in interval-valued fuzzy rule-based classification systems
    (2022) Da Cruz Asmus, Tiago; Sanz Delgado, José Antonio; Pereira Dimuro, Graçaliz; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika
    La fusión de información es el proceso de combinar varios valores numéricos en uno solo que los represente. En problemas con algún tipo de modelado difuso, este proceso generalmente se realiza mediante funciones de fusión o, su subclase más importante, las funciones de agregación. Estas funciones se han aplicado ampliamente en varias técnicas para resolver problemas de clasificación, en particular, en los Sistemas de Clasificación Basados en Reglas Difusas (SCBRDs). En este tipo de clasificador, se han aplicado de forma exitosa las funciones de solapamiento (que son funciones de agregación bivariadas con propiedades deseables) y sus generalizaciones n-dimensionales. Cuando hay incertidumbre con respecto al modelado de las funciones de pertenencia en los SCBRDs, generalmente asociados con términos lingüísticos, se pueden aplicar conjuntos difusos intervalo-valorados. El modelado de etiquetas lingüísticas a través de conjuntos difusos intervalo-valorados en los SCBRDs origino a los Sistemas de Clasificación Basados en Reglas Difusas Intervalo-valorados (IV-SCBRDs). En estos sistemas, los procesos de fusión se calculan mediante funciones de agregación definidas en el contexto intervalar, mientras que las amplitudes de los intervalos de pertenencia asignados están intrínsecamente relacionadas con la incertidumbre con respecto a los valores que están aproximando y, luego, con la calidad de la información que representan. Sin embargo, no existe una guía en la literatura que muestre cómo definir y construir funciones de fusión con valores intervalares que tomen en consideración el control de la calidad de la información. Por todo ello, en esta tesis, desarrollamos un marco para definir funciones de fusión intervalo-valoradas n-dimensionales generalizadas considerando los órdenes admisibles y el control de la calidad de la información. Aplicamos los conceptos desarrollados en un IV-SCBRD considerado como estado del arte (es decir, IVTURS), desarrollando nuestra propia versión basada en operadores de solapamiento con control de la calidad de la información, demostrando que nuestro enfoque mejora el rendimiento del clasificador. Finalmente, desarrollamos un marco para definir funciones de fusión n-dimensionales que actúan en un intervalo real cerrado arbitrario como homólogas de clases conocidas de funciones de fusión que actúan sobre el intervalo unitario, para expandir la aplicabilidad de las funciones de fusión con propiedades deseables a problemas que no involucren un modelado difuso.
  • PublicationOpen Access
    Mejora de los algoritmos de minería de datos: combinación de clasificadores, preprocesamiento y sus aplicaciones
    (2021) Uriz Martín, Mikel Xabier; Galar Idoate, Mikel; Paternain Dallo, Daniel; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika
    El objetivo general de esta tesis es tratar de mejorar los resultados que se obtienen en los problemas de clasificación mejorando las fases que preceden y suceden a la fase de aprendizaje, es decir, a la construcción del clasificador o de los clasificadores, sin necesidad de modificar ningún aspecto de esta fase ni de los clasificadores obtenidos. Por un lado, se proponen explorar nuevos métodos de preprocesamiento de datos que traten de transformar los datos de forma que los clasificadores puedan extraer conocimiento más preciso, obteniendo así mejores resultados en la clasificación. Por otro lado, se exploran nuevas formas de combinar las salidas de los clasificadores que componen un ensemble haciendo uso de integrales difusas basadas en medidas difusas y poniendo especial hincapié en la forma de construcción de estas medidas.
  • PublicationOpen Access
    Representation and aggregation of crisp and fuzzy ordered structures: applications to social choice
    (2021) Raventós Pujol, Armajac; Induráin Eraso, Esteban; Campión Arrastia, María Jesús; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika
    The present memory is structured as follows: after the Introduction, in the Chapter 2 of preliminaries, we will pay attention to the three areas which sustain the development of this thesis. These are, binary relations, Social Choice and Fuzzy sets. Chapter 3 is devoted to the study of fuzzy Arrovian models. First, it is introduced the concept of a fuzzy preference. Next, we define fuzzy aggregation rules and all of the restrictions of common sense, which are inspired by the restrictions that come from the classic Arrovian model. Next, different models are defined in the fuzzy setting. Their definitions depend on the particular nuances and features of a preference (choosing a transitivity type and a connectedness type) and the restrictions on an aggregation function (choosing an independence of irrelevant alternatives property,an unanimity property, etc). Different possibility and impossibility theorems have been proved depending on the set of definition and restrictions. In Chapter 4 it is studied the problem of the decomposition of fuzzy binary relations. There, it is defined clearly the problem of setting suitable decomposition rules. That is, we analyze how to obtain a strict preference and an indifference from the weak preference in a fuzzy approach. In this chapter, the existence and the uniqueness of certain kind of decomposition rules associated to fuzzy unions are characterized. In Chapter 5, the decomposition rules studied in Chapter 4 are used to achieve a new impossibility result. It is important to point out that in the proof of the main result in this chapter it is introduced a new technique. In this proof, fuzzy preferences are framed through an auxiliary tuple of five crisp binary relations, that we name a pseudofuzzy preference. An aggregation model à la Arrow of pseudofuzzy preferences is also studied,but the main result is about the aggregation of fuzzy preferences that come from decompositions.Chapters 3, 4 and 5 constitute the main body of this memory. Then a section of conclusions is included. It contains suggestions for further studies, open problems and several final comments. Finally, an Appendix has been added in order to give an account of the work done within these three years, that can not be included in the body of the present memory.
  • PublicationOpen Access
    Nuevos métodos para la combinación de características en procesamiento de imágenes
    (2021) Forcén Carvalho, Juan Ignacio; Pagola Barrio, Miguel; Barrenechea Tartas, Edurne; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika
    En esta memoria estudiamos diferentes problemas abiertos entorno a la agregación de información y presentamos el estudio de nuevas técnicas de agregación de características de imágenes para mejorar el rendimiento en los problemas de clasificación y recuperación de imágenes, realizando propuestas para algoritmos de visión por computador tradicional y para modelos de Deep Learning. Concretamente, hemos propuesto un método para agregar información en problemas de clasificación multi-clase a través de ensembles ponderados. También presentamos una nueva función de pooling capaz de auto aprenderse para redes neuronales convolucionales. Centrándonos en el problema de recuperación de imágenes proponemos un esquema de agregación de características donde damos mayor importancia a los objetos relevantes de la imagen y finalmente introducimos una nueva representación de Co-Ocurrencias auto aprendible para redes neuronales convolucionales capaz de capturar la correlación espacial entre diferentes características. La memoria está dividida en dos partes: Parte I. Dedicada al planteamiento del problema, la discusión de los métodos propuestos, los resultados y las conclusiones obtenidas. Parte II. Contiene las publicaciones asociadas al estudio realizado.
  • PublicationOpen Access
    Univariate and multivariate spatio-temporal areal models to study crimes against women
    (2020) Vicente Fuenzalida, Gonzalo; Ugarte Martínez, María Dolores; Goicoa Mangado, Tomás; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika; Gobierno de Navarra / Nafarroako Gobernua
    Spatio-temporal models for areal data have been extensively applied in epidemiology and public health to study geographical and temporal patterns of incidence or mortality of several diseases, mainly cancer. The utility of these models has become crucial in public health, and methodological research has evolved in line with the necessity of analyzing the increasingly more complex data registers. However, these techniques have not been used to study crimes against women, a complex and intricate problem where risk factors are not clearly identified. This dissertation is aimed at improving and developing methodology to disentangle the phenomenon of crimes against women in general and in India in particular.
  • PublicationOpen Access
    Multidisciplinary design of wind turbine blades
    (2019) Echeverría Durá, Fernando; Mallor Giménez, Fermín; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika
    The impressive growth of the wind energy in the recent years makes necessary to improve the traditional design tools in order to respond to the high competitiveness. One of the most challenging component to be designed is the blade that plays an important role in the wind turbine performance and loads. The design of blades involves several technical tasks such as the geometry design, structural layout design, controls setting, loads calculations and structural verifications. In the traditional design process these tasks are performed by different experts in a sequential manner. At the end of each design loop, changes are applied to the design due to failures to fulfill any of the requirements of the design: excessive loads and/or deflections, low energy yield, non acceptable cost, transportation or logistic problems, undesirable surface fairness, etc. The implementation of the changes in the following design loop is decided with the basis of the intuition and experience of the different experts involved. In contrast to this procedure, a new process is proposed in this thesis with an important core stage based on optimization techniques that takes into account the complex interactions between the different technical tasks with a holistic view. The optimization engine is a code developed in this thesis that calculates, with the support of different subordinate codes, the wind turbine responses in terms of loads and performance under the design variables from the assorted technical tasks. Different research studies have been carried out in order to provide methods based on data analysis to obtain knowledge about the relationships between design variables and outputs. In spite of the complexity of the different types of calculations involved in the optimization, the computational cost is affordable in a real case design. The results of this thesis have been successfully applied to serial production blades.
  • PublicationOpen Access
    Dealing with uncertainty: a human perception approach in image processing
    (2019) Marco Detchart, Cedric; López Molina, Carlos; Fernández Fernández, Francisco Javier; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika
    Una de las maneras de abordar la comparación entre objetos es mediante el uso de la similitud (comparando sus atributos comunes) o la disimilitud (comparando sus diferencias). La similitud ha sido estudiada de maneras muy diversas, desde muchos puntos de vista y en una variedad de campos tales que la psicología, la neurociencia o las matemáticas. Uno de los principales temas en los que las distancias y las similitudes han sido abordadas es a través de la lógica difusa, que permite implementar una perspectiva humana en las medidas de comparación, aportando una herramienta que permite capturar la incertidumbre inherente en la percepción de la distancia. Dentro de este contexto de la comparación y la similitud, encontramos un concepto relacionado, como es la correspondencia de características. Este concepto es una de las técnicas más utilizada en la detección de patrones o la evaluación del rendimiento de un algoritmo. En esta tesis doctoral hemos estudiado la similitud en el contexto de la lógica difusa junto con una serie de propuestas en las que tiene cabida. Entre otras, podemos citar la extracción de patrones en el análisis de huellas dactilares, cuyo estudio ha llevado en esta tesis al desarrollo de nuevos conceptos como las Funciones de Equivalencia Restringidas Radiales y las Medidas de Similitud Radiales, que modelan la similitud percibida entre datos radiales, tanto escalares como vectoriales. Además, como un estudio más explícito de las distancias en la lógica difusa, hemos abordado el estudio de las distancias, las medidas de similitud y la entropía en conjuntos difusos intervalo-valorados. Para ello, hemos incluido la amplitud del intervalo en el cálculo de las medidas. Esta condición adicional nos ha permitido conectar la incertidumbre contenida en el intervalo final con la del intervalo inicial. Finalmente, de manera complementaria hemos estudiado la aplicación de nuestros resultados teóricos en tareas de procesamiento de imagen. Hemos desarrollado un detector de bordes mediante el uso de funciones monótonas direccionalmente ordenadas y técnicas de toma de decisión por consenso. Además, hemos realizado un estudio que recoge las diferentes técnicas de análisis de calidad para los métodos de extracción de bordes, resultando en una nueva taxonomía de los diferentes métodos y un análisis de su comportamiento, mostrando que ninguno de los métodos es más adecuado que otro, siendo equivalentes entre si.
  • PublicationOpen Access
    Decision making with horizontal cooperation and environmental criteria for transportation: optimization and simulation models for the vehicle routing problem and the facility location problem
    (2018) Serrano Hernández, Adrián; Faulín Fajardo, Javier; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika
    Transportation is a major contributor to the development of the world economy and, at the same time, a major contributor to air pollution and global warming. Additionally, the unstoppable increase of competition as consequence of the globalization, as well as the increasingly service quality demanded by customers related to shorter times and lower costs, are forcing logistics companies to consider new managerial strategies. In this sense, horizontal cooperation among logistic companies is seen as a real alternative for gaining efficiency and sustainability. These agreements can be summarized as any arrangement between partners, tacit or not, which involves more than one company without vertical relationship between them, i.e., no supplier-customer relationship, based on trust and mutual commitment to identify and exploit win-win situations with the goal of sharing benefits (or risks) that would be higher (or lower) than each company would obtain if they acted completely independently. Therefore, in the first part of this thesis, several simulation models have been developed to track the evolution of a coalition in order to quantify horizontal cooperation impact in both economic and environmental sides considering the existence of trust-related issues. Additionally, as a great source of cooperation, a real application consisted on the location of a biorefinery is presented, developed, and discussed. On the other hand, environmental impacts of transportation should be measured and assessed for their integration in the existing optimization models. Thus, the second part of this thesis is devoted to the pricing through a contingent valuation survey of environmental impacts (externalities) and their internalization in the well-known Vehicle Routing Problem. In this sense, several optimization models are developed to assess the impact of the internalization of externalities on the routing decisions of logistics operations.
  • PublicationOpen Access
    Generalized forms of monotonicity in the data aggregation framework
    (2019) Sesma Sara, Mikel; Bustince Sola, Humberto; Mesiar, Radko; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika
    El proceso de agregación trata el problema de combinar una colección de valores numéricos en un único valor que los represente y las funciones encargadas de esta operación se denominan funciones de agregación. A las funciones de agregación se les exige que cumplan dos condiciones de contorno y, además, han de ser monótonas con respecto a todos sus argumentos. Una de las tendencias en el área de investigación de las funciones de agregación es la relajación de la condición de monotonía. En este respecto, se han introducido varias formas de monotonía relajada. Tal es el caso de la monotonía débil, la monotonía direccional y la monotonía respecto a un cono. Sin embargo, todas estas relajaciones de monotonía están basadas en la idea de crecer, o decrecer, a lo largo de un rayo definido por un vector real. No existe noción de monotonía que permita que la dirección de crecimiento dependa de los valores a fusionar, ni tampoco existe noción de monotonía que considere el crecimiento a lo largo de caminos más generales, como son las curvas. Además, otra de las tendencias en la teoría de la agregación es la extensión a escalas más generales que la de los números reales y no existe relajación de monotonía disponible para este contexto general. En esta tesis, proponemos una colección de nuevas formas de monotonía relajada para las cuales las direcciones de monotonía pueden variar dependiendo del punto del dominio. En concreto, introducimos los conceptos de monotonía direccional ordenada, monotonía direccional ordenada reforzada y monotonía direccional punto a punto. Basándonos en funciones que cumplan las propiedades de monotonía direccional ordenada, proponemos un algoritmo de detección de bordes que justifica la aplicabilidad de estos conceptos. Por otro lado, generalizamos el concepto de monotonía direccional tomando, en lugar de direcciones en Rn, caminos más generales: definimos el concepto de monotonía basado en curvas. Por último, combinando ambas tendencias en la teoría de la agregación, generalizamos el concepto de monotonía direccional a funciones definidas en escalas más generales que la de los números reales.
  • PublicationOpen Access
    Simheuristic algorithms for the sustainable freight transport problem
    (2019) Reyes-Rubiano, Lorena Silvana; Faulín Fajardo, Javier; Juan Pérez, Ángel Alejandro; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika; Universidad Pública de Navarra / Nafarroako Unibertsitate Publikoa
    The sustainable freight transport entails the design of the distribution plans with the least negative impacts. On one hand, this distribution problem relies on deter-mining the routes to visit a set of customers, which can be geographically scattered. One the other hand, the operational constraints and the attributes involved in ur-ban transport need to be considered for designing the distribution plan. Distribution plans encompass not only the classical routing constraints but also a set of economic, social and environmental criteria implicated with transport sector. These attributes link social and industrial needs taking into account the triple bottom of objectives sustainability. Those attributes may be diÿcult to address because they can be pro-gressing in di˙erent directions. This thesis contributes to integrate these challenges by means of analysis of transport problems, and structured method developments for supporting the decision making process. To attain these challenges the following objectives have been proposed: • Identification of attributes and constrains for problems related to freight trans-port in smart cities, with especial focus on environmental, economic and social impacts. • Modeling of sustainability indicators in the vehicle routing problems with the purposes of producing greener transport in smart cities. • Design and implementation of hybrid algorithms combining metaheuristics with simulation to provide sustainable solutions. • Validation of the algorithms using realistic data and well-known solutions. The first objective is to provide a characterization in problems related to freight transport, considering a special focus on sustainability dimensions. Some measures to estimate the negative impacts caused by transport activities have been also in-cluded. In Chapter 1, the classical issues related to urban transport and the sus-tainability dimensions are presented. Afterwards, the Chapter 2 provides a general description of solving approaches for combinatorial optimization problems considering also an overview of the most common attributes and constraints related to the current sustainability initiatives. Then, the framework of biased randomized simheuristic algorithm is described to-gether with the most classical methods to solve rich vehicle routing problems. The proposed algorithms are well described across the chapters of this thesis. For the second objective of this dissertation, a formal description for routing problems with single depot and multi depot configuration. In Chapter 3 a sustainable multi-depot problem is defined and solved by a mixed integer programming and a variable neigh-borhood search framework. From Chapter 4 to Chapter 6, vehicles routing problem with electric is described assuming a single depot and stochastic variables. The third objective is a global one which will be addressed over the course of the whole dissertation. Easy to implement and competitive simheuristic algorithms are proposed to cope with stochastic problems. Particular attention is paid on the inclusion of sustainable criteria and consideration of current operational constraints from freight transport. The fourth objective is to implement and test the algorithms using benchmarks for deterministic and stochastic problems. The results show the sustainability influ-ence of the optimization criteria and the e˙ect of stochastic data on the performance of the solution approaches and solutions quality. Finally, this dissertation ends with some conclusions and comments on further research lines.