Tesis doctorales DEIM - EIMS Doktoretza tesiak
Permanent URI for this collection
Browse
Recent Submissions
Publication Embargo Controlador neuronal basado en aprendizaje por refuerzo para el despegue y aterrizaje autónomo de drones en entornos con viento variable(2025) Olaz Moratinos, Xabier; Villadangos Alonso, Jesús; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaEl control autónomo de drones en condiciones de viento variable representa un desafío crucial en los campos de la aeronáutica y la robótica. En esta tesis, se presenta el diseño y la evaluación de un controlador neuronal basado en aprendizaje por refuerzo (RL), orientado a optimizar la maniobrabilidad autónoma durante las fases críticas de despegue y aterrizaje en entornos complejos. El objetivo principal es superar las limitaciones de los controladores PID tradicionales, mejorando la estabilidad y la precisión del vuelo. Para validar estos avances, se realizarán pruebas exhaustivas mediante simulaciones Hardware-in-the-Loop (HIL), estableciendo comparaciones detalladas con el desempeño de los controladores PID. El aprendizaje por refuerzo (RL - Reinforcement Learning) ha emergido como una solución innovadora para sistemas complejos, permitiendo a los agentes desarrollar políticas óptimas de control a partir de la interacción directa con su entorno, sin requerir modelos precisos del sistema. Este enfoque se destaca por su adaptabilidad y su capacidad para gestionar no linealidades en la dinámica de vuelo de los drones, superando así limitaciones de los métodos convencionales. En este trabajo, el RL se implementa progresivamente en controladores neuronales profundos: desde algoritmos en espacios de acción discretos como Deep Q-Network (DQN) hasta soluciones definitivas en entornos continuos mediante Deep Deterministic Policy Gradient (DDPG) y Proximal Policy Optimization (PPO), integrando simulaciones de entornos realistas que modelan dispositivos y fuerzas externas, incluyendo efectos de viento. Una de las contribuciones clave es el desarrollo de una arquitectura de red neuronal con un Módulo de Adaptación y un Módulo de Conversión, que transforman las fuerzas y momentos en velocidades de motor. Esta innovación permite al controlador neuronal responder a ráfagas de viento de hasta 10 m/s, optimizando a su vez la previsibilidad y confiabilidad mediante una discretización de acciones, lo cual reduce tanto la cantidad de acciones necesarias como el error de posición durante maniobras. Los resultados de las pruebas muestran mejoras notables en estabilidad y precisión de trayectoria, así como en la capacidad de respuesta ante variaciones de viento abruptas. Durante las pruebas, el controlador permitió al modelo 3DR Iris+ mantener la estabilidad en situaciones de viento de hasta 10 m/s (91%de su velocidad máxima) en maniobras de despegue y aterrizaje, obteniendo un rendimiento competitivo con drones avanzados en resistencia relativa. Las pruebas con Hardware-in-the-Loop (HIL) también validaron la eficacia del controlador en entornos físicos, comparándolo contra sistemas PID. Los hallazgos indican que el enfoque propuesto no solo ofrece una solución robusta y eficiente para el control autónomo de drones, sino que además abre nuevas oportunidades para aplicaciones seguras en áreas críticas como vigilancia, rescate y logística. Esta tesis aporta significativamente al campo del control autónomo de UAVs, estableciendo una base sólida para futuros desarrollos en controladores adaptativos inteligentes y en el estudio del vuelo en condiciones ambientales adversas.Publication Open Access Uncertainty management in federated learning(2025) Urío Larrea, Asier; Bustince Sola, Humberto; Pereira Dimuro, Graçaliz; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaDurante los últimos años se ha generalizado el uso de una gran variedad de técnicas de aprendizaje automático para extraer conocimiento de la multitud de datos disponibles en diversos sectores. Estas aplicaciones van desde la medicina, hasta las finanzas, pasando por las recomendaciones de productos, entre otras. Sin embargo, por diversos motivos, ya sean legislativos, éticos o incluso técnicos, no siempre es posible disponer de todos los datos en un único punto para poder aplicar estos algoritmos. Para atajar este problema surge el denominado aprendizaje federado. Esta técnica tiene como objetivo el poder crear un modelo a partir de la información de los agentes participantes, sin que estos tengan que enviar sus propios datos. La forma de generar este modelo es mediante el entrenamiento de modelos locales en cada uno de los agentes y la transmisión de, únicamente, los parámetros de estos modelos. Otro de los problemas que tienen que tratar las diversas técnicas de aprendizaje automático es el tratamiento de la incertidumbre. Entendemos por incertidumbre la (des)confianza que poseemos en torno a la validez de los datos. Esta puede ser debida a desviaciones de los datos de la información real, errores de medición, etc. Una de las propuestas para tratar esta situación es el empleo de la teoría de conjuntos difusos. En esta tesis proponemos algoritmos de aprendizaje federado que gestionan la incertidumbre desde la perspectiva de la teoría de conjuntos difusos. En concreto, proponemos dos algoritmos, uno de ellos supervisado y el otro no supervisado. El algoritmo supervisado se basa en la lógica difusa mediante el uso de reglas si-entonces, mientras que el no supervisado consiste en la utilización de algoritmos de agrupamiento difusos en flujos de datos.Publication Embargo Discrete fuzzy integrals and their applications(2025) Wieczynski, Jonata; López Molina, Carlos; Pereira Dimuro, Graçaliz; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaThis doctoral thesis introduces new generalizations of discrete fuzzy integrals with three distinct applications. We introduce four new families of discrete fuzzy integrals, including the d-XChoquet integral, the dCF -integrals, and the extended families of discrete Choquet and Sugeno integrals. These new generalizations are designed to provide better flexibility and performance in applications. In addition, we investigate the theoretical properties of these new integral generalizations, such as monotonicity. Furthermore, extensive experiments are conducted to compare the performance of the new, proposed, integrals with existing ones in three distinct applications: in classification, decision-making analysis, and in brain signal processing. The results demonstrate that the proposed generalizations perform better than other discrete fuzzy integrals in most applications.Publication Open Access Enhancing user experience in immersive virtual environments: advances in multiple object selection and affective interaction(2025) Elizondo Martínez, Sonia; Marzo Pérez, Asier; Ortiz Nicolás, Amalia; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaLos Entornos Virtuales Inmersivos (EVI) se utilizan para el entretenimiento, la educación, la atención sanitaria y la colaboración remota. Los EVI permiten a los usuarios participar e interactuar con contenido digital tridimensional de manera segura, consistente y controlada. Tres aspectos relevantes para lograr interacciones adecuadas entre los usuarios y los EVI son: 1) diseñar técnicas de interacción semejantes a las acciones del mundo real; 2) integrar tanto capacidades técnicas como emocionales; y 3) realizar evaluaciones exhaustivas de la experiencia de usuario para permitir una mejora constante de las capacidades de los EVI. Esta tesis doctoral ofrece una introducción detallada a los tres aspectos mencionados anteriormente: las técnicas de interacción (con un enfoque en la selección); el campo de la Computación Afectiva y cómo puede mejorar la experiencia de usuario en los EVIs; y los métodos implícitos y explícitos para evaluar tanto necesidades técnicas como emocionales con el fin de lograr una experiencia de usuario completa. Esta tesis también destaca las actuales limitaciones en la implementación de estos aspectos en los entornos virtuales y propone una nueva técnica de selección multiobjeto para los EVIs, así como un marco de diseño para guiar el desarrollo de EVIs con capacidades emocionales.Publication Open Access Novel contactless haptic technologies for creating affective tactile sensations when interacting with computer systems(2025) Irisarri Erviti, Josu; Marzo Pérez, Asier; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika; Gobierno de Navarra / Nafarroako GobernuaEsta tesis doctoral desarrolla y explora nuevas tecnologías hápticas sin contacto para generar sensaciones táctiles en los usuarios a distancia y sin obligarles a llevar dispositivos. De esta forma, se reduce el tiempo de empezar a usar el sistema y se mejora la disponibilidad a utilizar dispositivos públicos. Utilizando hápticas sin contacto, esta tesis también quiere ir más allá del tacto funcional (p.ej., notificaciones o discriminación de objetos) e intenta reproducir algunas experiencias perdidas en entornos virtuales como el tacto afectivo. Por ejemplo, los movimientos de roce en el antebrazo pueden tener un fuerte significado afectivo (caricias) pero la tecnología de ultrasonidos focalizados actual no estimula con suficiente intensidad estas áreas de piel. Sin embargo, otras tecnologías sin contacto, como la luz infrarroja o la electrostática podrían generar estas sensaciones afectivas. Los sentidos visual y auditivo han dominado los sistemas de interacción humano-ordenador, a veces desatendiendo el sentido del tacto. En este trabajo, se presentan tecnologías hápticas que pueden proporcionar sensaciones táctil a distancia. Tienen el potencial de mejorar las experiencias inmersivas en entornos virtuales, así como de facilitar una conexión más profunda entre sus usuarios. Esta tesis también explora brevemente el uso de la háptica sin contacto para experiencias multimodales, tecnologías sin contacto y computación afectiva. En primer lugar, la tesis desarrolla una técnica híbrida, un material inteligente que es una combinación de termoplástico y polvo de hierro que se puede activar a distancia mediante calor y campos magnéticos, pero el usuario sigue necesitando contacto directo con el material. Se pensó que este sistema sería la base para comparaciones. En segundo lugar, se presenta una demostración utilizando electrostática para crear piloerección en el antebrazo. Esta tecnología puede actuar a distancia y tiene el potencial de crear estímulos afectivos. En tercer lugar, se combinan el plasma eléctrico y el ultrasonido para guíar chispas eléctricas en el aire, capaz de generar estímulos fuertes y con una buena resolución espacial y temporal. Finalmente, se explican combinaciones aún inacabadas de tecnologías; como ultrasonido, electrostática, chispas eléctricas, aerosoles, luz infrarroja, cambio de humedad/temperatura, aire y láseres. Espero que este trabajo sirva para introducir otras tecnologías hápticas sin contacto distintas de los ultrasonidos, que ha sido la tecnología dominante en la última década. Tener disponibles más tecnologías hápticas sin contacto, puede motivar la incorporación de feedback táctil en algunos sistemas de interacción entre humanos-computadoras, como las experiencias interactivas públicas en exposiciones, museos o teatros.Publication Open Access Aplicación de tecnologías de realidad aumentada y realidad virtual mediante dispositivos móviles para la salvaguarda de patrimonio lingüístico(2024) Sánchez Campos, Walter; Pina Calafi, Alfredo; Rubio Navarro, Gabriel; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika; Universidad Pública de Navarra/Nafarroako Unibertsitate PublikoaEsta investigación presenta los resultados de un estudio sobre el impacto de la incorporación de un libro de texto de realidad aumentada y aplicaciones móviles android en el proceso de enseñanzaaprendizaje de la lengua náhuat en escuelas públicas de El Salvador. Se aplicó inferencia estadística para determinar la significancia de los valores de las calificaciones entre los estudiantes de un grupo de control y experimental mediante la prueba de Mann-Whitney y la prueba de Brunner-Munzel, previa verificación de los supuestos paramétricos de estas pruebas, en total participaron 150 estudiantes. También se muestran los resultados de la percepción de los estudiantes correspondiente al uso de los recursos antes mencionados, para tal fin fueron administradas encuestas a 113 estudiantes en total, a través de dos cuestionarios con escala de Likert de 5 puntos y frases con escala de tipo diferencial semántica para la recopilación de datos adicionales relacionados para cada pregunta de tipo escala Likert antes mencionado. Los resultados muestran que los estudiantes perciben ventajas específicas vinculadas al uso del libro de texto de realidad aumentada y de aplicaciones móviles android en el proceso de enseñanza-aprendizaje de la lengua náhuat. Este estudio permite concluir que los estudiantes matriculados en cursos de náhuat en escuelas públicas de El Salvador que participaron en este estudio valoran mucho el proceso de enseñanza-aprendizaje mediado por tecnología de realidad aumentada y aplicaciones móviles.Publication Open Access Enhancing semantic segmentation models for high-resolution satellite imagery(2024) Ayala Lauroba, Christian; Galar Idoate, Mikel; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaEl objetivo principal de esta memoria es estudiar, desarrollar y evaluar de manera justa modelos de segmentación semántica que utilicen datos con una resolución espacial limitada para abordar tareas que demandan un alto nivel de detalle, como la segmentación semántica de edificios y carreteras, aprovechando la disponibilidad de datos públicos y de libre acceso. De esta forma se busca reducir la brecha con productos de muy alta resolución, que actualmente son inaccesibles para la gran mayoría de usuarios. La memoria está organizada en torno a cuatro grandes objetivos, cada uno correspondiente a un problema abierto expuesto en la sección anterior, y que en conjunto abordan el objetivo principal mencionado: Estudiar y desarrollar modelos de segmentación semántica para abordar problemas que requieren de un alto nivel de detalle, como la segmentación de edificios y carreteras, utilizando imágenes satelitales de baja resolución espacial. Dados los numerosos métodos existentes en la literatura para segmentar edificios y carreteras [ZLW18, BHF+19,W+20, SZH+21], nos planteamos realizar un estudio de estas técnicas con el objetivo de identificar sus limitaciones y los problemas que puedan surgir al aplicarlas a imágenes satelitales de baja resolución, como las ofrecidas por los satélites Sentinel. Basándonos en esta información, planeamos diseñar un nuevo modelo de aprendizaje profundo capaz de extraer edificios y carreteras a partir de imágenes de baja resolución, con una calidad cercana a la obtenida a partir de imágenes de muy alta resolución. Investigar cuál es la mejor estrategia para abordar problemas de segmentación semántica con múltiples clases. Habitualmente, los problemas de segmentación semántica multi-clase se afrontan de manera directa [YRH18]. Sin embargo, en un contexto donde la resolución espacial influye significativamente en la separación de las clases, parece lógico recurrir a estrategias de descomposición binaria [LdCG09] o esquemas de entrenamiento multi-tarea [Gir15]. Estos enfoques podrían simplificar el problema multi-clase y, por tanto, mejorar la clasificación. No obstante, en el ámbito de la observación de la Tierra, estas estrategias no han sido ampliamente utilizadas en problemas de segmentación semántica. Por ello, nos proponemos llevar a cabo un estudio comparativo de las diferentes estrategias para abordar problemas de segmentación semántica con varias clases en el ámbito de la teledetección, con el objetivo de establecer pautas claras al respecto. Diseñar nuevas técnicas de aumento de datos que exploten la alta periodicidad que ofrecen los satélites de baja resolución. Las técnicas de aumento de datos basadas en fotometría aplicadas al ámbito de la observación de la Tierra presentan limitaciones importantes, como la generación de artefactos sintéticos y la incapacidad de modelar eventos como la siembra, cosecha o la posición del sol [GSD+20]. Además, estas técnicas se encuentran estrechamente ligadas a sensores ópticos, por lo que no son extrapolables a otros tipos de sensores como térmicos o radar. Por ello, nos plantemos proponer formas de explotar la alta periodicidad provista por los satélites de baja resolución como técnica de aumento de datos, sin necesidad de etiquetar estos datos previamente. Establecer pautas para comparar mapas de segmentación semántica a múltiples resoluciones. Dado que en literatura no existe un consenso sobre cómo se deben comparar métricas obtenidas a partir de modelos de segmentación semántica con resoluciones espaciales diferentes, nos planteamos estudiar las limitaciones y ventajas de cada una de las aproximaciones existentes para poder plantear pautas claras que indiquen cuál es la forma correcta de llevar a cabo dicha comparación.Publication Open Access Demographic bias in machine learning: measuring transference from dataset bias to model predictions(2024) Domínguez Catena, Iris; Galar Idoate, Mikel; Paternain Dallo, Daniel; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaAs artificial intelligence (AI) systems increasingly influence critical decisions in society, ensuring fairness and avoiding bias have become pressing challenges. This dissertation investigates demographic bias in machine learning, with a particular focus on measuring how bias transfers from datasets to model predictions. Using Facial Expression Recognition (FER) as a primary case study, we develop novel metrics and methodologies to quantify and analyze bias at both the dataset and model levels. The thesis makes several key contributions to the field of algorithmic fairness. We propose a comprehensive taxonomy of types of dataset bias and metrics available for each type. Through extensive evaluation on FER datasets, we demonstrate the effectiveness and limitations of these metrics in capturing different aspects of demographic bias. Additionally, we introduce DSAP (Demographic Similarity from Auxiliary Profiles), a novel method for comparing datasets based on their demographic properties. DSAP enables interpretable bias measurement and analysis of demographic shifts between datasets, providing valuable insights for dataset curation and model development. Our research includes in-depth experiments examining the propagation of representational and stereotypical biases from datasets to FER models. Our findings reveal that while representational bias tends to be mitigated during model training, stereotypical bias is more likely to persist in model predictions. Furthermore, we present a framework for measuring bias transference from datasets to models across various bias induction scenarios. This analysis uncovers complex relationships between dataset bias and resulting model bias, highlighting the need for nuanced approaches to bias mitigation. Throughout the dissertation, we emphasize the importance of considering both representational and stereotypical biases in AI systems. Our work demonstrates that these biases can manifest and propagate differently, necessitating tailored strategies for detection and mitigation. By providing robust methodologies for quantifying and analyzing demographic bias, this research contributes to the broader goal of developing fairer and more equitable AI systems. The insights and tools presented here have implications beyond FER, offering valuable approaches for addressing bias in various machine learning applications. This dissertation paves the way for future work in algorithmic fairness, emphasizing the need for continued research into bias measurement, mitigation strategies, and the development of more inclusive AI technologies.Publication Open Access Modification of information reduction processes in Convolutional Neural Networks(2024) Rodríguez Martínez, Iosu; Bustince Sola, Humberto; Herrera, Francisco; Takáč, Zdenko; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaDuring the last decade, Deep Artificial Neural Networks have established themselves as the state-of-the-art solution for solving complex tasks such as image processing, time-series forecasting, or natural language processing. One of the most studied families of artificial neural network is that of Convolutional Neural Networks (CNNs), which can exploit the local information of data sources such as images by automatically extracting increasingly more complex features in a hierarchical manner. Although plenty of work has been dedicated to the introduction of more complex (or more efficient) model architectures of CNN; to solving the optimisation problems faced by them and accelerating training convergence; or to trying to interpret their inner workings as well as explaining their generated predictions, an important key aspect of these models is sometimes overlooked: that of feature fusion. Feature fusion appears in plenty of forms in CNNs. Feature downsampling is necessary in order to compress the intermediate representations generated by the model, while preserving the most relevant information, a process which also makes models robust to small shifts in the inputs. Combining different sources of data or different feature representations is also a recurrent problem in neural networks, which is usually taken care of by simply allowing the model to learn additional transformations in a supervised manner, increasing its parameter count. In this dissertation, we study the application of solutions of the Information Fusion field to better tackle these problems. In particular, we explore the use of aggregation functions which replace a set of input values by a suitable single representative. We study the most important properties of these functions in the context of CNN feature reduction, and present novel pooling and Global Pooling proposals inspired by our discoveries. We also test the suitability of our proposals for the detection of COVID-19 patients, presenting an end-to-end pipeline which automatically analyses chest x-ray images.Publication Open Access Challenges in disease mapping: predicting cancer incidence and analyzing models’ smoothing(2024) Retegui Goñi, Garazi; Etxeberria Andueza, Jaione; Ugarte Martínez, María Dolores; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika; Universidad Pública de Navarra / Nafarroako Unibertsitate Publikoa, PJUPNA2018-11La representación cartográfica de enfermedades tiene como objetivo estudiar los patrones geográficos y las tendencias temporales de incidencia y mortalidad de distintas enfermedades, principalmente no transmisibles, como el cáncer. Los modelos espacio-temporales para datos de área desempeñan un papel crucial en la descripción del impacto del cáncer en distintas poblaciones, permitiendo a los gestores sanitarios e investigadores formular estrategias de prevención, diagnóstico y tratamiento. Sin embargo, el análisis de datos de cáncer presenta varios retos. Por un lado, la falta de registros de incidencia del cáncer en determinadas zonas geográficas dificulta el análisis espacial o temporal de los patrones de incidencia del cáncer. Por otro lado, algunos tipos de cáncer, como los cánceres poco frecuentes, siguen sin estudiarse lo suficiente debido a la escasa disponibilidad de datos exhaustivos. Esta tesis está dedicada a mejorar y desarrollar metodología para abordar los retos asociados tanto con la estimación de la incidencia del cáncer en ausencia de registros como con el estudio de los cánceres poco frecuentes. La tesis pretende alcanzar los siguientes objetivos. El primer objetivo consiste en examinar los retos asociados a los datos de cáncer y revisar los métodos estadísticos utilizados en la literatura para enfrentarse a estos retos. En el Capítulo 1 se ofrece una introducción general a las problemáticas asociadas con los datos de cáncer para comprender la relevancia del problema. El segundo objetivo de esta tesis es proponer nuevos modelos que permitan predecir las tasas de incidencia en áreas geográficas sin registro de cáncer y, en consecuencia, proporcionar estimaciones de la carga de cáncer a nivel nacional. En el Capítulo 2, utilizamos modelos espaciales multivariantes comúnmente empleados en la literatura del ámbito de la representación cartográfica de enfermedades para predecir la incidencia de cáncer, modelizando conjuntamente la incidencia y la mortalidad por cáncer. El tercer objetivo es ampliar la colección de modelos espacio-temporales multivariantes mediante la introducción de interacciones compartidas adaptables que permitan mejorar el análisis conjunto de incidencia y mortalidad por cánceres raros. En el Capítulo 3, se proporciona una descripción detallada del modelo propuesto. Estos modelos permiten la modulación de interacciones espacio-temporales entre incidencia y mortalidad, permitiendo cambios en su relación a lo largo del tiempo. El cuarto objetivo es evaluar la eficacia del método desarrollado en el Capítulo 3 para la predicción a corto plazo de las tasas de incidencia de cáncer, al tiempo que se manejan datos perdidos en las series temporales dada la falta de registros de cáncer en determinadas áreas geográficas. En el Capítulo 4, se lleva a cabo un estudio de validación para evaluar la capacidad predictiva de los modelos tanto para la predicción a futuro como para la predicción de datos faltantes en determinadas áreas, utilizando datos de mortalidad por cáncer de pulmón de los distritos sanitarios administrativos de Inglaterra para la serie temporal que abarca de 2001 a 2019. El quinto objetivo es ofrecer una visión global del suavizado inducida por los modelos espaciales univariantes. Estos modelos llevan implícito cierto grado de suavizado, en virtud del cual, para cualquier área concreta, las estimaciones empíricas de riesgo o incidencia se ajustan hacia una media adecuada o incorporan un suavizado basado en los vecinos. Por lo tanto, aunque la explicación del modelo puede ser el objetivo principal, es crucial examinar el efecto de suavizado de los modelos. Además, un prior espacial particular tiene parámetros y no se ha estudiado cómo la variación de estos parámetros afecta al suavizado inducido. El Capítulo 5 investiga, tanto teórica como empíricamente, el grado de suavizado conseguido por un modelo determinado. El sexto objetivo, transversal a todos los capítulos, materializa nuestro firme compromiso con la reproducibilidad. El código desarrollado en esta tesis se encuentra disponible públicamente en el repositorio de GitHub de nuestro grupo de investigación https://github.com/spatialstatisticsupna. La tesis finaliza con las principales conclusiones y las líneas futuras de investigación.Publication Open Access Advances in the estimation of fixed effects in spatial models with random effects(2024) Urdangarin Iztueta, Arantxa; Goicoa Mangado, Tomás; Ugarte Martínez, María Dolores; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaLa representación cartográfica de enfermedades permite estimar indicadores de salud específicos para áreas geográficas dentro de una región de estudio. Aunque el objetivo principal suele ser proporcionar las tasas/riesgos de incidencia o mortalidad de enfermedades como el cáncer, existen otras aplicaciones. Por ejemplo, el análisis de crímenes contra las mujeres en India. La mayor parte de la investigación en la representación cartográfica de enfermedades usa modelos mixtos de Poisson jerárquicos bayesianos que incorporan la dependencia espacial o temporal para suavizar los riesgos y reducir la variabilidad de los estimadores clásicos de los riesgos como las razones de incidencia/mortalidad estandarizadas (RIE/RME). Sin embargo, los modelos de representación cartográfica de enfermedades tienen algunos inconvenientes. Aquí nos centramos en dos de estas limitaciones. En primer lugar, estos modelos en general no son identificables y se requieren restricciones en el proceso de estimación para obtener resultados razonables. El segundo problema es la confusión espacial y está relacionado con la inclusión de covariables en los modelos. Si las covariables tienen estructura espacial, su asociación con la respuesta puede no estimarse bien debido al sesgo y la inflación de la varianza. El objetivo principal de esta tesis es doble. Por un lado, abordaremos la complejidad de incorporar restricciones de suma cero para resolver los problemas de identificación al ajustar modelos espacio-temporales ampliamente utilizados en la representación cartográfica de enfermedades utilizando NIMBLE (de Valpine et al., 2017), un sistema para crear modelos estadísticos en R que permite ajustar modelos jerárquicos bayesianos utilizando un sistema configurable de algoritmos MCMC. Por otro lado, nos centraremos en la confusión espacial, con el objetivo de proponer un método que garantice estimaciones adecuadas de efectos fijos. La presente tesis está dividida en cuatro capítulos diferentes. El primer capítulo proporciona una introducción general sobre los problemas que se van a bordar en esta tesis y el resto de los capítulos profundizan en esos problemas. Esta tesis se cierra con una sección final que resume los principales resultados e introduce algunas ideas para futuras investigaciones.Publication Open Access Desarrollo de modelos de mejora de la eficiencia del sistema sanitario público. Aplicación al servicio de urgencias hospitalarias del Complejo Hospitalario de Navarra(2024) Ibarra Bolt, Amaya; Mallor Giménez, Fermín; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaEn esta tesis se ha intentado estudiar y reflejar la importancia del estrés laboral en las profesiones sanitarias y, en especial, en servicios como urgencias con características propias que favorecen el desarrollo del estrés y del burnout dentro de sus trabajadores. Hemos querido resaltar las causas principales que pueden desencadenar estrés dentro de los servicios, en general y dentro del complejo hospitalario de Navarra en particular, desgranando cada uno de ellos y ponderando su importancia dentro del conjunto de los mismos. Se ha querido medir de la manera más exacta posible el nivel de estrés de cada momento dentro del turno de trabajo (el llamado estrés a tiempo real) así como el estrés acumulado a lo largo del turno laboral. Finalmente, y basándonos en los resultados recogidos tanto en los modelos de simulación, en las encuestas anónimas y en las entrevistas con los profesionales se llegó a la conclusión de que teníamos la oportunidad de trabajar sobre políticas de mejora para solventar estos problemas, lo que nos llevó a modificar las reglas de asignación de pacientes que permitieron una mejora sustancial en la calidad asistencial. Se han observado mejoras en los tiempos de espera de los pacientes y en otras medidas de rendimiento de la calidad asistencial, así como en el estrés del profesional, balanceando las cargas de trabajo entre profesionales a lo largo del turno laboral. Como conclusión final de la discusión pondríamos de manifiesto que los modelos de simulación matemática pueden ser un buen punto de partida y una gran herramienta para la valoración y estudio de los procesos que ocurren en un Servicio de Urgencias hospitalario. Complementario a esto último, podemos decir que estas herramientas nos pueden servir para probar in vitro cualquier política de mejora que nos interese implantar pudiendo ver previamente si va a ser eficaz o no. Esto permitiría desechar la política del ensayo error que tantos recursos consume y no siempre tiene buenos resultados.Publication Embargo Análisis de las decisiones médicas en el triaje de pacientes en unidades de cuidados intensivos(2024) Esparza Artanga, Laida; Azcárate Camio, Cristina; Mallor Giménez, Fermín; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaEn el dinámico entorno de las UCI, la toma de decisiones médicas juega un papel crucial en la gestión de recursos, especialmente en escenarios de escasez de camas. Además, según las previsiones este desequilibrio entre la demanda de ingresos y la disponibilidad de camas en UCI irá en aumento y ello llevará al racionamiento de estos recursos, es decir, a decisiones de triaje sobre el alta y el ingreso de los pacientes. La pandemia de COVID-19 también ha destacado la importancia de este triaje en las decisiones sobre la gestión de camas de UCI. El triaje es un proceso fundamental en el que se priorizan los casos más críticos y se asignan recursos de manera eficiente y equitativa. Los profesionales sanitarios de las UCI se enfrentan con frecuencia a estos dilemas éticos. En situaciones de alta ocupación los médicos deben decidir a qué paciente se le asigna la última cama disponible. Estos problemas se discuten ampliamente en la literatura médica, donde se identifican los factores influyentes y se analizan las consecuencias para la salud del paciente. Para mejorar la gestión de los recursos de las UCI es fundamental comprender cómo toman los médicos las decisiones relativas al ingreso y el alta de los pacientes en situaciones de saturación. Al conocer en profundidad estos factores, es posible desarrollar criterios más objetivos y equitativos para el ingreso en la UCI, reduciendo así el riesgo de sesgo, optimizando la utilización de las camas y mejorando la calidad de la atención prestada a los pacientes críticos. Los actuales modelos matemáticos para estudiar la gestión de las UCI y el flujo de pacientes pasan por alto muchos de los factores que tienen en cuenta los médicos a la hora de tomar decisiones de triaje en el mundo real. La presente tesis analiza las decisiones médicas relacionadas con el triaje de los ingresos y las altas en las UCI, en situaciones de alta ocupación de camas, proponiendo un marco de simulación novedoso para representar de manera precisa el funcionamiento de estas unidades. Mediante el desarrollo y aplicación de técnicas y métodos de análisis de datos y simulación computacional hemos evolucionado un modelo de simulación de eventos discretos hacia un gemelo digital capaz de reproducir, en un entorno virtual, el funcionamiento real de una UCI. El gemelo digital desarrollado imita los procesos reales de ingreso y alta en la UCI y recrea el estado de salud de los pacientes a partir de datos clínicos reales. Esta herramienta, validada por los profesionales de la UCI del Hospital Universitario de Navarra, permite analizar la toma de decisiones de los médicos en relación con los problemas de ingreso y alta de los pacientes, al tiempo que sirve como un recurso útil de aprendizaje y formación. Este simulador permite recopilar los datos necesarios para examinar la toma de decisiones relacionadas con el ingreso y el alta de pacientes durante periodos de alta presión de camas. Se modelizan tres acciones clave de control de camas empleadas por los usuarios para gestionar la UCI: admitir o desviar pacientes urgentes, confirmar o cancelar cirugías programadas y adelantar o no el alta a pacientes ingresados en la UCI. Estas decisiones sobre el ingreso y alta de los médicos son analizadas desde múltiples perspectivas, abarcando tanto una evaluación holística como un examen más detallado de las decisiones individuales sobre los pacientes, teniendo en cuenta el nivel de ocupación de camas. Los resultados preliminares de la simulación llevada a cabo por distintos tipos de usuario, entre ellos médicos especialistas en Medicina Intensiva de diferentes hospitales, revelan variabilidad en la toma de decisiones de los médicos ante el dilema de la última cama, tanto en términos generales como con respecto a la evolución del proceso de ingresos y altas a medida que aumenta el nivel de presión de camas. La principal aportación de este trabajo es la investigación del proceso de toma de decisiones en la UCI mediante un gemelo digital que ha puesto de manifiesto la existencia de variabilidad en la toma de decisiones entre los médicos cuando se enfrentan a escenarios idénticos.Publication Embargo Digital twin development for VTOL UAVs(2024) Aláez Gómez, Daniel; Villadangos Alonso, Jesús; Astrain Escola, José Javier; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaThe use of vertical take-off and landing (VTOL) drones in various industries is becoming increasingly popular. However, the democratization of drones also raíces significant concerns about safety during their operations. Their relatively new technology and growing interest often lead to the use of undertested vehicles in missions where safety is critical. To address these risks and reduce the costs associated with experimental flights of new aircraft, the implementation of high-fidelity emulators is proposed. These advanced emulators, known as digital twins, have seen exponential growth in popularity in recent years. This thesis addresses the complete process of developing digital twins for VTOL unmanned aerial vehicles (UAVs). Initially, we propose a digital twin development model based on a variation of the double diamond design process. After identifying critical systems in two types of VTOL UAVs, a hexacopter and a commercial tiltrotor aircraft, we have developed a mathematical model to characterize aerodynamic, gravitational, and propulsive actions. Propulsive actions are measured through experimental tests on a motor test bench. Gravitational actions are determined using precise computeraided design/computer-aided manufacturing (CAD/CAM) models and experi mental measurements. Finally, aerodynamic actions are obtained through a novel aerodynamic model, which calculates the complete aircraft aerodynamics based on the incident wind direction, relying on numerous computational fluid dynamics (CFD) simulations. To mitigate the costs associated with CFD simulations, we employ surrogate models, developing and validating a surrogate model capable of potentially reducing the number of simulations by up to 50%. Another critical subsystem is the communication system. Based on experimental measurements, we fit and validate a path loss model for Received Signal Strength Indicator (RSSI) to estimate signal losses as a function of the aircraft’s position and attitude. This model allows us to predict and quantify the impact of the UAV’s attitude and position relative to the communication source. Ultimately, the digital twin is successfully implemented and validated using both hardware-in-the-loop and X-Plane for a commercial flight controller, as well as software-in-the-loop and Gazebo for an open-source controller (Ardupilot). This comprehensive validation approach ensures that the digital twin accurately replicates the behavior and performance of the actual UAV systems, regardless of the emulation engine and architecture chosen.Publication Open Access Toward robustness and performance prediction in Brain-Computer Interfacing(2024) Jorajuria Gómez, Tania; Gómez Fernández, Marisol; Vidaurre, Carmen; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaLas interfaces cerebro-computadora (BCIs, por sus siglas en inglés) leen y decodifican la actividad cerebral. Entre sus muchas aplicaciones, se pueden emplear como una nueva herramienta de comunicación, para controlar un dispositivo externo, asistir a pacientes durante neurorrehabilitación, o incluso en neuromarketing. Las BCIs normalmente se prueban bajo condiciones controladas. Sin embargo, su correcta operación en condiciones de fuera del laboratorio es crucial, especialmente cuando los investigadores tienen en mente su uso en aplicaciones clínicas. Por tanto, es vital que las BCIs sean robustas a perturbaciones externas. Por otro lado, se ha demostrado que un gran porcentaje de usuarios no puede operar correctamente las BCIs actuales. Este fenómeno, conocido como ineficiencia de las BCIs, señala la necesidad de que los investigadores estimen de antemano qué rendimiento tendrá un nuevo participante. Predecir el desempeño de un participante podría ahorrar recursos de investigación, que siempre son escasos, y ayudar en el diseño de algoritmos para aumentar la fiabilidad operativa de las BCIs. En esta Tesis, se han abordado los puntos anteriores, dando como resultado la propuesta de nuevas herramientas para el procesamiento de señales BCI. En particular, se han propuesto dos métodos de procesamiento (pipelines) para BCIs basadas en señales steady-state visual evoked potential (SSVEP), que funcionan bien con señales de sólo un segundo de duración. Uno de ellos, denominado corrLDA, supera al pipeline del estado del arte basado en el an´alisis de la correlación canónica (CCA). Su aspecto clave es que, aplicando el análisis discriminante lineal regularizado (sLDA), emplea información de clase para encontrar el subespacio de extracción de características, al contrario que CCA. El siguiente pipeline, llamado oscillatory source tensor discriminant analysis (OSTDA), es una extensión de corrLDA con dos características principales: primero, sLDA se reemplaza por su método análogo para datos tensoriales, denominado análisis discriminante de orden superior regularizado (sHODA), desarrollado durante esta Tesis. Este método de extracción de características basado en tensores convierte a OSTDA en un pipeline robusto en condiciones de tamaños muestrales pequeños. Además, OSTDA también incluye un método llamado descomposición espacio-espectral (SSD). Se aplica como un primer paso en el procesado de las señales SSVEP. SSD extrae fuentes oscilatorias con relación señal-ruido mejorada. De este modo, SSD convierte a OSTDA en un pipeline más robusto contra perturbaciones cognitivas puesto que, a diferencia de las señales SSVEP, las perturbaciones no son de naturaleza oscilatoria y por tanto pueden eliminarse al proyectar los datos al subespacio generado por el SSD. Al comparar OSTDA contra tres métodos del estado del arte, demostró tener un desempeño similar o mejor que ellos en todas las configuraciones estudiadas.Publication Embargo Multivalued and non-symmetric operators for sequential information processing(2024) Ferrero Jaurrieta, Mikel; López Molina, Carlos; Takáč, Zdenko; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaLas estructuras de datos multivaluadas son un tipo de organización de datos que permiten representar información compuesta por varios atributos, variables, dimensiones o coordenadas. Para su funcionamiento básico se dotan de operaciones básicas como la igualdad, comparación y orden. A partir de estas se definen operaciones como, por ejemplo, la agregación de información. Un tipo de dato multivaluado de especial interés es la información secuencial, en el cual existe una dependencia temporal, espacial o de orden entre sus elementos. Ejemplos relevantes de información secuencial son el texto (lenguaje natural) o las series temporales. En esta tesis presentamos un nuevo framework para información multivaluada. De esta manera, presentamos nuevos métodos de agregación de información multivaluada. Para ello, se extienden funciones que tienen en cuenta la posible relación entre los datos internos a la estructura multivaluada. Dado que estas funciones necesitan una ordenación de sus argumentos, se presentan distintos enfoques: por componentes individuales y proponiendo un nuevo método de ordenación. Estas funciones se aplican en la fusión de información secuencial en redes neuronales recurrentes. En el contexto multivaluado también se presenta un nuevo método para la comparación de estructuras multivaluadas. De forma complementaria, se considera un problema adicional en el procesamiento de información secuencial: la simetría. Se considera que, en la agregación de información secuencial, el orden de los argumentos es una cuestión de gran relevancia. Por lo tanto, el uso de funciones simétricas no tiene sentido, dado que puede que estemos rompiendo la correlación temporal. Por ello, se presentan nuevos métodos de construcción de funciones de agregación no-simétricas. Estas serán aplicadas en tareas de agregación de información con dependencia secuencial, como puede ser el procesamiento de texto en redes neuronales convolucionales y la combinación de modelos de predicción de series temporales.Publication Open Access Exploring disease mapping models in big data contexts: some new proposals(2023) Orozco Acosta, Erick; Adin Urtasun, Aritz; Ugarte Martínez, María Dolores; Estadística, Informática y Matemáticas; Estatistika, Informatika eta Matematika; Universidad Pública de Navarra / Nafarroako Unibertsitate Publikoa, PJUPNA2001La representación cartográfica de enfermedades es un área de investigación muy relevante y significativa dentro del campo de la estadística espacial (datos de área), ya que ofrece un apoyo muy importante para la toma de decisiones en materia de salud pública. Debido a la gran variabilidad de los estimadores de riesgo clásicos, como la razón de mortalidad estandarizada (RME), el uso de modelos estadísticos complejos resulta esencial para obtener una representación más coherente del riesgo de enfermedad subyacente. Durante las últimas décadas se han propuesto en la literatura varios modelos estadísticos para suavizar riesgos espacio-temporales, la mayoría de ellos considerando modelos que incorporan efectos aleatorios con distribuciones a priori condicionales autorregresivas (CAR), basándose en el trabajo seminal de Besag et al. (1991). Sin embargo, la escalabilidad de estos modelos, concretamente su viabilidad en escenarios en los que el número de áreas pequeñas aumenta significativamente, no ha sido estudiada suficientemente. Por lo tanto, el principal objetivo de esta tesis es proponer nuevos métodos de modelización bayesiana escalables para suavizar riesgos (o tasas) de incidencia/mortalidad en datos de área espaciales y espacio-temporales de alta dimensión. La metodología está basada en el principio de “divide y vencerás”. La presente tesis aborda en concreto los objetivos descritos a continuación. El primer objetivo es revisar la bibliografía más reciente acerca de las principales aportaciones en el ámbito espacial y espacio-temporal que son relevantes para los objetivos de esta investigación. El capítulo 1 ofrece una visión general del ajuste y la inferencia de modelos, centrándose en la técnica INLA, basada en aproximaciones de Laplace anidadas e integración numérica, ampliamente utilizada para modelos Gaussianos latentes dentro del paradigma Bayesiano (Rue et al., 2009). En este capítulo también se proporcionan aproximaciones de criterios de selección de modelos basados en la desviación Bayesiana (denominada deviance en inglés) y la distribución predictiva bajo las nuevas propuestas de modelos escalables. También se incluye una breve descripción del paquete bigDM de R, que implementa todos los algoritmos y modelos propuestos en esta disertación. El segundo objetivo de esta tesis es proponer un método de modelización Bayesiana escalable para el tratamiento de datos de área espaciales de alta dimensión. En el Capítulo 2, se facilita una descripción exhaustiva de una nueva metodología de suavización de riesgos. También se lleva a cabo un estudio de simulación multiescenario que incluye casi 8 000 municipios españoles para comparar el método propuesto con un modelo global tipo CAR en términos de bondad de ajuste y precisión en la estimación de la superficie de riesgos. Además, se ilustra el comportamiento de los modelos escalables analizando datos de mortalidad por cáncer de colon y recto en hombres para municipios españoles utilizando dos estrategias diferentes de partición del dominio espacial. El tercer objetivo es ampliar el enfoque de modelización Bayesiana escalable para suavizar riesgos de mortalidad o incidencia espacio-temporales de alta dimensión. En el capítulo 3, se presenta una descripción exhaustiva de los modelos CAR espaciotemporales propuestos originalmente por Knorr-Held (2000), que son la base de la nueva propuesta de modelización para analizar datos de área espacio-temporales. El capítulo también explica las estrategias de paralelización y computación distribuida implementadas en el paquete bigDM para acelerar los cálculos mediante el uso del paquete future (Bengtsson, 2021) de R. Se realiza un estudio de simulación para comparar la nueva propuesta escalable con dos estrategias de fusión diferentes frente a los modelos CAR espacio-temporales tradicionales utilizando el mapa de los municipios españoles como plantilla. Además, se evalúa la nueva propuesta en términos de tiempo computacional. Finalmente, se ilustran y comparan todos los enfoques descritos en este capítulo analizando la evolución espacio-temporal de la mortalidad por cáncer de pulmón en hombres en los municipios españoles durante el periodo 1991-2015. El cuarto objetivo es evaluar la idoneidad del método desarrollado en el Capítulo 3 para la previsión a corto plazo de datos de alta resolución espacial. En el Capítulo 4, se presenta el modelo CAR espacio-temporal que incorpora observaciones faltantes en la variable respuesta para los periodos de tiempo que se van a pronosticar. Adicionalmente, se realiza un estudio de validación para evaluar la capacidad predictiva de los modelos para predicciones a uno, dos y tres periodos utilizando datos reales de mortalidad por cáncer de pulmón en municipios españoles. En este capítulo, también se compara la capacidad predictiva de los modelos utilizando medidas de validación cruzada (denominadas en inglés leave-one-out y leave-group-out) (Liu and Rue, 2022). El quinto objetivo es transversal a todos los capítulos. El objetivo es desarrollar un paquete en lenguaje R de código abierto llamado bigDM (Adin et al., 2023b) que consolida todos los métodos propuestos en esta disertación haciéndolos fácilmente disponibles para su uso por la comunidad científica. La tesis finaliza con las principales conclusiones de este trabajo y detalla futuras líneas de investigación.Publication Open Access Mejoras a la capacidad de generalización de la inteligencia artificial(2023) Fumanal Idocin, Javier; Bustince Sola, Humberto; Cordón García, Óscar; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaLa fusión de información es un aspecto crucial del análisis moderno de datos y la toma de decisiones. Implica la integración de múltiples fuentes de información para obtener una com prensión más completa y precisa de un tema determinado. Este proceso es especialmente importante en campos como la informática, la ingeniería y las ciencias naturales, donde se generan grandes cantidades de datos procedentes de diversas fuentes que deben sintetizarse para tomar decisiones con conocimiento de causa. La fusión de información también es esencial en el diseño y la implantación de sistemas inteligentes, ya que permite integrar diversos sensores y fuentes de datos para hacer predicciones y recomendaciones más precisas. Desde un punto de vista matemático, una forma de estudiar este problema es a través de la idea de funciones de fusión, que toman como entrada un vector de números y devuelven uno solo, representativo de ellos. Un tipo relevante de funcion de fusión es la familia de funciones de agregación. Estas funciones mantienen dos condiciones de contorno y monotonicidad con respecto a las entradas, que inducen algunas propiedades deseables a la salida de la función. Sin embargo, la fusión de información en los sistemas aplicados comprende algo más que esta noción teórica. A medida que la heterogeneidad, la estructura y el volumen de los datos adquieren mayor relevancia, han surgido otros enfoques para abordar este problema. Por ejemplo, en una estructura de red, las distintas entradas se asocian entre sí según un conjunto preestablecido de relaciones; en las series temporales, los datos presentan dependencias temporales. Cuando se trata de datos no estructurados, como texto, audio e imagen, los enfoques de aprendizaje profundo han tenido mucho exito en la transformación de este tipo de datos en representaciones vectoriales de números reales utilizando series de transformaciones afines. A pesar de los esfuerzos previos en este campo, el problema de combinar eficazmente fuentes de información diversas y heterogéneas, sigue siendo un área de investigación abierta y activa. Esto se debe a los desafíos inherentes a la integracion de múltiples fuentes que pueden estar en diferentes formatos y pueden tener información contradictoria o incompleta. Por ejemplo, el modo en que la información medida se relaciona con otras fuentes de datos y la fiabilidad de esas medidas dependen en gran medida del procedimiento de medición. De hecho, los sistemas que fusionan la información de esas distintas fuentes presentarán también complejidades adicionales al tener en cuenta las particularidades de cada característica considerada. En esta tesis, proponemos un conjunto de funciones y algoritmos para tener en cuenta las posibles interacciones, heterogeneidades e incertidumbres cuando se trabaja con distintas fuentes de información. Lo hacemos mediante la teoría de agregaciones y el análisis de redes sociales, y nos centramos especialmente en aquellos casos en los que los enfoques de aprendizaje profundo no tienen tanto éxito. Aplicamos estos resultados a una amplia gama de problemas, incluyendo la clasificación de se ñales de interfaz cerebro-ordenador, la clasificación de datos tabulares estándar y la detección de anomalías.Publication Open Access Análisis de idoneidad en propuestas para el estudio de cónicas con GeoGebra en Educación Secundaria(2023) Abaurrea Larrayoz, Jaione; Wilhelmi, Miguel R.; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaEn esta tesis doctoral se propone una manera de trabajar las cónicas en Educación Secundaria diferente a las propuestas que en general se plantean en los libros de texto. Así, se describen y analizan actividades que se alejan de la enseñanza meramente transmisiva de las matemáticas, para enfatizar la acción matemática que implica llevar a cabo los procesos de: resolución de problemas, razonamiento y prueba, conexiones y representación.Publication Open Access Sistemas y tecnologías para dotar de autonomía a vehículos aéreos no tripulados (UAV) basadas en ontologías(2023) Martín Lammerding, David; Astrain Escola, José Javier; Córdoba Izaguirre, Alberto; Estadística, Informática y Matemáticas; Estatistika, Informatika eta MatematikaEn esta tesis se propone dotar de autonomía a los vehículos aéreos sin tripulación (UAV) empleando sistemas y tecnologías basadas en ontologías. Los sistemas autónomos están teniendo una gran importancia gracias a las ventajas que aportan en cuanto a coste y seguridad, pero, por otro lado, se están planteando retos en cuanto a transparencia y confiabilidad que limitan su desarrollo. Previo al diseño del sistema autónomo se presenta el Estado del Arte sobre los sistemas y tecnologías que se han aplicado a los sistemas autónomos, describiendo sus características y las limitaciones encontradas en la bibliografía. La ontología propuesta, denominada Dronetology, tiene como objetivo definir el conocimiento necesario para que un UAV pueda operar con autonomía e inferir nuevo conocimiento que mejore la eficiencia y la seguridad de la misión. Para que la ontología pueda tomar decisiones y ejecute maniobras requiere de varios componentes software auxiliares que forman el sistema Dronetology KIT. Éste realiza labores de interface con los sistemas de la aeronave, integrando información y enviando órdenes al sistema de control de vuelo y de inferencia, ejecutando sentencias SPARQL. Dronetology KIT se implementa usando estándares abiertos basados en la web semántica, código abierto o libre, y el paradigma de programación declarativa, con el fin de facilitar su adaptación a diferentes escenarios y asegurar un funcionamiento transparente. Adicionalmente, su diseño permite que se ejecute en los equipos embarcados en el UAV para tomar decisiones y dar respuesta con un retardo mínimo. Dronetology KIT se implementa en dos aplicaciones con el fin de comprobar su adaptabilidad y su capacidad de tomar decisiones de forma autónoma empleando conocimiento. El primer caso de aplicación es un sistema de recopilación de datos de una red de sensores donde la aeronave no tripulada actúa como un recolector de datos. El conocimiento que adquiere durante el vuelo le permite variar el vuelo pasando al siguiente waypoint cuando no quedan cerca datos pendientes de recoger. El segundo caso de aplicación es un sistema anti-colisión que permite colaborar con otras aeronaves no tripuladas para coordinar velocidades y reducir colisiones, incluso en situaciones con tráfico denso. En algunos escenarios concretos se realizan vuelos reales de UAS para verificar el funcionamiento de Dronetology KIT. Sin embargo, por cuestiones de seguridad y de coste se emplean simuladores Hardware in the Loop. Estos simuladores integran software con hardware con el fin de conocer el comportamiento del sistema autónomo ejecutándose en una plataforma hardware real en la que las entradas son simuladas.