Dpto. Automática y Computación - Automatika eta Konputazioa Saila
Permanent URI for this community
Browse
Browsing Dpto. Automática y Computación - Automatika eta Konputazioa Saila by browse.metadata.doctorateProgram "Industria Zientzietako eta Teknologietako Doktoretza Programa (ED 99/2011)"
Now showing 1 - 3 of 3
Results Per Page
Sort Options
Publication Open Access Aggregation and pre-aggregation functions in fuzzy rule-based classification systems(2018) Lucca, Giancarlo; Bustince Sola, Humberto; Sanz Delgado, José Antonio; Automática y Computación; Automatika eta KonputazioaUna manera eficiente de tratar problemas de clasificación, entre otras, es el uso de Sistemas de Clasificación Basados en Reglas Difusas (SCBRDs). Estos sistemas están compuestos por dos componentes principales, la Base de Conocimiento (BC) y el Método de Razonamiento Difuso (MRD). El MRD es el método responsable de clasificar nuevos ejemplos utilizando la información almacenada en la BC. Un punto clave del MRD es la forma en la que se agrega la información proporcionada por las reglas difusas disparadas. Precisamente, la función de agregación es lo que diferencia a los dos MRDs más utilizados de la literatura especializada. El primero, llamado de Regla Ganadora (RG), tiene un comportamiento promedio, es decir, el resultado de la agregación está en el rango delimitado por el mínimo y el máximo de los valores a agregar y utiliza la mayor relación entre el nuevo ejemplo a clasificar y las reglas. El segundo, conocido como Combinación Aditiva (CA), es ampliamente utilizado por los algoritmos difusos más precisos de la actualidad y aplica una suma normalizada para agregar toda la información relacionada con el ejemplo. Sin embargo, este método no presenta un comportamiento promedio. En este trabajo de tesis, proponemos modificar la manera en la que se agrega la información en el MRD, aplicando generalizaciones de la integral Choquet. Para ello, desarrollamos nuevos conceptos teóricos en el campo de los operadores de agregación. En concreto, definiremos generalizaciones de la Choquet integral con y sin comportamientos promedio. Utilizamos estas generalizaciones en el MRD del clasificador FARC-HD, que es un SCBRD del estado del arte. A partir de los resultados obtenidos, demostramos que el nuevo MRD puede ser utilizado, de manera eficiente, para afrontar problemas de clasificación. Además, mostramos que los resultados son estadísticamente equivalentes, o incluso superiores, a los clasificadores difusos considerados como estado del arte.Publication Open Access Computing with uncertainty truth degrees: a convolution-based degrees(2017) Miguel Turullols, Laura de; Bustince Sola, Humberto; Baets, Bernard de; Induráin Eraso, Esteban; Automática y Computación; Automatika eta KonputazioaLa teoría de los conjuntos difusos puede contemplarse como un conjunto de herramientas matemáticas excepcionalmente adaptadas para trabajar con información incompleta, falta de nitidez e incertidumbre no aleatoria. De hecho, como herramienta en ingeniería, para traducir el lenguaje natural humano impreciso en un objeto matemático, los conjuntos difusos juegan un papel decisivo para superar la brecha entre el hombre y los ordenadores. Sin embargo, es ampliamente conocido que la asignación de un valor preciso como pertenencia no es una tarea sencilla. En la literatura, se han propuesto y estudiado varias generalizaciones de los conjuntos difusos para resolver esta dificultad. Más aún, estas generalizaciones han demostrado ser una herramienta útil, al mejorar los resultados en diferentes aplicaciones. Las generalizaciones difieren de los conjuntos difusos en el objeto matemático que se utiliza para modelar la imprecisión y/o incertidumbre. Especifícamente, los conjuntos difusos toman elementos en el intervalo unidad [0, 1] mientras que las generalizaciones toman objetos matemáticos más complejos como intervalos (conjuntos difusos intervalo-valorados), subconjuntos del intervalo unidad (conjuntos difusos "conjunto-valorados") o funciones (conjuntos difusos tipo-2), entre otros. No obstante, el uso de las generalizaciones de los conjuntos difusos tiene un gran inconveniente. Antes de aplicar las generalizaciones de los conjuntos difusos es necesario adaptar ad hoc cada noción teórica al correspondiente objeto matemático que modela la incertidumbre en la aplicación, es decir, es necesario redefinir cada noción teórica reemplazando el intervalo unidad [0, 1] por objetos matemáticos más complejos. En la historia de los conjuntos difusos quedó claro relativamente pronto que la relación natural entre la teoría de conjuntos y la lógica clásica podía ser imitada generando una relación entre la teoría de los conjuntos difusos y la lógica multi-valuada. Hoy en día esta lógica multivaluada recibe el nombre de lógica difusa. Del mismo modo, cada generalización de los conjuntos difusos genera un nuevo sistema lógico. Todos estos sistemas lógicos coinciden en que intentan modelar incertidumbre, pero difieren en el objeto matemático que representa esta incertidumbre. Es fácil comprobar que el mismo problema entre conjuntos difusos y sus generalizaciones puede encontrarse en los distintos sistemas lógicos, es decir, aunque todos ellos son similares, cada noción teórica tiene que ser redefinida para cada lógica. Este problema, junto con el gran número de lógicas que modelan incertidumbre, nos ha llevado a estudiar si es o no posible encontrar un sistema que englobe estas lógicas y nos ha motivado a proponer un sistema lógico que permita modelar la incertidumbre de manera más flexible. Centrándonos especialmente en sistemas lógicos provenientes de la lógica difusa, en esta tesis doctoral proponemos un nuevo sistema lógico que recupera varias de las lógicas de la literatura. La principales ventajas de nuestra propuesta son: evitará la excesiva repetición de las nociones teóricas; permitirá adaptar la aplicación a la generalización de los conjuntos difusos más adecuada de una manera mucho más sencilla. En esta tesis doctoral presentamos la semántica del modelo lógico propuesto junto con un estudio en profundidad de la operación de convolución que se utiliza para definir las conectivas disyunción y conjunción del sistema.Publication Open Access Novel methodologies for improving fuzzy classifiers: dealing with multi-class and Big Data classification problems(2018) Elkano Ilintxeta, Mikel; Galar Idoate, Mikel; Barrenechea Tartas, Edurne; Automática y Computación; Automatika eta KonputazioaLos Sistemas de Clasificación Basados en Reglas Difusas (SCBRDs) son métodos de aprendizaje automático que permiten construir modelos predictivos capaces de predecir la clase a la que pertenecen los datos de entrada. La ventaja de estos sistemas es que proporcionan un modelo formado por una serie de reglas que contienen etiquetas lingüísticas interpretables por el ser humano (por ejemplo, “bajo”, “medio”, “alto”), lo que les permite explicar el razonamiento llevado a cabo al realizar una predicción. Estas etiquetas lingüísticas permiten a los SCBRDs no solamente explicar el porqué de las predicciones, sino también manejar la incertidumbre proveniente de información imprecisa. Los problemas de clasificación pueden dividirse en dos grupos dependiendo del número de clases que los componen: binarios (dos clases) y multi-clase (más de dos clases). En general, los problemas multi-clase implican fronteras de decisión más complejas que son más difíciles de aprender que en problemas binarios, debido al mayor número de clases. Una forma eficaz de lidiar con esta situación es descomponer el problema multi-clase original en problemas binarios más sencillos que son afrontados por clasificadores independientes, cuyas predicciones son agregadas cuando se clasifican los datos de entrada. Esta metodología ha mostrado ser eficaz a la hora de mejorar el rendimiento de una gran variedad de clasificadores, incluidos los SCBRDs. Sin embargo, el uso de estrategias de descomposición en SCBRDs plantea una nueva problemática: lidiar con diferentes estructuras de reglas y métodos de razonamiento difuso (FRM). Las diferencias estructurales en las reglas vienen dadas por la variedad de métodos de construcción de reglas existentes en la literatura. Estos métodos pueden diferir, por ejemplo, en el tipo de etiquetas lingüísticas generadas, en el operador de conjunción/disyunción empleado en reglas con más de un antecedente, o en la longitud media de las reglas. Por otro lado, el FRM encargado de inferir la salida adecuada a partir de las reglas construidas puede variar notablemente de un SCBRD a otro. Estos factores hacen que el comportamiento de las técnicas de descomposición sea dependiente del SCBRD empleado. Por consiguiente, algunos de los métodos de agregación más populares no son capaces de aprovechar el potencial mostrado en otro tipo de clasificadores. Además de la dificultad añadida de los problemas multi-clase, en los últimos años las técnicas de aprendizaje automático se han topado con un nuevo reto: en ocasiones la cantidad de información a procesar excede la capacidad de cómputo o almacenamiento de un ordenador convencional moderno, lo que denominamos problemas Big Data. Para solventar este problema se hace uso de la computación distribuida, la cual consiste en distribuir los datos a través de múltiples nodos (ordenadores) con el objetivo de procesarlos en paralelo. A pesar de que esta metodología soluciona los problemas asociados con las exigencias de cómputo y almacenamiento, el procesamiento distribuido de la información implica diseñar métodos que soporten dicha funcionalidad. En el caso de los SCBRDs diseñados para Big Data, la dificultad añadida de la computación distribuida ha impedido explotar el potencial que han mostrado estos sistemas cuando se han aplicado de forma local y secuencial. Además de la computación distribuida, otra metodología (complementaria) para poder manejar grandes volúmenes de datos son las técnicas de reducción de prototipos (PR). Los métodos de PR permiten que algoritmos de aprendizaje automático que no están diseñados para Big Data puedan ejecutarse en estos entornos empleando una versión reducida de los datos. Sin embargo, gran parte de las aproximaciones de PR propuestas hasta la fecha presentan serias limitaciones de escalabilidad que afectan a su eficiencia, debido en gran parte a la complejidad computacional cuadrática que generalmente caracteriza a este tipo de técnicas. El objetivo de esta tesis es mejorar el rendimiento de los SCBRDs en problemas multi-clase y Big Data. En el caso de los problemas multi-clase, hemos estudiado y analizado el efecto de diferentes métodos de aprendizaje y razonamiento difuso de varios SCBRDs en el rendimiento de las estrategias de descomposición. Una vez identificados algunos de los problemas que presenta esta sinergia, hemos propuesto una modificación del FRM que permite mejorar su rendimiento. En cuanto a las metodologías planteadas para Big Data, hemos presentado dos nuevos algoritmos de aprendizaje distribuido para SCBRDs que solucionan algunas de las limitaciones presentes en los métodos existentes. De forma transversal, hemos aprovechado uno de estos algoritmos para desarrollar un nuevo método de PR de complejidad lineal.