Introducción
La Lógica Difusa (LD) es una disciplina propuesta en los años sesenta por Lofti Zadeh, que combina los conceptos de la lógica y de los conjuntos de Lukasiewicz mediante la definición de grados de pertenencia (Zadeh, L. 1965).
La LD es uno de los fundamentos de la Inteligencia Computacional o Soft-Computing (Bonissone, P.1997) (Verdegay, J. 2005), que se basa en la incertidumbre, lo cual facilita trabajar con información vaga o de difícil especificación, si se quiere emplear objetivamente esta información con un fin determinado (Kecman, V. 2001). La flexibilidad de la LD la hace apropiada para los sistemas de asistencia en la toma de decisiones (Sousa, J y Kaymak, U. 2003) (LI, H. y YEN, V. 1995),
Sin embargo, en este enfoque se recomienda el uso de reglas poco complejas; la selección pragmática de operadores, en combinación con la defuzzificación, sólo permite buenos resultados con reglas simples (Passino, K. y Yurkovich, S. 1998) (Zimmermann, H. 2001).La Lógica Difusa Compensatoria (LDC) constituye una Lógica Multivalente que supera estas dificultades.
En los procesos que requieren toma de decisiones, el intercambio con los expertos lleva a obtener formulaciones complejas y sutiles que requieren de predicados compuestos. Los valores de verdad obtenidos sobre estos predicados compuestos deben poseer sensibilidad a los cambios de los valores de verdad de los predicados básicos.
Esta necesidad se satisface con el uso de la LDC, que renuncia al cumplimiento de las propiedades clásicas de la conjunción y la disyunción, contraponiendo a éstas la idea de que el aumento o disminución del valor de verdad de la conjunción o la disyunción provocadas por el cambio del valor de verdad de una de sus componentes, puede ser "compensado" con la correspondiente disminución o aumento de la otra. Estas propiedades hacen posible de manera natural el trabajo de traducción del lenguaje natural al de la Lógica, incluidos los predicados extensos, si éstos surgen del proceso de modelación.
Este libro pretende llevar a la comunidad académico-empresarial las ideas fundamentales de la Lógica Difusa Compensatoria, ilustrándola en sus posibles campos de aplicación para lograr la competitividad de una organización.
"Básicamente, Softcomputing no es un cuerpo homogéneo de conceptos y técnicas. Más bien es una mezcla de distintos métodos que de una forma u otra cooperan desde sus fundamentos. En este sentido, el principal objetivo del Softcomputing es aprovechar la tolerancia que conllevan la imprecisión, la incertidumbre y la verdad parcial, para conseguir manejabilidad, robustez y soluciones de bajo costo a diferentes problemas de la ciencia y la tecnología " (Zadeh, L. 1994).
En la actualidad el término de Softcomputing o Inteligencia Computacional se utiliza para describir el uso combinado de diferentes aproximaciones computacionales surgidas hace varios años y entre las que se destacan los modelos probabilísticos, la lógica difusa, las redes neuronales y las metaheurísticas. Sin embargo, hasta que Lofti Asker Zadeh dio la primera definición de "SoftComputing" en Zadeh, L. (1994), todos estos conceptos eran referenciados de forma aislada (Ceruto, T. 2010).
Mediante redes neuronales se consiguen crear sistemas pseudos-inteligentes que aprenden a partir de un conjunto de datos para su futura clasificación, aunque también se pueden utilizar en una tarea de regresión. Los sistemas difusos permiten trabajar con el lenguaje natural mediante etiquetas lingüísticas, para poder tratar y expresar la incertidumbre de un modo usable por el ser humano. Las técnicas de computación evolutiva pretenden simular los procesos de la evolución biológica derivados de la teoría de Darwin, para resolver problemas de optimización. Con el razonamiento probabilístico se pueden crear modelos que sirvan para describir un dominio y, a través de un sistema experto, ser capaces de tomar decisiones en base a ese modelo.
Los elementos constitutivos de Softcomputing, lejos de ser competitivos entre sí, son colaborativos y complementarios. Más que poder ser entendidos de forma aislada, hay que comprenderlos como el resultado de la cooperación, la asociación, la complementariedad o la hibridación de sus componentes. Pese a sus evidentes diferencias, el común denominador de estas metodologías es su abandono de la lógica binaria, los modelos analíticos estáticos, las clasificaciones rígidas y las búsquedas deterministas. De forma particular la lógica difusa cobra especial relevancia en este libro.
HISTORIA
La Lógica Difusa surgió como consecuencia natural de la observación de que ciertas personas tienen suficiente habilidad para tomar decisiones correctas a partir de un conjunto de datos que están expresados lingüísticamente de forma vaga o imprecisa (difusas), casi siempre utilizando adjetivos o adverbios como mucho, alto, normal, muy, etc. Tales personas pueden controlar eficientemente un proceso tecnológico, diagnosticar una enfermedad a partir de síndromes y síntomas (el médico clínico) o tomar una decisión acertada en el mercado de valores (Hernández, M. 2003).
La LD es un cuerpo teórico que pretende emular tales capacidades mediante su formalización. Esta constituye una rama de la Inteligencia Computacional que se funda en la incertidumbre, lo cual permite manejar información vaga o de difícil especificación si se quiere utilizar objetivamente esta información con un fin específico (Kecman, V. 2001).
La LD permite implementar procesos de razonamiento por medio de reglas y predicados que generalmente se refieren a cantidades indefinidas o inciertas. Estos predicados pueden obtenerse con sistemas que "aprenden" al "procesar" datos reales o pueden también ser formulados por un experto humano o, mejor aún, por el consenso entre varios de ellos.
Trescientos años a.n.e., Aristóteles estableció su llamada Ley de Bivalencia que afirma que cualquier sentencia es verdadera o falsa (1, 0), pero no ambas cosas a la vez. La lógica aristotélica nos ha sido útil por más de 2000 años y está en los cimientos de la Matemática y en el principio de funcionamiento de nuestras computadoras.
Pensadores posteriores sugirieron que el mundo está lleno de contradicciones, de cosas que son y no-son a un tiempo y que por tanto una tercera región debía ser considerada. En el siglo pasado, un matemático llamado Lukasiewicz propuso inicialmente una lógica trivalente. Posteriormente experimentó con lógicas de cuatro y cinco valores y finalmente llegó a la conclusión que una lógica con infinitos valores era tan plausible como una lógica con un conjunto finito de ellos.
En la actualidad las lógicas multivalentes se definen en general como aquéllas que permiten valores intermedios entre la verdad absoluta y la falsedad total de una expresión. Entonces el 0 y el 1 están asociados ambos a la certidumbre y la exactitud de lo que se afirma o se niega y el 0,5 a la vaguedad y la incertidumbre máximas. La LD es precisamente eso, una lógica con infinitos valores que puede verse como una generalización de la lógica bivalente tradicional.
El profesor Lofti A. Zadeh de la Universidad de Berkeley, fue creador de esta disciplina, en el año 1962 con la publicación del título "De la Teoría de Circuitos a la Teoría de Sistemas" (Zadeh, L. 1965). Por otra parte, el profesor de la Universidad de Barcelona, Dr. Jaime Gil Aluja, expresó la esencia de la matemática difusa, a través de lo que llamó el principio de la simultaneidad gradual (Espín, R. 2004), lo que superó el principio del tercio excluido y permitió pasar de la lógica booleana a "unas lógicas multivalentes, entre las cuales se destaca la lógica difusa". La aplicación del nuevo principio ha dado lugar a un abundante material teórico denominado "Matemática Difusa"; y a toda una tecnología de aplicación en las más diversas ramas (Espín, R. y Vanti, A. 2005).
CONJUNTOS DIFUSOS.
Para ilustrar el concepto de la lógica difusa y los conjuntos difusos se va a explicar el primer ejemplo que puso Zadeh: el conjunto de "los hombres altos". Según la teoría de la lógica clásica, al conjunto de hombres altos solo pertenecen los que miden más de una determinada altura y esa altura límite es 1.80 metros, así un hombre es considerado alto cuando mide por ejemplo 1.81 metros y uno bajo cuando mide 1.79 metros. Esto no parece una razón muy lógica para catalogar a un hombre de alto o bajo ya que por ejemplo en el caso expuesto la altura de uno a otro solo se diferencia en 2 centímetros.
En casos como este donde no es fácil catalogar algo, se introduce la lógica difusa. Según la lógica difusa, el conjunto de "hombres altos" es un conjunto que no tiene una frontera clara que indique que perteneces a ese grupo o no. El evaluar si un hombre es alto o bajo, se hace mediante una función que define la transición entre alto a bajo y para ello asigna a las distintas alturas un valor entre 0 y 1. Según sea este valor se considera que se pertenece al conjunto o no.
Aplicando esto al caso anterior, un hombre que mida 1.79 metros se puede decir que pertenece al conjunto de hombres altos con un grado de 0.75 y el hombre que medía 1.81 metros pertenece al conjunto de hombres altos con un grado de 0.8. Si representamos esto en una gráfica se obtendrá que la transición entre alto o bajo con la lógica difusa es una curva con cambios no abruptos mientras que con la lógica clásica, el paso de alto a bajo o viceversa es brusco (Ver Figura 1 y 2) (Benito, T. y Duran, M. 2008):
Según la lógica clásica un elemento pertenece o no pertenece al conjunto, sin embargo la lógica borrosa lo que hace es poner un grado de pertenencia al conjunto. Este grado de pertenencia se define mediante la función característica asociada al conjunto difuso: para cada valor que puede tomar la variable x, la función característica µa(x) proporciona el grado de pertenencia de ese valor X al conjunto difuso A.
FUNCIONES DE PERTENENCIA
Las funciones de pertenencia se nombran usualmente como &µ(X) o M(X). Hay ciertas funciones típicas que siempre se suelen usar, tanto por la facilidad de computación que su uso conlleva, como por su estructura lógica para definir su valor lingüístico asociado. Dichas funciones de pertenencia pueden tener diferentes estructuras: rectas, en Z, gausianas, entre otras (Mallo, P. et al. 2010):
sigmoidal o sigmoidea, definida por sus límites inferior a, superior b y el valor m o punto de inflexión, tales que a < b.
El crecimiento es más lento cuanto mayor sea la distancia Para el caso concreto de que es lo usual, se obtiene la siguiente gráfica, con su correspondiente función de pertenencia:
Figura 5. Función trapezoidal unilateral izquierda, gráfica y función de pertenencia.
Figura 6. Función trapezoidal unilateral derecha, gráfica y función de pertenencia
La definición exacta de las funciones de pertenencia depende del concepto a definir, del contexto al que se refiera, de la aplicación; es por ello que debe ser definida por un experto en ese dominio de conocimiento. En general es preferible usar funciones simples, debido a que simplifican muchos cálculos y no pierden exactitud.
SISTEMAS BASADO EN LÓGICA DIFUSA.
Un sistema basado en lógica difusa siempre estará compuesto por los siguientes bloques:
Figura 7. Bloques de un sistema de Lógica Difusa.
BLOQUE DIFUSOR: en este bloque a cada dato de entrada se le asigna un grado de pertenencia a cada uno de los conjuntos difusos considerados mediante la función característica. Las entradas a este bloque son valores concretos de la variable a analizar y los datos de salida son los grados de pertenencia a los conjuntos estudiados.
BLOQUE DE INFERENCIA: este bloque relaciona conjuntos difusos de entrada y de salida y representa a las reglas que definen el sistema.
DESDIFUSOR: en este bloque a partir de los conjuntos difusos procedentes de la inferencia se obtiene un resultado concreto mediante la aplicación de métodos matemáticos de desdifusión.
OPERACIONES LÓGICAS.
Para poder operar con los Conjuntos Difusos es necesario definir las operaciones elementales entre ellos, léase la Unión, la Intersección y el Complemento (Zadeh, L. 1965):
Una característica a destacar en la LD es que no existe una definición única de algunas de las operaciones clásicas como la unión o la intersección de conjuntos, sino que existen múltiples formas de desarrollar estas operaciones: Zadeh, Probabilístico, Lukasiewicz, Compensatorio, entre otros (Zadeh, L. 1965; Espín, R. et al. 2006). Esto implica que a la hora de utilizar conjuntos difusos se debe definir no sólo las funciones de pertenencia que caracterizan cada conjunto, sino también el operador concreto a utilizar para desarrollar cada operación.
LÓGICA DE PREDICADOS.
El instrumento fundamental de comunicación humana es el lenguaje, formado por frases de tipo interrogativo, imperativo y declarativo. Estas últimas presentan en muchos casos un grado de veracidad (Ceruto, T. 2010)
Para determinar ello la LD puede aportar mucho pues la vaguedad y la incertidumbre son los objetos de su modelado. Una propiedad esencial de esta lógica es el "principio de gradualidad" el cual afirma que una proposición puede ser verdadera y falsa a la vez, siempre que se le asigne un grado de verdad y de falsedad.
Una manera de poner en práctica el principio de gradualidad es la definición de lógicas donde las proposiciones pueden expresarse mediante predicados. Precisamente la lógica de predicados estudia las frases declarativas con un grado de detalle, considerando la estructura interna de las proposiciones. Está basada en la idea de que las sentencias realmente expresan relaciones entre objetos, así como también cualidades y atributos de tales objetos. Los objetos (elementos básicos) se conocen como argumentos o términos del predicado y pueden ser personas, objetos físicos, o conceptos.
En esencia un predicado es una función del universo X en el intervalo [0,1] y las operaciones de conjunción (), disyunción (), negación () e implicación (), se definen de modo que al ser restringidas al dominio {0,1} se obtiene la Lógica Booleana.
Ellos, junto con otros operadores, garantizan la combinación efectiva de elementos intangibles valorados a través de expertos considerando escalas categoriales de veracidad, con información cuantitativa, que aporta valores de verdad a través de predicados definidos convenientemente a partir de tal información.
Los predicados se pueden representar de diferentes formas, una de ellas son: los árboles. Por ejemplo un predicado se puede representar utilizando un árbol general (para evitar asociatividad) donde cada nodo puede ser un operador. Esta variante está siendo implementada por debido a su carácter recursivo y potencialmente descriptivo.
A modo de ejemplo de construcción de predicados a partir de una expresión verbal, a continuación aparecen una y su traducción al lenguaje del Cálculo de Predicados:
Una empresa es competitiva si cumple los siguientes requisitos:
si es eficiente y,
eficaz.
Se definen los siguientes predicados simples:
EE(X): La empresa X es eficiente.
EZ(X): La empresa X es eficaz.
El predicado compuesto se definen como: C(X): La empresa X es competitiva.
Entonces su traducción al lenguaje de cálculo es: C(X)= EE(X) EZ(X).
En la Figura 8 se ilustra a través de un árbol de predicados:
Figura 8. Representación Arbórea de un Predicado.
LA LÓGICA DIFUSA Y LA MODELACIÓN DE LA DECISIÓN.
El uso de una diversidad de operadores con propiedades que generalizan la Lógica Bivalente, pareciera ser la manera natural de modelar problemas de decisión a partir del lenguaje. De hecho, las aplicaciones en el campo de la Toma de Decisiones han sido hechas básicamente a partir del concepto de operador, más que en el de Lógica Multivalente (Dubois, D. y Prade, H. 1985). Sin embargo, esta manera de abordar las decisiones no proporciona la mejor base para utilizar la capacidad de la Lógica Difusa para la transformación del conocimiento y las preferencias del decisor en fórmulas lógicas. El uso del lenguaje como elemento de comunicación entre un analista y un decisor a la manera en que suele plantearse entre un Ingeniero del Conocimiento y un experto apunta más al uso de una combinación armónica de operadores, que hacia el uso de sólo uno de ellos.
Existen dos características que principalmente dificultan el uso de los enfoques lógicos en la modelación de la decisión.
La propiedad asociativa de los operadores conjunción y disyunción utilizados.
La ausencia total de compensación de los valores de verdad de los predicados simples cuando se calcula la veracidad de los predicados compuestos haciendo uso de los operadores.
La asociatividad característica de una gran parte de los operadores utilizados para la agregación determina que árboles de predicados, que representan preferencias diferentes, produzcan valores de verdad iguales de sus predicados compuestos. Bajo la propiedad de asociatividad los dos árboles de la figura 9 representarían las mismas preferencias, algo inapropiado en un modelo de toma de decisiones. Es obvio, por ejemplo, que el objetivo x tiene mayor relevancia en el árbol de la derecha que en el de la izquierda (Chao, B.; Gil, K. y Muñoz, S. 2010)
Figura 9. Arboles de Predicados.
La falta de compensación es una dificultad seria de un modelo que pretenda normar o describir la realidad del modo de pensar que lleva a la decisión; los enfoques clásicos de la Teoría de la Decisión, la base del pensamiento normativo, incluye modelos como los aditivos, que aceptan la compensación sin límites. Los enfoques descriptivos aceptan la compensación parcial, que parece más afín al razonamiento de los agentes reales. Se puede aceptar o no la compensación total que dimana de los mencionados modelos aditivos de valor o de utilidad, pero hay que admitir al menos su presencia parcial. En rangos no extremos, mejoras en los estados de algunos atributos de los objetos de decisión hacen a estos más deseables para el agente de decisión. Solamente cuando ciertos atributos se encuentran en estados totalmente inaceptables es que puede perderse la capacidad del agente de "sentir" (en sentido preferencial) la mejora de los demás.
En este sentido la falta total de compensación, y la asociatividad son limitaciones importantes de operadores frecuentemente utilizados para la agregación de preferencias, como por ejemplo los operadores mínimo o producto, y en general las llamadas normas, que junto a las conormas, constituyen el paradigma mas usado para definir lógicas multivalentes.
Los elementos explicados sugieren que para su aplicación a la toma de decisiones, es deseable la creación de sistemas lógicos multivalentes no asociativos, y que faciliten la compensación de los valores de verdad de unos predicados básicos con otros. La Lógica Difusa Compensatoria es una Lógica Multivalente que satisface estos requerimientos. Ésta se propone como un enfoque lógico de la decisión, que une la modelación de la decisión y el razonamiento.
LA LÓGICA DIFUSA COMPENSATORIA BASADA EN LA MEDIA GEOMÉTRICA
CONCEPTOS GENERALES
La Lógica Difusa Compensatoria fue creada por el grupo científico multidisciplinario Gestión Empresarial en la Incertidumbre: Investigación y Servicios (GEMINIS) del Instituto Superior Politécnico José Antonio Echeverría (ISPJAE), en La Habana, Cuba (Espín, R. y Vanti, A. 2005). El Dr. Rafael Espín Andrade profesor titular del ISPJAE constituye uno de sus líderes más representativos.
La LDC constituye una rama de la Lógica Difusa. Se trata de un nuevo sistema multivalente que rompe con la axiomática tradicional de este tipo de sistemas para lograr un comportamiento semánticamente mejor a los sistemas clásicos (Delgado, T. 2005a) y (Delgado, T. 2005b).
En los procesos que requieren toma de decisiones, el intercambio con los expertos lleva a obtener formulaciones complejas y sutiles que requieren de predicados compuestos. Los valores de verdad obtenidos sobre estos predicados compuestos deben poseer sensibilidad a los cambios de los valores de verdad de los predicados básicos.
Esta necesidad se satisface con el uso de la LDC, que renuncia al cumplimiento de las propiedades clásicas de la conjunción y la disyunción, contraponiendo a éstas la idea de que el aumento o disminución del valor de verdad de la conjunción o la disyunción provocadas por el cambio del valor de verdad de una de sus componentes, puede ser "compensado" con la correspondiente disminución o aumento de la otra. Un crecimiento o decrecimiento en el valor de verdad de la conjunción o disyunción como resultado de un cambio en el valor de verdad de alguna componente, puede ser compensado por el crecimiento o decrecimiento en otra componente. Esta noción hace que la LDC sea una lógica sensible. Existen casos en los que la compensación no es posible. Esto ocurre cuando son violados ciertos umbrales y existe un veto que impide la compensación.
La Lógica Difusa Compensatoria está formada por una cuarteta de operadores continuos: conjunción(c), disyunción (d), orden estricto difuso(o) y negación(n) (Espín, R. y Fernández, E. 2009).
El Axioma de Compensación, que da nombre a la estructura propuesta, es el más importante; la propiedad que refleja suele ser utilizada en la literatura de operadores difusos para definir el concepto de operador compensatorio (Detyniecki, M. 2000). Obsérvese que para el caso particular de dos componentes, el hecho de que el valor del operador se encuentre entre el mínimo y el máximo, puede interpretarse como que el segundo valor compensa el valor del primero en la veracidad de la conjunción. La idea se generaliza al caso de n componentes.
El Axioma de Conmutatividad o Simetría es deseable porque es natural que su resultado sea independiente del orden en que se tomen los predicados básicos.
La introducción del Axioma de Crecimiento Estricto dota al sistema de una sensibilidad que hace que cualquier variación en los valores de los predicados básicos modifique el valor de verdad del predicado compuesto, siempre que ninguno de los predicados básicos tenga valor cero. Como consecuencia de este axioma se tiene además la deseada propiedad de no asociatividad porque no existen operadores compensatorios asociativos, estrictamente crecientes (Dubois, D. y Prade, H.1985).
El nombre de Axioma de Veto, alude a su interpretación en el marco de los problemas de decisión; esta propiedad otorga a cualquier predicado básico de una conjunción la capacidad de vetar, es decir la capacidad de impedir cualquier forma de compensación cuando su valor es igual a cero.
De acuerdo con los axiomas g y f, un orden estricto es un predicado o: U2 ([0,1] si se cumplen las dos condiciones siguientes:
1. o(x,y) = n[o(y,x)] (reciprocidad difusa)
2. si o(x,y) ( 0.5 y o(y,z) ( 0.5, entonces o(x, z) ( max(o(x,y),o(y,z)) (transitividad difusa max-max)
La propiedad de antisimetría (p(x,y) ( 0 ( p(y,x) = 0) que emplean otros autores para definir orden estricto no es compatible con el deseado comportamiento sensible ante cambios en los predicados básicos (Axioma de Crecimiento Estricto). La selección de la fuerte propiedad transitividad difusa max-max implica, en presencia de la reciprocidad difusa, permite la satisfacción de un grupo de propiedades deseables que aportan mayor significación al orden estricto.
Con esta definición la función con n(x) = 1( x es un orden estricto sobre el universo del predicado C (Dubois, D. y Prade, H. 1980), que ya ha sido utilizado con éxito. El predicado o(x,y) permite entonces medir "cuánto mejor es x que y" si C mide la conveniencia de las alternativas x, y para el decisor. Si o(x,y) = 0.5, entonces x, y se considerarían indiferentes. Más aún, este orden lógico puede ser interpretado de manera más general para comparar las veracidades de afirmaciones modeladas a través de predicados. Es un instrumento ordinal que establece una relación coherente entre las preferencias del Decisor y las veracidades atribuidas a su conocimiento; entre las propiedades de toma de decisiones y las propiedades relacionadas con el pensamiento lógico. Estos elementos aparecen separados en los modelos teóricos que se han propuesto antes.
Las leyes de De Morgan son propiedades esenciales en el comportamiento, que relacionan de una manera natural y universalmente aceptada los operadores conjunción y disyunción. Partiendo de la apuntada selección de los operadores o y n, su introducción permite comprobar fácilmente un comportamiento similar al del operador conjuntivo que se expresa en las siguientes propiedades:
Figura 10. Operador and.
La disyunción d (or), es el operador dual de la media geométrica, que garantiza el cumplimiento de las reglas de De Morgan (Espín, R. et al. 2006):
con la siguiente representación de la
Figura 11.
Figura 11. Operador or.
Figura 12. Operador Implicación.
Aunque ha sido estudiada también la implicación siguiente:
con la siguiente representación de la Figura 13.
Figura 13. Operador Implicación.
Los modificadores más utilizados son funciones de la forma f(x)=xa donde a es un exponente mayor o igual que cero. Suelen utilizarse por ejemplo los exponente 2 y 3 para modelar las palabras muy e híper, y el exponentes ½ para modelar las palabras algo y más o menos (Dubois, D. y Prade, H.1985).
Los cuantificadores universal y existencial son introducidos a través de las siguientes fórmulas:
Para el caso de conjuntos acotados de Rn, los cuantificadores universal y existencial son definidos de manera natural desde los conceptos de conjunción y disyunción respectivamente, pasando al caso continuo a través del cálculo integral (Espín, R.; Fernández, E. y González, E. 2011):
RELACIÓN DE LA LÓGICA DIFUSA COMPENSATORIA CON LA LÓGICA BOOLEANA
Las fórmulas del Cálculo Proposicional de la Lógica Compensatoria (CLPC) son funciones de los operadores c, d, n e i.
De acuerdo con el Cálculo de Predicados introducido a través de las definiciones de los cuantificadores, las formulas del Cálculo Proposicional que se satisfacen son exactamente las del Cálculo Proposicional Clásico, utilizando cualquiera de las implicaciones mencionadas anteriormente (Espín, R. et al. 2006).
INFERENCIA COMPUESTA
Otra importante propiedad de la Lógica Difusa Compensatoria es la siguiente:
Esta propiedad permite la estimación de la veracidad de una proposición universal usando una muestra. Puede ser usada para razonar utilizando una inferencia compuesta, que traduce del lenguaje para modelar hipótesis utilizando predicados de la LDC, y estimar la veracidad utilizando las veracidades de estos predicados sobre la muestra. Esta inferencia puede ser utilizada también utilizando el mismo esquema de razonamiento, aplicando técnicas de Monte Carlo para estimar la veracidad de una proposición universal.
LA MODELIZACIÓN DE LA VAGUEDAD.
En la LDC la modelización de la vaguedad se logra a través de variables lingüísticas, lo que permite aprovechar el conocimiento de los expertos, al contrario de lo que ocurre en otros métodos más cercanos a las cajas negras y exclusivamente basados en datos, como por ejemplo las redes neuronales. Dichas variables lingüísticas tienen su fundamento en escalas del tipo siguiente (Ver Tabla 1).
Tabla 1: Valores de Verdad.
Valor de Verdad | Categoría |
0 | falso |
0,1 | casi falso |
0,2 | bastante falso |
0,3 | algo falso |
0,4 | más falso que verdadero |
0,5 | tan verdadero como falso |
0,6 | más verdadero que falso |
0,7 | algo verdadero |
0,8 | bastante verdadero |
0,9 | casi verdadero |
1 | verdadero |
Existen autores como (Dubois, D. y Prade, H. 1985) que recomiendan el uso de funciones de pertenencia sigmoidales para funciones crecientes o decrecientes. Los parámetros de estas funciones quedan determinados fijando dos valores. El primero de ellos es el valor a partir del cual se considera que la afirmación contenida en el predicado es más cierta que falsa, por ejemplo pudiera establecerse a partir de 0.5. El segundo es el valor para el cual el dato hace casi inaceptable la afirmación correspondiente, por ejemplo pudiera establecerse a partir de 0.1.
En la actualidad existe un Sistema de Soporte a Decisiones Basado en Árboles con Operadores de Lógica Difusa cuyo nombre es Fuzzy Tree Studio 1.0 desarrollado en la Universidad de Mar del Plata, Argentina (Gesualdo, S. 2010) que posee un módulo que trabaja con la LDC. Ello permite al agente decisor despreocuparse por el trasfondo matemático y centrarse en la formulación verbal del modelo que le permita tomar una decisión.
En general los modelos basados en LDC combinan la experiencia y el conocimiento con datos numéricos, por lo que puede ser visto como una "caja gris". Los modelos basados en LD pueden verse como "cajas blancas", dado que permiten ver su estructura explícitamente. En contraposición a los modelos basados en datos exclusivamente, como las Redes Neuronales, que corresponderían a "cajas negras".
Estos modelos pueden ser optimizados cuando se dispone de datos reales numéricos. El método de optimización puede provenir de la Inteligencia Computacional. En este contexto, los Algoritmos Genéticos presentan una alternativa interesante (Pedrycz, W.; Reformat, M. y Li, K. 2006). Este enfoque constituye el fundamento de los sistemas híbridos.
La tendencia de las investigaciones sobre gestión empresarial, mediante las técnicas de la LDC, está orientada a la creación de sistemas híbridos que integren esta con las habilidades de las Redes Neuronales y las posibilidades de los Algoritmos Genéticos y la Lógica de Conjuntos. La creación e implementación de estos sistemas mixtos permite resolver problemas complejos y de difícil solución; en las que se usan estimaciones subjetivas sustentadas en la experiencia y en la información disponible, como son: modelos de decisión utilizados con criterios de optimización, ubicación de centros comerciales, estrategia de entrada a mercados, selección de carteras de productos y servicios, desarrollo de aplicaciones informáticas, métodos para problemas de descubrimiento de conocimiento, métodos para evaluar la eficiencia de diferentes tipos de instituciones, entre otras.
La Lógica Difusa Compensatoria (LDC) es un modelo lógico multivalente que renuncia a varios axiomas clásicos para lograr un sistema idempotente y "sensible", al permitir la "compensación" de los predicados. En la LD el valor de verdad de la conjunción es menor o igual a todas las componentes, mientras que el valor de verdad de la disyunción es mayor o igual a todas las componentes. La renuncia de estas restricciones constituye la idea básica de la LDC (Espín, R. y Mazcorro, G. 2007) y (Mechino, G. 2008).
El Cálculo con Palabras propuesto por Zadeh y Kacprzyk (Zadeh, L. y Kacprzyk, J. 1999) parte de las llamadas variables lingüísticas. Muchas aproximaciones a la toma de decisiones han usado estas variables para modelar la información, combinadas con relaciones difusas de preferencia y matrices. Existen importantes avances en la modelación de las preferencias con el uso de información lingüística.
A continuación se ilustra con ejemplos de diferentes grados de complejidad la oportunidad que ofrece una LDC para resolver problemas de decisión de la vida real, con ayuda del lenguaje natural o profesional. Estos casos de estudios tienen en común que:
Se utilizaron funciones de pertenencia sigmoidales que en el caso de funciones crecientes o decrecientes son recomendadas en la literatura por consideraciones teóricas (Dubois, D. y Prade, H. 1985). Ciertos parámetros de estas funciones quedan determinados fijando las preimágenes de dos valores.
Los valores de verdad se obtuvieron o bien directamente a través de la evaluación de expertos debidamente informados, o a través de funciones de pertenencia sobre datos numéricos en los predicados que esto fue posible.
El uso de condicionales permitió, incrementar las exigencias de un predicado simple partiendo del estado de otro. Ello podría describir, situaciones de dependencia preferencial.
La implicación utilizada en los cálculos fue que es considerada que posee un mejor comportamiento (Espín, R. et al. 2006).
CASO INDUSTRIA DEL NIQUEL.
La Empresa Constructora y Reparadora de la Industria del Níquel(ECRIN), en Moa, Cuba, tiene la misión de: garantizar los trabajos de construcción y reparaciones, de manera competitiva, que demanden la industria del níquel y la infraestructura social de la región, con personal calificado y tecnología de avanzada, para ello brinda servicios de:
1. Obras ingenieras: construcción de caminos; explanaciones, escombreo minero, construcción de diques, entre otras.
2. Montaje industrial. Mecánica (equipos estáticos y dinámicos; eléctrico (circuito de fuerza e instalaciones eléctricas); instrumentación (tuberías de impulso y señal, instalaciones de circuitos e instalaciones de instrumentos de medición y flujo).
3. Reparaciones capital y mantenimiento: mecánica, pailería y soldadura, reverbería, eléctrica e instrumentación.
4. Construcción civil. Obras de arquitectura, ingeniería e industriales.
5. Protección anticorrosiva: epoxidica, alquídica y vinílica.
6. Laboratorio para ensayos de: hormigón, cemento, áridos y defectoscopía (rayos x, líquidos penetrantes, medición de espesores e inspección visual).
En los análisis desarrollados por expertos de la ECRIN, resulta que existen perspectivas de desarrollo en el sector de la construcción, a partir de los proyectos de modernización de sus principales clientes: las fábricas "Pedro Sotto Alba" y "Ernesto Che Guevara", que requieren de un nivel superior de servicio para garantizar su permanencia en el mercado, y consecuentemente para su propio desarrollo como organización (Brunet, I. y Alfonso, D. 2010).
El presente caso tiene como objetivo describir un modelo capaz de evaluar la eficiencia de la Empresa Constructora y Reparadora de la Industria del Níquel. En su construcción participaron como expertos, el consejo de dirección de la empresa y profesores del ISPJAE.
A continuación aparecen las formulaciones verbales y su traducción al lenguaje del Cálculo de Predicados:
La empresa ECRIN es eficiente, si cumple los siguientes requisitos:
si incrementa la satisfacción de las expectativas de sus clientes.
Se incrementa la satisfacción de expectativas de sus clientes, si cumple los plazos de ejecución e incrementa la calidad de los servicios.
si incrementa la satisfacción de los proveedores.
Se incrementa la satisfacción de proveedores, si incrementa la cuota de mercado y mantiene buenas relaciones de pago.
si incrementa su solidez económica.
Incrementa su solidez económica, si mejora su estado financiero o aumenta en gran medida las ventas.
A continuación se definen predicados simples:
Pe(X): "Se mejora el indicador de cumplimiento de los plazos de ejecución"
Cs(X): "Se incrementa la calidad de los servicios"
Cm(X): "Se incrementa la cuota de mercado"
Rp(X): "Se mantienen buenas relaciones de pago"
Ef(X): "Mejoran los estados financieros"
V(X): "Incrementan las ventas"
Los predicados compuestos se definen como:
E(X): "La empresa es eficiente"
EC(X): "Se incrementa la satisfacción de consumidores"
EP(X): "Se incrementa la satisfacción de proveedores"
SE(X): "Se incrementa la solidez económica"
Entonces el modelo es el siguiente predicado compuesto:
E(X) = EC(X)( EP(X) ( SE(X)
Dónde:
EC(X) =Pe(X) (Cs(X)
MM(X) =Cm(X) ( Rp(X)
IE(X) =Ef(X) V(X)2
En la Figura 14 se ilustra el modelo a través de un árbol lógico. En él se define los predicados simples y compuestos.
Figura 14. Modelo para evaluar la competitividad de la empresa ECRIN.
Una vez obtenidos valores de verdad de los predicados simples para el período 2009-2010 se procedió a calcular la veracidad de los predicados compuestos EC(X), EP(X), SE(X) y GA(X) para calcular el grado de verdad de C(X).
Tabla 2: Evaluación de la competitividad de la empresa ECRIN.
Predicados Compuestos | Valor de Verdad | Categoría |
EC | 0.65 | más verdadero que falso |
EP | 0.63 | más verdadero que falso |
SE | 0.68 | más verdadero que falso |
E | 0.65 | más verdadero que falso |
Como se evidencia se puede decir que es más verdadero que falso que la empresa ECRIN es eficiente sin embargo los valores de verdad obtenidos demuestran lo mucho que tiene que avanzar para llegar a ser una empresa eficiente verdaderamente.
CASO GESTIÓN DEL MERCHANDISING.
En la actualidad han disminuido las ventas en la pequeña y mediana empresa de comercio minorista como consecuencia de la crisis financiera internacional. Ante esta situación una gestión de merchandisng eficiente en este tipo de organización permite lograr el difícil objetivo de satisfacer las necesidades de los clientes obteniendo beneficios aún en un entorno hostil.
El merchandising es todas las acciones destinadas a aproximar el producto al consumidor en el punto de venta, con el fin de conseguir una mayor rotación del producto. El diseño de la arquitectura de un establecimiento es un aspecto importante en la gestión de merchandising de cualquier formato comercial.
Estos aspectos son determinados, principalmente, por expertos que tienen suficiente habilidad para tomar decisiones correctas a partir de un conjunto de datos que están expresados lingüísticamente de forma vaga o imprecisa casi siempre utilizando adjetivos o adverbios como mucho, alto, normal, muy, etc.
Página siguiente |