Monografias.com > Estadística > Matemáticas
Descargar Imprimir Comentar Ver trabajos relacionados

La teoría de conjuntos aproximativos. Una herramienta Data Mining




Enviado por willy



    1. Resumen
    2. Fundamentos
      teóricos
    3. Ejemplo de
      aplicación
    4. Conclusiones

    I
    RESUMEN

    La Teoría de Conjuntos Aproximativos
    (TCA), que viene de la denominación inglesa Rough Set
    Theory
    (Pawlak, 1982), es una teoría que se ha venido
    desarrollando desde la década de los 80, cuyo autor es el
    investigador polaco Zdzislaw Pawlak. A través de todo este
    tiempo, como
    toda teoría, se ha ido enriqueciendo con nuevos aportes,
    derivados de una mayor investigación sobre sus alcances y
    bondades, tanto para aplicaciones teóricas como
    prácticas. Teniendo en cuenta que es una herramienta Data
    Mining, actualmente tiene aplicaciones en diferentes campos,
    sobretodo en sistemas de apoyo
    a la decisión y sistemas gerenciales de información.

    Las herramientas
    Data Mining, definidas de una forma resumida, vienen a ser el
    conjunto de procedimientos y
    técnicas que buscan extraer patrones dentro
    de un conjunto de datos (Marakas,
    1998). En ese sentido, la TCA se basa en el concepto de
    "indiscernibilidad". Considerando que indiscernir
    significa no conseguir distinguir una cosa de otra, por medio de
    los sentidos o
    de la inteligencia
    humana, lo que busca la TCA es encontrar todos aquellos objetos
    (acciones,
    alternativas, candidatos, pacientes, etc) que producen un mismo
    tipo de información, es decir, aquellos objetos que son
    "indiscernibles" (Pawlak y Slowinski, 1993). A partir de este
    concepto es que entonces se generan las bases de matemáticas de esta teoría.
    Así, el presente trabajo busca
    mostrar los alcances de esta teoría, y mediante un ejemplo
    simple en el área del diagnóstico médico, tratar de dar un
    mejor entendimiento de ella.

    Palabras clave: Teoría de Conjuntos
    Aproximativos, Rough Set Theory, Data Mining

    II FUNDAMENTOS
    TEÓRICOS

    Se tenemos en cuenta que a todo objeto se le puede
    asociar algún tipo de información basados en sus
    atributos/características, entonces es factible
    representar estos atributos por medio de una tabla de
    información
    . Dentro de una tabla de
    información, las filas representan los objetos, en cuanto
    que las columnas representan los atributos. Las entradas de la
    tabla, que no son otra cosa más que pares (objeto,
    atributo), vienen a ser los valores de
    cada objeto para cada atributo. La tabla de información
    debe ser entendida, en términos prácticos, como una
    matriz finita,
    tal como se observa en la tabla 1.

     

     

    Atributo 1

     

    Atributo 2

     

    ……….

    Atributo n

    Objeto 1

     

    Valor 1, 1

     

    Valor 1, 2

     

    ……….

    Valor 1, n

    Objeto 2

     

    Valor 2, 1

     

    Valor 2, 2

     

    ……….

    Valor 2, n

    ………

     

    ……….

     

    ……….

     

    ……….

    ……….

    Objeto m

     

    Valor m, 1

     

    Valor m, 2

     

    ……….

    Valor m, n

    Tabla 1: Representación de una
    tabla de información

    En relación a los atributos, debemos mencionar
    que la TCA divide los atributos en: atributos de
    condición
    (criterios, pruebas,
    síntomas, etc) y en atributos de decisión
    (decisiones, clasificaciones, taxonomias, etc). La TCA usa la
    noción de atributo, en vez de criterio, debido a que el
    dominio
    (escala) de un
    criterio tiene que estar ordenado de acuerdo a las preferencias,
    sean estas crecientes o decrecientes; en cuanto que, el dominio
    de un atributo no necesita ser ordenado. De esa forma, la
    noción de criterio puede ser usada cuando el orden de la
    preferencia del dominio del atributo es importante en
    algún determinado contexto (Zopounidis y Dimitras,
    1998).

    2.1 Tabla de Información y Relación de
    Indiscernibilidad

    Esta teoría supone que una situación de
    decisión puede ser representada por una tabla de
    información, formada por una cuádrupla:

    S = <U, Q, V, f>

    donde:

    U es un conjunto finito de objetos,

    Q es un conjunto finito de atributos,

    V = (Vq es el dominio del atributo q), y

    f: U ´
    Q ® V
    es una función,
    llamada función de información, tal que
    f(x,q) Î
    Vq para todo q Î Q, x Î U

    Así, dado que S = <U, Q, V, f> esta
    definida como una tabla de información, y
    PÍ
    Q
    , además que, x e
    y Î
    U; entonces, las variables
    x e y son indiscernibles para el conjunto de
    atributos P definidos en S, si y solo si
    f(x,q)=f(y,q), para todo q Î P. Cada
    PÍ
    Q
    da lugar a una relación binaria
    en U, denominada relación de
    indiscernibilidad
    , denotada por Ip, y que
    representa una relación de equivalencia para cada
    P. Las clases de equivalencia de la relación
    Ip son llamadas de conjuntos elementales
    en S, e Ip(x) denota un conjunto
    P-elemental conteniendo objetos x Î U. La familia de
    todas las clases de equivalencia de la relación
    Ip en U, son denotadas como
    U |
    Ip
    .

    A cada objeto se asocia un descriptor, denotado por
    DESP(X), el cual hace una descripción del conjunto P-elemental
    x Î
    U |
    Ip
    en relación a
    los valores de
    los atributos de P, es decir:

    DESP(x) = <(q,v) :
    f(x,q)=v, "
    x Î
    U, "
    q Î
    P>

    2.2 Aproximaciones de los Conjuntos y
    Regiones

    Sea PÍ Q y
    YÍ
    U
    . Entonces, la aproximación
    P-inferior
    de Y (denotada por PY) y la
    aproximación P-superior de Y (denotada por
    Y) son
    definidas de la siguiente manera:

    PY = {x Î U:
    Ip(x)Í Y},

    Y = {x Î U: }

    El conjunto P-frontera de Y, denotado por
    Bnp(Y), esta definido como:

    Bnp(Y) = Y – PY

    A partir de las aproximaciones superior e inferior, son
    definidas tres regiones (ver figura 1):

    • La Región Positiva: Denotada por
      POS(Y), esta región está conformada por
      todos los elementos de U que con seguridad
      pueden ser clasificados como elementos de Y, a partir de
      los atributos P. Definida así, en realidad la
      región Positiva es equivalente a la aproximación
      inferior, esto es:

    POS(Y) = PY

    • La Región Frontera:
      Denotada por Bnp(Y), esta región esta
      conformada por todos elementos de U, que por lo menos
      presentan un atributo de Y. Se define como:

    Bnp(Y) = Y – PY

    • La Región Negativa: Denotada por
      NEG(Y), esta región esta conformada por todos los
      elementos de U, que con seguridad no son elementos de
      Y, considerando los atributos P. Se define
      como:

    NEG(Y) = U – Y

    Figura 1: Relaciones entre las
    aproximaciones y las regiones

    2.3 Precisión de la
    Aproximación

    Con cada conjunto Y Î U, esta asociado un ratio
    llamado precisión de la aproximación del
    conjunto Y, en relación al conjunto de atributos
    P, definidos en la cuádrupla S = <U, Q, V,
    f>
    . La precisión de la información
    a P(Y), se
    define como:

    donde card() representa la cardinalidad del
    conjunto.

    2.4 Calidad de la
    Aproximación:

    Suponiendo que tenemos una tabla de información S
    = <U, Q, V, f>, con PÍ Q, y Y= {Y1, Y2,
    …., Yn} siendo una
    clasificación de U, donde además los subconjuntos
    Yi, con i =1, 2, …, n, son clases disyuntivas
    de Y. Con esa base, la aproximación inferior de Y en S
    puede ser denotada como:

    PY = { PY1,
    PY2, ….,
    PYn}

    Entonces, la calidad de la aproximación de la
    clasificación de Y, por el conjunto de atributos P, esta
    definida por la siguiente relación:

    La relación expresa cuantos objetos de P
    están correctamente clasificados en relación a
    todos los objetos de U.

    2.5 Dependencia de los atributos y
    Reducciones

    Una de las características más importantes
    de la TCA, es que esta puede descubrir dependencias entre los
    atributos. En problemas de
    clasificación que usan múltiplos atributos,
    generalmente lo ideal es trabajar con el menor número de
    atributos, pero, sin que ello signifique una pérdida de
    calidad al momento de realizar la
    clasificación.

    Se dice que el conjunto de atributos RÍ Q depende del conjunto de
    atributos PÍ
    Q en S (denotado como P® R), si y solo si,
    IPÍ IR. Es bueno resaltar
    que el descubrimiento de dependencias entre los atributos es de
    importancia primordial en la TCA, ya que de ello depende tener
    que hacer una mayor o menor cantidad de cálculos, debido a
    que se podrían eliminar atributos sin que ello signifique
    una pérdida de información.

    Así mismo, al subconjunto mínimo R
    Í P
    Í Q, tal
    que g
    P(Y) = g R(Y), se le denomina
    Y-reducción de P, la cual puede ser representada
    como REDY(P). Según esta definición, un
    sistema puede
    poseer más de una Y-reducción. A la
    intersección de todas las Y-reducciones se le denomina
    Y-núcleo de P, al cual se le representa como
    NUCY(P). Entonces, de la definición anterior
    tenemos que:

    NUCY(P) = Ç
    REDY(P)

    El núcleo NUCY(P), viene a ser la
    colección de los más importantes atributos de una
    tabla de información.

    2.6 Reglas de Decisión

    Slowinski y Stefanowski (1989) establecen que dada una
    tabla de información, S = <U, Q, V, f>, a partir de
    ella se puede deducir un conjunto de reglas de decisión.
    Para transformar una tabla de información en una tabla de
    decisión. Para ello, se necesita definir un conjunto de
    atributos (Q), tal que:

    Q=CÈ D y CÇ D=Æ

    donde C representa los atributos de condición, y
    D los atributos de decisión.

    Así, sea U| IC una familia de todos
    los conjuntos C-elementales denominados clases de condiciones y
    designados por Xi (i = 1, 2, …, m). Sea
    también, la familia U| ID, la familia de todos los
    conjuntos D-elementales designados por Yj (j = 1, 2,
    …, n), y denominados clases de decisiones. Entonces, se
    define (C, D), la regla de decisión, como siendo la
    relación causal DESC(Xi) Þ
    DESD(Yj).

    Dada esta definición, las reglas tendrían
    la forma de sentencias lógicas del tipo SI …
    ENTONCES, que relacionan los descriptores de las clases de
    decisión y de condición. El conjunto de reglas para
    cada clase de
    decisión Yj (j = 1, 2, .., n) es denotado por
    {rij}, y es definido
    como:

    {rij} =
    {DESC (Xi) Þ DESD (Yj) :
    Xi Ç
    Yj ¹ Æ
    , i = 1, 2, …, k}

    La regla rij, será
    determinística, si y solo si, Xi
    Í Yj;
    en caso contrario será no-determinística. En otras
    palabras, si DESC(Xi) solo implica
    DESP(Yj), entonces la regla es determinística;
    de no ser así, será
    no-determinística.

    Según Pawlak y Slowinski (1993), existen
    diferentes procedimientos que permiten derivar reglas de
    decisión, sin embargo, los algoritmos
    existentes usan algunas de las siguientes estrategias:

    • Generación de un conjunto mínimo de
      reglas, cubriendo todos los objetos de una tabla de
      decisión.
    • Generación de un conjunto exhaustivo de
      reglas, buscando obtener todas las posibles reglas de una tabla
      de decisión.
    • Generación de un conjunto "fuerte" de reglas,
      que eventualmente podría ser discriminante, pero
      cubriendo a muchos objetos de la tabla de decisión, es
      decir, no se llega a cubrir necesariamente a todos los
      objetos.

    III EJEMPLO DE
    APLICACIóN

    El presente ejemplo esta basado en el modelo
    propuesto por Pawlak (1991), el cual usa la tabla de
    información S = <U, Q, V, f>, mostrada en la tabla
    2.

    Paciente

    Dolor de Cabeza

    C

    Dolor Muscular

    M

    Temperatura

    T

    Gripe

    G

    1

    No

    Si

    Alta

    Si

    2

    Si

    No

    Alta

    Si

    3

    Si

    Si

    Muy alta

    Si

    4

    No

    Si

    Normal

    No

    5

    Si

    No

    Alta

    No

    6

    No

    Si

    Muy alta

    Si

    Tabla 2: Tabla de información
    sobre un grupo de
    pacientes

    • U = {1, 2, 3, 4, 5,
      6} …….…. Objetos
      (Pacientes)
    • C = {Dolor de cabeza, dolor muscular, temperatura} …………
      Atributos de Condición
    • D = {gripe} …………
      Atributos de Decisión
    • Q = {Dolor de cabeza, dolor muscular, temperatura,
      gripe} ……….. Atributos

    Recordar que Q = C È D

    • VDolor de cabeza = Vc = {Si,
      No} ………… Dominio del
      atributo
    • VDolor muscular = Vm = {Si,
      No}

    VTemperatura = Vt = {Normal,
    Alta, Muy alta}

    VGripe = Vg = {Si,
    No}

    • f(1,Vc) = No, f(2,Vm) = No,
      f(3,Vt) = Muy alta, f(4,Vg) =
      No,

    f(5,Vc) = Si, f(4,Vt) = Normal,
    etc. …… Función de Información (Paciente,
    Atributo)

    • DESQ (1) = [f(1,Vc),
      f(1,Vm), f(1,Vt), f(1,Vd)] =
      [No, Si, Alta, Si] ……..
      Descriptores

    DESQ (4) = [f(4,Vc),
    f(4,Vm), f(4,Vt), f(4,Vd)] =
    [No, Si, Normal, No]

    • U|
      IQ = {{No, Si, Alta, Si}, {Si, No, Alta,
      Si}, {Si, Si, Muy alta, Si},

    {No, Si, Normal, No}, {Si, No, Alta, No}, {No, Si, Muy
    alta, Si}}

    De forma práctica se dice que:
    U|
    IQ = {{1}, {2}, {3}, {4}, {5}, {6}}

    Debido a que Atributos = Q, se dice que son
    D-indiscernibles, por lo tanto, U| IQ esta conformado por
    átomos de Q, caso contrario, serían sólo
    conjuntos elementales

    Si se define P = {Dolor muscular, Temperatura},
    entonces:

    U|
    IP = {{Si, Alta}, {No, Alta}, {Si, Muy Alta},
    {Si, Normal}} = {{1}, {2, 5}, {3, 6}, {4}}

    En este caso como PÍ Q, entonces
    U| IP
    esta conformado solamente por conjuntos elementales.

    • IQ = {(1,1), (2,2), (3,3), (4,4), (5,5),
      (6,6)}

    IP = {(1,1), (2,2), (2,5), (3,3), (3,6),
    (4,4), (5,5), (5,2), (6,6), (6,3)}

    Por lo tanto, P depende de Q (Q® P), ya que
    IQÍ IP

    • Considerando los atributos P = {Dolor muscular,
      Temperatura}, con los cuales se piensa aproximar un conjunto
      Y1 de pacientes, los cuales "presentan
      positivamente Gripe", esto es, Y1 = {1, 2, 3, 6),
      entonces dado que U| IP = {{1}, {2, 5}, {3, 6},
      {4}}, tenemos:

    PY1 = {1, 3, 6} Þ Card
    (PY1) = 3

    Y1 = {1, 2, 3, 5, 6} Þ Card (Y1) =
    5

    Bnp(Y1) = {2, 5}

    a
    P(Y1) = 3 / 5 =
    0.6

    De la misma forma, considerando los atributos P, con
    los cuales se piensa aproximar un conjunto Y2 de
    pacientes, los cuales "no presentan positivamente Gripe",
    esto es, Y2 = {4, 5}, entonces dado que
    U|
    IP = {{1}, {2, 5}, {3, 6}, {4}},
    tenemos:

    PY2 = {4} Þ Card (PY2) =
    1

    Y2 = {2, 4, 5} Þ Card (Y2) = 3

    Bnp(Y2) = {2, 5}

    a
    P(Y2) = 1 / 3 =
    0.33

    Para encontrar la calidad de la aproximación,
    tenemos que: Y = {Y1,
    Y2}. Observe que
    Y1 y Y2 son disjuntos.

    g
    P(Y) = (3 + 1) / 6 =
    0.667

    • Para descubrir las dependencias y obtener las
      reducciones, primero se debe encontrar la calidad de la
      aproximación para todos los atributos del ejemplo. La
      tabla 3 muestra los
      resultados.

    Atributos

    c

    m

    t

    c, m

    c, t

    m, t

    Q

    Calidad de la
    Aproximación

    0.000

    0.000

    0.500

    0.167

    0.667

    0.667

    0.667

    Tabla 3: Calidad de la
    aproximación para todos los atributos

    De los resultados obtenidos en la tabla 3, queda
    claro que:

    I(c,t) = IQ, I(m,t)
    = IQ,

    I(c,m) ¹ IQ, It
    ¹
    IQ, Im ¹ IQ, Ic ¹
    IQ

    Significa que (c,t) y (m,t) son
    reducciones de Q, en cuanto que el resto no lo es.
    Tener en cuenta que se considera que (c,t) y
    (m,t) son reducciones de Q,
    porque:

    g
    Q(Y) = g c,t(Y) =
    g m,t(Y)
    = 0.667

    El núcleo se determina por medio de la
    intersección de las reducciones, esto es:

    NUCY(Q) = (c,t) Ç (m,t) =
    t

    En este caso el núcleo esta formado por un
    solo atributo, el atributo t. Por ello, diremos que
    t es el núcleo de Q, y representa al
    atributo más significativo de Q, el cual no
    puede dejar de ser considerado, ya que su
    eliminación significa obtener aproximaciones de baja
    calidad.

    En relación a los atributos c y
    m, estos pueden ser mutuamente intercambiables.
    Así, queda a criterio personal, trabajar o con los atributos
    (c,t), o con (m,t), considerando que ambos grupos
    de atributos producen la misma calidad de
    información en relación a Q.

    • Finalmente llegamos a la parte de la
      obtención de las reglas de decisión, del tipo
      SI-ENTONCES. Recordar que las reglas son definidas
      como:

    {rij} =
    {DESC (Xi) Þ DESD (Yj) :
    Xi Ç Yj ¹ Æ , i = 1, 2, …, k}

    Por lo tanto, si trabajáramos con todos los
    atributos (c,m,t) tendríamos reglas de la siguiente
    forma:

    1. Si f(x,c) = No y f(x,m) = Si y f(x,t) = Alta,
    entonces f(x,g) = Si

    2. Si f(x,c) = Si y f(x,m) = No y f(x,t) = Alta,
    entonces f(x,g) = Si *

    3. Si f(x,c) = Si y f(x,m) = Si y f(x,t) = Muy alta,
    entonces f(x,g) = Si

    4. Si f(x,c) = No y f(x,m) = Si y f(x,t) = Normal,
    entonces f(x,g) = No

    5. Si f(x,c) = Si y f(x,m) = No y f(x,t) =
    Alta, entonces f(x,g) = No *

    6. Si f(x,c) = No y f(x,m) = Si y f(x,t) = Muy alta,
    entonces f(x,g) = Si

    Si trabajáramos con los atributos (c,t)
    tendríamos reglas de la siguiente forma:

    1. Si f(x,c) = No f(x,t) = Alta, entonces f(x,g) =
    Si

    2. Si f(x,c) = Si f(x,t) = Alta, entonces f(x,g) =
    Si *

    3. Si f(x,c) = Si f(x,t) = Muy alta, entonces f(x,g)
    = Si

    4. Si f(x,c) = No f(x,t) = Normal, entonces f(x,g)
    = No

    5. Si f(x,c) = Si f(x,t) = Alta, entonces f(x,g) =
    No *

    6. Si f(x,c) = No f(x,t) = Muy alta, entonces f(x,g)
    = Si

    Si trabajáramos con los atributos (m,t)
    tendríamos reglas de la siguiente forma:

    1. Si f(x,m) = Si y f(x,t) = Alta, entonces f(x,g)
    = Si

    2. Si f(x,m) = No y f(x,t) = Alta, entonces f(x,g) =
    Si *

    3. Si f(x,m) = Si y f(x,t) = Muy alta, entonces
    f(x,g) = Si **

    4. Si f(x,m) = Si y f(x,t) = Normal, entonces
    f(x,g) = No

    5. Si f(x,m) = No y f(x,t) = Alta, entonces f(x,g) =
    No *

    6. Si f(x,m) = Si y f(x,t) = Muy alta, entonces
    f(x,g) = Si **

    Es notorio el hecho que se presenta en el primer grupo
    de reglas, donde los pacientes 2 y 5, son C-indiscernibles
    (para los atributos de condición, en este caso c, m y
    t); pero no D-indiscernibles (para los atributos de
    decisión). Análogamente ocurre para el segundo y
    tercer grupo de reglas, con los mismos pacientes. Cuando
    acontece eso, se dice que son casos de "frontera", y por tanto
    no pueden ser clasificados de manera apropiada con la
    información disponible. De allí que lo más
    apropiado sería considerar un grupo mayor de atributos
    para explicar la enfermedad con una mayor certeza. Sin embargo,
    mismo así, para los tres conjuntos de reglas,
    todavía se podría obtener información,
    sólo que tendríamos cuatro reglas
    "determinísticas" (para los casos 1, 2, 4, y 5), y una
    regla "no determinística" (para los casos 3 y 6). La
    nueva regla no determinística hace que para las casos 3
    y 6 se fusionarían de la siguiente forma:

    Si …….., entonces f(x,g) =
    (Si o No)

    Un otro hecho notorio, lo observamos en el tercer
    conjunto de reglas, para los pacientes 3 y 6. En este conjunto
    de reglas para los atributos (m,t), vemos que en realidad
    contamos con cinco reglas, ya que las reglas 3 y 6 son iguales,
    por tanto sólo tendríamos 5 reglas, siendo todas
    determinísticas.

    IV
    CONCLUSIONES

    El objetivo del
    presente trabajo es dar a conocer los lineamientos básicos
    de esta relativamente nueva teoría. Por esa razón
    consideramos de suma importancia la difusión de esta
    teoría, considerando que la TCA ha sido y continúa
    siendo utilizada en diversas aplicaciones prácticas (ver
    Pawlak, 1991), sobre todo en temas como: análisis de decisión, sistemas
    expertos, sistemas de apoyo a la decisión,
    reconocimiento de patrones, etc. Las principales ventajas que
    tornan atractiva la TCD en relación a otras teorías, son:

    • Dada una tabla de información, la TCA permite
      la reducción de los atributos, sin pérdida de la
      calidad de la información.
    • Más allá de la determinación de
      los atributos, no es necesaria información adicional, lo
      que conlleva a no tener influencias humanas en los resultados,
      ya que no se realizan estimaciones por parte de
      especialistas.
    • Esta teoría es particularmente útil en
      el tratamiento de datos ambiguos, principalmente cuando los
      métodos
      tradicionales –como los estadísticos- no ofrecen
      resultados satisfactorios.
    • Se puede explicar el porqué de políticas adoptadas, mediante las reglas
      de decisión.
    • Implementaciones prácticas son fáciles,
      debido a la simplicidad de su teoría.

    Para finalizar, diremos que las últimas
    tendencias de investigación de esta teoría,
    están relacionadas con estudio de sistemas con
    información incompleta, determinación de reglas
    con más de un atributo (Pawlak, 1991), y el uso de
    relaciones de dominancia y comparaciones par a par (Greco et
    al, 2001).

    V
    BIBLIOGRAFíA

    Greco, S.; matarazzo, b.; slowinski, r.; 2001. Rough
    sets theory for multicriteria decision analysis, European Journal
    of Operational Research, no 129, p. 1-47.

    MARAKAS, G.; 1998. Decision Support Systems in the 21st
    Century, Prentice-Hall, New York, E.U.A.

    PAWLAK, Z.; 1982. Rough Sets, International Journal of
    Information & Computer Sciences, vol. 11, p.
    341-356.

    PAWLAK, Z.; 1991. Rough Sets – Theoretical Aspects
    of Reasoning about Data, Kluwer Academic Publishers, Boston,
    London.

    PAWLAK, Z.; SLOWINSKI, R.; 1993. Decision Analysis using
    Rough Sets. ICS Research Report no 21, Institute of
    Computer Science, Warsaw University of Technology, Warsaw,
    Poland.

    SLOWINSKI, R.; STEFANOWSKI, J.; 1989. Rough
    Classification in Incomplete Information Systems, Mathematical
    and Computer Modelling, vol. 12, no 10/11, p.
    1347-1357.

    ZOPOUNIDIS, C.; DIMITRAS, A.; 1998. Multicriteria
    Decision Aid for the prediction of business failure, Kluwer
    Academic Publishers, Netherlands.

    M.Sc. William David Morán
    Herrera

    Laboratório de
    Matemáticas/LCMAT/Universidade Estadual do Norte
    Fluminense

    Av. Alberto Lamego, 2000/Campos/RJ/Brasil
    CEP:28.030-480 – Tel/Fax:
    +552227261632 –

    Lic. Javier Martín Morán
    Herrera

    Marketer de Agro Industrial Paramonga S.A.A., Grupo Wong
    – Av. Javier Prado Este 5245/Lima/Perú

    Tel: 3170400 An. 2006, Fax: 3170402 –

    Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

    Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

    Categorias
    Newsletter