Eliminacin de variables para diagramas de influencia con nodos super valor PowerPoint PPT Presentation

presentation player overlay
1 / 47
About This Presentation
Transcript and Presenter's Notes

Title: Eliminacin de variables para diagramas de influencia con nodos super valor


1
Eliminación de variables para diagramas de
influencia con nodos super valor
  • Manuel Luque Gallego
  • Proyecto Elvira II
  • San Sebastián
  • 19-21 de Mayo de 2004

2
Índice
  • Introducción
  • Problema
  • Eliminación de variables para DI con nodos SV
  • Ejemplo de evaluación
  • Conclusiones
  • Perspectivas futuras y Elvira

3
Introducción
  • Diagramas de influencia
  • Comunicación entre analistas de decisiones y
    expertos
  • Evaluación directa
  • Representación compacta de la estructura
    probabilista
  • Éxito en ámbitos médicos

4
Introducción
  • Problema médico Carcinoma pulmonar no microcítico

5
Introducción
  • Evaluación de DI
  • MEU ?C0 maxD1 ?C1 maxD2 ... maxDn ?Cn p(CD)V
  • Eliminación Ci ?
  • Eliminación Di max
  • Secuencia de eliminación legal según lt.
  • Separabilidad
  • Aplicar operadores a parte de nuestra función de
    valor
  • Reducción de la dimensionalidad de las
    operaciones
  • Aparición en los DI de los nodos super-valor

6
Introducción
  • Explotación de la separabilidad de la función de
    utilidad en el problema del carcinoma pulmonar no
    microcítico

7
Problema planteado
  • Posibilidades de evaluación
  • Opción A Algoritmos para DI sin nodos SV
  • Opción B Algoritmo de Tatman y Shachter para DI
    con nodos SV
  • Opción A (Eliminación de variables para DI)
  • Ventaja Eficiencia del algoritmo para DI
  • Inconvenientes
  • Pérdida de la separabilidad de la función de
    valor
  • Determinación de las variables requeridas

8
Problema planteado
  • Inconvenientes de la opción A
  • Pérdida de la separabilidad de la función de
    valor
  • Suma (o producto) implícita de los nodos de valor
  • Potenciales de utilidad de mayor tamaño

9
Problema planteado
  • Inconvenientes de la opción A
  • Determinación de las variables requeridas
  • Eliminación según orden total ? Eliminar A
  • Eliminación de A une V1 y V2

10
Problema planteado
  • Inconvenientes de la opción A
  • DI tras la eliminación de A ? Aparecen como
    requeridas variables que no lo eran (en este caso
    B)

11
Problema planteado
  • Opción B (Algoritmo de Tatman y Shachter)
  • Ventaja Conservación de la separabilidad de la
    función de valor
  • Inconvenientes
  • Ineficiencia de la inversión de arcos
  • Pronta destrucción de la estructura de nodos
    super-valor en algunos casos
  • Determinación de las variables requeridas

12
Problema planteado
  • Inconvenientes de la opción B
  • Ineficiencia de la inversión de arcos

13
Problema planteado
  • Inconvenientes de la opción B
  • Pronta destrucción de la estructura de nodos
    super-valor

14
Problema planteado
  • Inconvenientes de la opción B
  • Tras eliminar A y proceder a eliminar D ésta
    requerirá B, cuando no debería

15
Eliminación de variables para DI con nodos SV
  • Objetivos
  • Eliminar la necesidad de invertir arcos
  • Mantener el máximo tiempo posible la
    separabilidad de la función de valor
  • Mejora en la determinación de las variables
    requeridas
  • Potenciales de utilidad de menor tamaño
  • Mejora en la explicación del razonamiento

16
Eliminación de variables para DI con nodos SV
  • Planteamiento del problema Evaluación
  • MEU ?C0 maxD1 ?C1 maxD2 ... maxDn ?Cn p(CD)V
  • Eliminación Ci ?
  • Eliminación Di max
  • Secuencia de eliminación legal según lt.
  • Matriz p(CD)V
  • V puede presentar y anidados

17
Eliminación de variables para DI con nodos SV
  • Ejemplo
  • MEU ?B maxD ?A F1(A) F2(B) (U1(A)(U2(A,
    D)U3(B)))
  • Matriz F1(A) F2(B) (U1(A)(U2(A, D)U3(B)))
  • Eliminar A
  • Sacar factor común F2(B)
  • Dificultad de análisis con esta representación
  • Representación unívoca de la matriz a través de
    un árbol

18
Eliminación de variables para DI con nodos SV
  • Representación en árbol
  • Dos tipos de nodos en el árbol
  • Operandos Potenciales de probabilidad y de
    utilidad
  • Operadores y
  • La raíz del árbol inicial siempre es un
  • Hijos de la raíz son los potenciales de
    probabilidad y la estructura de nodos de valor

19
Eliminación de variables para DI con nodos SV
  • Evaluación
  • Eliminación de variables se traduce en
    transformaciones sobre el árbol
  • Dificultad
  • Estudio de las transformaciones lícitas a
    realizar sobre el árbol
  • Estudio de la aplicación de los operadores ?A y
    maxD al árbol

20
Eliminación de variables para DI con nodos SV
  • Operaciones lícitas a realizar sobre el árbol
  • Operaciones de compactación
  • Secuencia de operadores del mismo tipo

21
Eliminación de variables para DI con nodos SV
  • Operaciones lícitas a realizar sobre el árbol
  • Operaciones de compactación
  • Reducción de nodos operadores con hijos operandos
    hoja

22
Eliminación de variables para DI con nodos SV
  • Operaciones lícitas a realizar sobre el árbol
  • Aplicación de la propiedad distributiva
  • Son transformaciones de equivalencia aplicables
    en cualquier subárbol

23
Eliminación de variables para DI con nodos SV
  • Eliminación de A aleatoria
  • Comportamiento de ?Acon el
  • ?A F1 F2
  • ?A F1 ?A F2
  • La aplicación del operador ?A a un árbol supone
    aplicarlo a cada uno de sus hijos

24
Eliminación de variables para DI con nodos SV
  • Eliminación de A aleatoria
  • Aplicación del operador ?A a los potenciales hoja
    ? Marginalizar el potencial en A
  • Comportamiento de ?Acon el , si F1 no depende de
    A y F2 sí depende de A
  • ?A F1 F2 F1 ?A F2

25
Eliminación de variables para DI con nodos SV
  • Problema de la eliminación de A aleatoria con el
  • Necesidad de que sólo una rama del dependa de A
    para poder aplicar recursivamente el operador ?A

26
Eliminación de variables para DI con nodos SV
  • Resolución del problema de la eliminación de A
    aleatoria con el
  • Suposición de árbol factorizado ? Hijos de son
    o bien potenciales hoja gracias a la
    aplicacación de las propiedades de compactación
  • Objetivo Reducción del número de ramas
    dependientes de A en los
  • Reducción del número de ramas dependientes de A a
    través de la compactación de potenciales hoja
    hijos de dependientes de A

27
Eliminación de variables para DI con nodos SV
  • Resolución del problema de la eliminación de A
    aleatoria con el
  • Reducción del número de ramas dependientes de A a
    través de la aplicación de la propiedad
    distributiva entre ellas

28
Eliminación de variables para DI con nodos SV
  • Árbol obtenido tras aplicar la propiedad
    distributiva

29
Eliminación de variables para DI con nodos SV
  • Propiedad distributiva en la resolución del
    problema de la eliminación de A aleatoria con el
  • Decidir qué distribuir y respecto a qué dos
    ramas
  • Optimizaciones
  • Distribuir siempre los de mayor profundidad en
    el árbol
  • Realizar todas las compactaciones posibles antes
    de distribuir y tras distribuir
  • Justificación de las optimizaciones
  • Son cálculos que aunque se pospongan siempre
    habrá que realizarlos
  • Posponerlos puede llevar a tener que repetirlos
    en varias partes del árbol

30
Eliminación de variables para DI con nodos SV
  • Ejemplo de por qué no se ha de posponer la
    compactación
  • Desarrollamos sólo un sumando en producto de
    sumas para preservar al máximo la estructura

31
Eliminación de variables para DI con nodos SV
  • Ejemplo tras aplicar distributiva

32
Eliminación de variables para DI con nodos SV
  • Eliminación de D decisión
  • Aplicación del operador maxD a los potenciales
    hoja ? Marginalizar el potencial en D
  • Comportamiento del maxD con un operador ( ó )
  • maxDF1op F2 F1 op maxDF2
  • si F1 no depende de A y F2 sí depende de A
  • Sólo se puede aplicar recursivamente el operador
    maxD si hay una sola rama dependiente de D
  • Unir todas las ramas dependientes de D en una
    sola, reducirla en un potencial hoja y aplicar el
    operador maxD

33
Eliminación de variables para DI con nodos SV
  • Ejemplo de eliminación de decisión (I)

34
Eliminación de variables para DI con nodos SV
  • Ejemplo de eliminación de decisión (II)

35
Eliminación de variables para DI con nodos SV
  • Ejemplo de eliminación de decisión (III)

36
Eliminación de variables para DI con nodos SV
  • Ejemplo de eliminación de decisión cuando más de
    una rama depende de la decisión

37
Eliminación de variables para DI con nodos SV
  • Ejemplo de eliminación de decisión cuando más de
    una rama depende de la decisión
  • Necesidad de reducir las ramas dependientes a una
    sola

38
Eliminación de variables para DI con nodos SV
  • Procedimiento general
  • Determinar el orden de eliminación de variables
  • Construir el árbol equivalente a la matriz y
    factorizarlo
  • MIENTRAS queden variables por eliminar
  • Sea X la variable a eliminar
  • SI X es variable aleatoria
  • Aplicar sucesivamente el proceso de compactar
    hojas y distribuir en relación a X hasta que no
    queden nodos que distribuir
  • Marginalizar en A en las hojas del árbol
    dependientes de A
  • Si X es decisión
  • Determinar el menor subárbol que abarque todas
    las ramas dependientes de D
  • Reducir a una hoja dicho subárbol
  • Maximizar en D dicho potencial hoja
  • FIN MIENTRAS
  • Corrección y terminación del algoritmo

39
Ejemplo de evaluación
  • MEU ?B maxD ?A F1(A) F2(B) (U1(A)(U2(A,
    D)U3(B)))
  • Matriz F1(A) F2(B) (U1(A)(U2(A, D)U3(B)))

40
Ejemplo de evaluación
  • Eliminar A
  • Aplicar distributiva en el nodo raíz (único a
    distribuir)

41
Ejemplo de evaluación
  • Eliminar A
  • Compactar tras distribuir
  • Marginalizar en las hojas

42
Ejemplo de evaluación
  • Eliminar D
  • Reducir subárbol con más de una rama

43
Ejemplo de evaluación
  • Eliminar D
  • No ha sido necesario reducir ningún subárbol
  • La estrategia óptima para D no ha dependido de B

44
Ejemplo de evaluación
  • Eliminar B
  • Aplicar distributiva en el único nodo a
    distribuir (raíz)

45
Ejemplo de evaluación
  • Eliminar B
  • Compactar tras distribuir
  • Marginalizar en las hojas

46
Conclusiones
  • Se ha evitado la carga computacional de la
    inversión de arcos
  • La separabilidad de la función de valor se
    preserva el máximo tiempo posible
  • Realiza una menor destrucción de la estructura de
    nodos de valor que el algoritmo de Tatman y
    Shachter
  • Sólo aplica la distributividad cuando es
    necesario y a las ramas imprescindibles
  • Potenciales de un tamaño menor durante la
    evaluación
  • Mejora en la determinación de las variables
    requeridas
  • No es necesario eliminar redundancia antes de
    comenzar la evaluación
  • Variables requeridas para cada decisión son en el
    peor caso las mismas que con el algoritmo de
    Tatman y Shachter y un subconjunto en otros casos
    (ver ejemplo)
  • Lo mismo le sucede respecto al algoritmo de
    eliminación de variables de Jensen tradicional

47
Perspectivas futuras y Elvira
  • Situación actual de la eliminación de
    redundancia en Elvira
  • Realizada antes de la evaluación a través del
    algoritmo de Faguiouli y Zaffalon
  • Método de eliminación de variables de Jensen
    tradicional con unión de los nodos de utilidad
  • En este momento DI con nodos SV son evaluados con
    algoritmos para DI sin nodos SV
    (ReductionAndEvalID)
  • Incorporación del algoritmo propuesto a Elvira
    (VariableEliminationSV)
  • Estudio de mejoras en la aplicación de la
    distributividad
  • Selección de las ramas a distribuir
  • Reestructuración previa de las ramas antes de
    distribuir para conseguir mayor factorización
    tras ella (agrupar ramas no dependientes de la
    variable a eliminar)
  • En la implementación el árbol se transforma en
    grafo dirigido para conseguir un ahorro en
    memoria tras distribuir (el ahorro en tiempo ya
    lo daba la compactación) al compartir subárboles
Write a Comment
User Comments (0)
About PowerShow.com