Title: Eliminacin de variables para diagramas de influencia con nodos super valor
1 Eliminación de variables para diagramas de influencia con nodos super valor
Manuel Luque Gallego
Proyecto Elvira II
San Sebastián
19-21 de Mayo de 2004
2 Índice
Introducción
Problema
Eliminación de variables para DI con nodos SV
Ejemplo de evaluación
Conclusiones
Perspectivas futuras y Elvira
3 Introducción
Diagramas de influencia
Comunicación entre analistas de decisiones y expertos
Evaluación directa
Representación compacta de la estructura probabilista
Éxito en ámbitos médicos
4 Introducción
Problema médico Carcinoma pulmonar no microcítico
5 Introducción
Evaluación de DI
MEU ?C0 maxD1 ?C1 maxD2 ... maxDn ?Cn p(CD)V
Eliminación Ci ?
Eliminación Di max
Secuencia de eliminación legal según lt.
Separabilidad
Aplicar operadores a parte de nuestra función de valor
Reducción de la dimensionalidad de las operaciones
Aparición en los DI de los nodos super-valor
6 Introducción
Explotación de la separabilidad de la función de utilidad en el problema del carcinoma pulmonar no microcítico
7 Problema planteado
Posibilidades de evaluación
Opción A Algoritmos para DI sin nodos SV
Opción B Algoritmo de Tatman y Shachter para DI con nodos SV
Opción A (Eliminación de variables para DI)
Ventaja Eficiencia del algoritmo para DI
Inconvenientes
Pérdida de la separabilidad de la función de valor
Determinación de las variables requeridas
8 Problema planteado
Inconvenientes de la opción A
Pérdida de la separabilidad de la función de valor
Suma (o producto) implícita de los nodos de valor
Potenciales de utilidad de mayor tamaño
9 Problema planteado
Inconvenientes de la opción A
Determinación de las variables requeridas
Eliminación según orden total ? Eliminar A
Eliminación de A une V1 y V2
10 Problema planteado
Inconvenientes de la opción A
DI tras la eliminación de A ? Aparecen como requeridas variables que no lo eran (en este caso B)
11 Problema planteado
Opción B (Algoritmo de Tatman y Shachter)
Ventaja Conservación de la separabilidad de la función de valor
Inconvenientes
Ineficiencia de la inversión de arcos
Pronta destrucción de la estructura de nodos super-valor en algunos casos
Determinación de las variables requeridas
12 Problema planteado
Inconvenientes de la opción B
Ineficiencia de la inversión de arcos
13 Problema planteado
Inconvenientes de la opción B
Pronta destrucción de la estructura de nodos super-valor
14 Problema planteado
Inconvenientes de la opción B
Tras eliminar A y proceder a eliminar D ésta requerirá B, cuando no debería
15 Eliminación de variables para DI con nodos SV
Objetivos
Eliminar la necesidad de invertir arcos
Mantener el máximo tiempo posible la separabilidad de la función de valor
Mejora en la determinación de las variables requeridas
Potenciales de utilidad de menor tamaño
Mejora en la explicación del razonamiento
16 Eliminación de variables para DI con nodos SV
Planteamiento del problema Evaluación
MEU ?C0 maxD1 ?C1 maxD2 ... maxDn ?Cn p(CD)V
Eliminación Ci ?
Eliminación Di max
Secuencia de eliminación legal según lt.
Matriz p(CD)V
V puede presentar y anidados
17 Eliminación de variables para DI con nodos SV
Ejemplo
MEU ?B maxD ?A F1(A) F2(B) (U1(A)(U2(A, D)U3(B)))
Matriz F1(A) F2(B) (U1(A)(U2(A, D)U3(B)))
Eliminar A
Sacar factor común F2(B)
Dificultad de análisis con esta representación
Representación unívoca de la matriz a través de un árbol
18 Eliminación de variables para DI con nodos SV
Representación en árbol
Dos tipos de nodos en el árbol
Operandos Potenciales de probabilidad y de utilidad
Operadores y
La raíz del árbol inicial siempre es un
Hijos de la raíz son los potenciales de probabilidad y la estructura de nodos de valor
19 Eliminación de variables para DI con nodos SV
Evaluación
Eliminación de variables se traduce en transformaciones sobre el árbol
Dificultad
Estudio de las transformaciones lícitas a realizar sobre el árbol
Estudio de la aplicación de los operadores ?A y maxD al árbol
20 Eliminación de variables para DI con nodos SV
Operaciones lícitas a realizar sobre el árbol
Operaciones de compactación
Secuencia de operadores del mismo tipo
21 Eliminación de variables para DI con nodos SV
Operaciones lícitas a realizar sobre el árbol
Operaciones de compactación
Reducción de nodos operadores con hijos operandos hoja
22 Eliminación de variables para DI con nodos SV
Operaciones lícitas a realizar sobre el árbol
Aplicación de la propiedad distributiva
Son transformaciones de equivalencia aplicables en cualquier subárbol
23 Eliminación de variables para DI con nodos SV
Eliminación de A aleatoria
Comportamiento de ?Acon el
?A F1 F2
?A F1 ?A F2
La aplicación del operador ?A a un árbol supone aplicarlo a cada uno de sus hijos
24 Eliminación de variables para DI con nodos SV
Eliminación de A aleatoria
Aplicación del operador ?A a los potenciales hoja ? Marginalizar el potencial en A
Comportamiento de ?Acon el , si F1 no depende de A y F2 sí depende de A
?A F1 F2 F1 ?A F2
25 Eliminación de variables para DI con nodos SV
Problema de la eliminación de A aleatoria con el
Necesidad de que sólo una rama del dependa de A para poder aplicar recursivamente el operador ?A
26 Eliminación de variables para DI con nodos SV
Resolución del problema de la eliminación de A aleatoria con el
Suposición de árbol factorizado ? Hijos de son o bien potenciales hoja gracias a la aplicacación de las propiedades de compactación
Objetivo Reducción del número de ramas dependientes de A en los
Reducción del número de ramas dependientes de A a través de la compactación de potenciales hoja hijos de dependientes de A
27 Eliminación de variables para DI con nodos SV
Resolución del problema de la eliminación de A aleatoria con el
Reducción del número de ramas dependientes de A a través de la aplicación de la propiedad distributiva entre ellas
28 Eliminación de variables para DI con nodos SV
Árbol obtenido tras aplicar la propiedad distributiva
29 Eliminación de variables para DI con nodos SV
Propiedad distributiva en la resolución del problema de la eliminación de A aleatoria con el
Decidir qué distribuir y respecto a qué dos ramas
Optimizaciones
Distribuir siempre los de mayor profundidad en el árbol
Realizar todas las compactaciones posibles antes de distribuir y tras distribuir
Justificación de las optimizaciones
Son cálculos que aunque se pospongan siempre habrá que realizarlos
Posponerlos puede llevar a tener que repetirlos en varias partes del árbol
30 Eliminación de variables para DI con nodos SV
Ejemplo de por qué no se ha de posponer la compactación
Desarrollamos sólo un sumando en producto de sumas para preservar al máximo la estructura
31 Eliminación de variables para DI con nodos SV
Ejemplo tras aplicar distributiva
32 Eliminación de variables para DI con nodos SV
Eliminación de D decisión
Aplicación del operador maxD a los potenciales hoja ? Marginalizar el potencial en D
Comportamiento del maxD con un operador ( ó )
maxDF1op F2 F1 op maxDF2
si F1 no depende de A y F2 sí depende de A
Sólo se puede aplicar recursivamente el operador maxD si hay una sola rama dependiente de D
Unir todas las ramas dependientes de D en una sola, reducirla en un potencial hoja y aplicar el operador maxD
33 Eliminación de variables para DI con nodos SV
Ejemplo de eliminación de decisión (I)
34 Eliminación de variables para DI con nodos SV
Ejemplo de eliminación de decisión (II)
35 Eliminación de variables para DI con nodos SV
Ejemplo de eliminación de decisión (III)
36 Eliminación de variables para DI con nodos SV
Ejemplo de eliminación de decisión cuando más de una rama depende de la decisión
37 Eliminación de variables para DI con nodos SV
Ejemplo de eliminación de decisión cuando más de una rama depende de la decisión
Necesidad de reducir las ramas dependientes a una sola
38 Eliminación de variables para DI con nodos SV
Procedimiento general
Determinar el orden de eliminación de variables
Construir el árbol equivalente a la matriz y factorizarlo
MIENTRAS queden variables por eliminar
Sea X la variable a eliminar
SI X es variable aleatoria
Aplicar sucesivamente el proceso de compactar hojas y distribuir en relación a X hasta que no queden nodos que distribuir
Marginalizar en A en las hojas del árbol dependientes de A
Si X es decisión
Determinar el menor subárbol que abarque todas las ramas dependientes de D
Reducir a una hoja dicho subárbol
Maximizar en D dicho potencial hoja
FIN MIENTRAS
Corrección y terminación del algoritmo
39 Ejemplo de evaluación
MEU ?B maxD ?A F1(A) F2(B) (U1(A)(U2(A, D)U3(B)))
Matriz F1(A) F2(B) (U1(A)(U2(A, D)U3(B)))
40 Ejemplo de evaluación
Eliminar A
Aplicar distributiva en el nodo raíz (único a distribuir)
41 Ejemplo de evaluación
Eliminar A
Compactar tras distribuir
Marginalizar en las hojas
42 Ejemplo de evaluación
Eliminar D
Reducir subárbol con más de una rama
43 Ejemplo de evaluación
Eliminar D
No ha sido necesario reducir ningún subárbol
La estrategia óptima para D no ha dependido de B
44 Ejemplo de evaluación
Eliminar B
Aplicar distributiva en el único nodo a distribuir (raíz)
45 Ejemplo de evaluación
Eliminar B
Compactar tras distribuir
Marginalizar en las hojas
46 Conclusiones
Se ha evitado la carga computacional de la inversión de arcos
La separabilidad de la función de valor se preserva el máximo tiempo posible
Realiza una menor destrucción de la estructura de nodos de valor que el algoritmo de Tatman y Shachter
Sólo aplica la distributividad cuando es necesario y a las ramas imprescindibles
Potenciales de un tamaño menor durante la evaluación
Mejora en la determinación de las variables requeridas
No es necesario eliminar redundancia antes de comenzar la evaluación
Variables requeridas para cada decisión son en el peor caso las mismas que con el algoritmo de Tatman y Shachter y un subconjunto en otros casos (ver ejemplo)
Lo mismo le sucede respecto al algoritmo de eliminación de variables de Jensen tradicional
47 Perspectivas futuras y Elvira
Situación actual de la eliminación de redundancia en Elvira
Realizada antes de la evaluación a través del algoritmo de Faguiouli y Zaffalon
Método de eliminación de variables de Jensen tradicional con unión de los nodos de utilidad
En este momento DI con nodos SV son evaluados con algoritmos para DI sin nodos SV (ReductionAndEvalID)
Incorporación del algoritmo propuesto a Elvira (VariableEliminationSV)
Estudio de mejoras en la aplicación de la distributividad
Selección de las ramas a distribuir
Reestructuración previa de las ramas antes de distribuir para conseguir mayor factorización tras ella (agrupar ramas no dependientes de la variable a eliminar)
En la implementación el árbol se transforma en grafo dirigido para conseguir un ahorro en memoria tras distribuir (el ahorro en tiempo ya lo daba la compactación) al compartir subárboles
PowerShow.com is a leading presentation sharing website. It has millions of presentations already uploaded and available with 1,000s more being uploaded by its users every day. Whatever your area of interest, here you’ll be able to find and view presentations you’ll love and possibly download. And, best of all, it is completely free and easy to use.
You might even have a presentation you’d like to share with others. If so, just upload it to PowerShow.com. We’ll convert it to an HTML5 slideshow that includes all the media types you’ve already added: audio, video, music, pictures, animations and transition effects. Then you can share it with your target audience as well as PowerShow.com’s millions of monthly visitors. And, again, it’s all free.
About the Developers
PowerShow.com is brought to you by CrystalGraphics, the award-winning developer and market-leading publisher of rich-media enhancement products for presentations. Our product offerings include millions of PowerPoint templates, diagrams, animated 3D characters and more.