Inteligencia Artificial - PowerPoint PPT Presentation

About This Presentation
Title:

Inteligencia Artificial

Description:

Inteligencia Artificial PARTE 5 CONOCIMIENTO INCIERTO Y RAZONAMIENTO Inteligencia Artificial 5.1 Incertidumbre C MO ACTUAR ANTE LA INCERTIDUMBRE Los agentes casi ... – PowerPoint PPT presentation

Number of Views:25
Avg rating:3.0/5.0
Slides: 54
Provided by: RolandoRa
Category:

less

Transcript and Presenter's Notes

Title: Inteligencia Artificial


1
Inteligencia Artificial
  • PARTE 5
  • CONOCIMIENTO INCIERTO Y RAZONAMIENTO

2
Inteligencia Artificial
  • 5.1 Incertidumbre

3
CÓMO ACTUAR ANTE LA INCERTIDUMBRE
  • Los agentes casi nunca tienen acceso a toda la
    verdad acerca de su ambiente.
  • El agente debe, por lo tanto, actuar bajo
    condiciones de incertidumbre.
  • La incertidumbre es también producto de la
    incompletez y de la inexactitud del conocimiento
    del agente sobre las características del
    ambiente.
  • La decisión racional dependerá tanto de la
    importancia relativa de las diversas metas así
    como de la posibilidad y grado correspondiente en
    que esperamos que sean logradas.

4
El manejo del conocimiento incierto
  • Ejemplo de regla de lógica de primer orden
  • Si queremos más detalle
  • Cambiando la regla a forma causal

5
El manejo del conocimiento incierto
  • El uso de la lógica de primer orden en este
    ejemplo es fallido por
  • Pereza
  • Listar todos los antecedentes o consecuentes
    necesarios es mucho trabajo, y las reglas sería
    difíciles de emplear.
  • Ignorancia teórica
  • La ciencia médica no cuenta aún con una teoría
    completa sobre este dominio.
  • Ignorancia práctica
  • Aún conociendo todas las reglas, si no es posible
    hacerle todas las pruebas a un paciente,
    permanecerían dudas sobre el caso particular de
    dicho paciente.

6
El manejo del conocimiento incierto
  • En el mejor de los casos, lo que el conocimiento
    del agente puede ofrecer es sólo un grado de
    creencia en las oraciones correspondientes.
  • La herramienta principal para manejar los grados
    de creencia es la teoría de la probabilidad, que
    asigna a las oraciones un grado numérico de
    creencia que está entre 0 y 1.

7
El manejo del conocimiento incierto
  • La probabilidad es una forma de resumir la
    incertidumbre originada en nuestra pereza e
    ignorancia.
  • Por ejemplo, podemos observar que el 80 de los
    pacientes que padecen dolores en la dentadura
    tienen caries. Por lo tanto, existe una
    probabilidad de 0.8 de que el motivo del dolor de
    dientes sea caries. El 0.2 restante resume todas
    las otras posibles causas de dolor dental, las
    cuales se ignoran o no se confirman por pereza.

8
El manejo del conocimiento incierto
  • Las probabilidades situadas entre 0 y 1
    corresponden a grados intermedios de creencia en
    la verdad de la oración.
  • La oración en sí es, de hecho, verdadera o falsa.
  • No es lo mismo el grado de creencia y el grado de
    verdad. Si el grado de creencia es 0.8, esto no
    quiere decir que haya 80 de verdad, sino que hay
    muchas posibilidades de que la oración sea
    cierta.
  • El grado de verdad es el tema de estudio de la
    lógica difusa.

9
El manejo del conocimiento incierto
  • Las aseveraciones probabilísticas no operan el
    mismo tipo de semántica que la lógica de primer
    orden.
  • La probabilidad que un agente asigna a una
    proposición dependerá de las percepciones que
    éste haya recibido hasta el momento (evidencia).
  • Antes de las evidencias, se habla de la
    probabilidad a priori o incondicional. Después de
    las evidencias, se habla de probabilidad a
    posteriori o condicional.

10
La incertidumbre y las decisiones racionales
  • La presencia de la incertidumbre modifica
    radicalmente la forma de tomar decisiones de un
    agente.
  • El agente debe tener preferencias por los
    posibles resultados de cada uno de sus planes.
  • Pera la representación y razonamiento con las
    preferencias, se requiere de la teoría de la
    utilidad.
  • El término utilidad se refiere a la calidad de
    ser útil. Esta teoría sostiene que cada estado
    implica cierto grado de utilidad para un agente,
    y que el agente prefiere aquellos estados que le
    representen mayor utilidad.

11
La incertidumbre y las decisiones racionales
  • Las preferencias, expresadas en función de las
    utilidades, se combinan con las probabilidades en
    la teoría general de las decisiones racionales,
    conocida como teoría de decisiones
  • Teoría de decisiones Teoría de probabilidad
    Teoría de utilidad
  • La idea básica de la teoría de decisiones es que
    un agente será racional si y sólo si elige una
    acción que le produzca la mayor de las utilidades
    esperadas, prorrateada ésta tomando en cuenta
    todos los resultados posibles de la acción.

12
NOTACIÓN BÁSICA DE PROBABILIDAD
  • Se requiere un lenguaje formal para representar
    el conocimiento incierto y trabajar con él.
  • Esta caracterización debe incorporar dos aspectos
    fundamentales
  • La naturaleza de las oraciones a las que se
    asignan gradaciones.
  • La dependencia del grado de creencia en relación
    con el estado de conocimiento del agente.

13
Probabilidad a priori
  • La notación P(A) indica la probabilidad a priori
    o incondicional de que la proposición A es
    verdadera.
  • P(Caries) 0.1
  • P(A) sólo se utiliza cuando no se dispone de más
    información. En cuanto se disponga de información
    adicional B, es necesario razonar la probabilidad
    condicional de A considerando B.

14
Probabilidad a priori
  • En las proposiciones puede también haber
    desigualdades que involucren lo conocido como
    variables aleatorias.
  • P(EstadoDelTiempoSoleado) 0.7
  • P(EstadoDelTiempoNublado) 0.2
  • P(EstadoDelTiempoLluvia) 0.08
  • P(EstadoDelTiempoNieve) 0.02

15
Probabilidad a priori
  • A toda variable aleatoria X le corresponde un
    dominio de valores que dicha variable puede
    asumir ltx1, ..., xngt.
  • Las proposiciones se pueden considerar también
    como variables aleatorias y se supone que su
    dominio es ltverdadero, falsogt
  • P(Caries) sería una abreviación de
    P(Cariesverdadero)
  • P(?Caries) sería una abreviación de
    P(Cariesfalso)

16
Probabilidad a priori
  • Por lo general, se usan las letras A, B, etc.
    Para representar variables aleatorias booleanas
    (proposiciones) y las letras X, Y, etc. Para
    variables que pueden tener varios valores.
  • Se puede definir una distribución de probabilidad
    de una variable aleatoria de la siguiente manera
  • P(EstadoDelTiempo) lt0.7, 0.2, 0.08, 0.02gt

17
Probabilidad a priori
  • Se pueden usar expresiones como
    P(EstadoDelTiempo,Caries) para representar las
    probabilidades de todas las combinaciones de
    valores del conjunto de variables aleatorias.
  • Podemos usar también conectores lógicos para
    construir oraciones más complejas y asignarles
    probabilidades
  • P(Caries ? ?Asegurado) 0.06

18
Probabilidad condicional
  • Las probabilidades condicionales o a posteriori
    representadas como P(AB) se interpretan como la
    probabilidad de A, considerando que todo lo que
    sabemos es B.
  • P(CariesDolorDientes) 0.8
  • Si se sabe C, ahora debe calcularse P(AB?C) en
    vez de P(AB).

19
Probabilidad condicional
  • La ecuación
  • Se cumple cuando P(B) gt 0. También puede
    escribirse como
  • A esto se le conoce como la regla del producto.

20
LOS AXIOMAS DE PROBABILIDAD
  • 1. Todas las probabilidades están comprendidas
    entre 0 y 1.
  • ?0 ? P(A) ? 1
  • 2. La probabilidad de las proposiciones
    necesariamente verdaderas es de 1, y de las
    necesariamente falseas es de 0.
  • P(Verdadero) 1 P(Falso) 0

21
LOS AXIOMAS DE PROBABILIDAD
  • 3. La probabilidad de una disyunción se expresa
    de la siguiente manera
  • P(A ? B) P(A) P(B) - P(A ? B)

Verdadera
A
B
A ? B
22
La distribución de probabilidad conjunta
  • Mediante la distribución de probabilidad conjunta
    se especifican completamente las asignaciones
    probabilísticas que un agente da a todas las
    proposiciones del dominio (tanto simples como
    complejas).
  • El modelo probabilista de un dominio está formado
    por un conjunto de variables aleatorias que
    asumen determinados valores con ciertas
    probabilidades. Sean las variables X1, ..., Xn.
  • Un evento atómico es la asignación de valores
    particulares a todas las variables, es decir, la
    especificación total del estado del dominio.

23
La distribución de probabilidad conjunta
  • Mediante la distribución de probabilidad conjunta
    P(X1, ..., Xn) se asignan probabilidades a todos
    los eventos atómicos posibles.
  • La probabilidad conjunta es una tabla
    n-dimensional, en la que hay un valor en cada
    celda que especifica la probabilidad de que se
    produzca un determinado estado.

DolorDientes ?DolorDientes
Caries 0.04 0.06
?Caries 0.01 0.89
24
LA REGLA DE BAYES Y SU USO
  • Las dos formas de la regla del producto son
  • Igualando los lados derechos y dividiendo entre
    P(A)
  • A la ecuación se le conoce como regla de Bayes (o
    ley de Bayes, o teorema de Bayes), y es la base
    de todos los sistemas modernos de IA para
    inferencia probabilista.

25
LA REGLA DE BAYES Y SU USO
  • Para variables multivaluadas
  • Si se cuenta con cierta evidencia base E

26
Cómo aplicar la regla de Bayes
  • EJEMPLO Un doctor sabe que la meningitis provoca
    una rigidez en el cuello del paciente, digamos el
    50 de las veces. El doctor también conoce
    algunos hechos incondicionales la probabilidad a
    priori que un paciente sufra de meningitis (M) es
    de 1 en 50,000, y la probabilidad a priori de que
    algún paciente sufra rigidez en el cuello (S) es
    de 1 en 20.

27
Cómo aplicar la regla de Bayes
  • Es de esperar que sólo uno de cada 5000 pacientes
    que padece rigidez de cuello tenga meningitis.
  • Qué pasaría si aumenta repentinamente P(M)?

28
Normalización
  • Considérese el cálculo de la probabilidad de la
    meningitis con base a la rigidez del cuello
  • Supóngase que también interesa la posibilidad que
    el paciente sienta latigazos (W), consecuencia
    de la rigidez del cuello

29
Normalización
  • Comparando las ecuaciones anteriores, se puede
    calcular la posibilidad relativa de la meningitis
    y el latigazo dado que hay rigidez de cuello.
    Supongamos que P(SW) 0.8 y que P(W) 1 / 1000
    0.001
  • En otras palabras, el latigazo tiene 80 veces
    más posibilidades de presentarse que la
    meningitis, en el caso de un cuello rígido. En
    ocasiones la probabilidad relativa es suficiente
    para tomar una decisión.

30
Normalización
  • Es posible escribir las ecuaciones
    correspondientes a M y a ??M
  • Si sumamos ambas y consideramos que P(MS)
    P(?MS) 1
  • Si sustituimos en la ecuación de P(MS), tenemos
    que
  • A esto se le llama normalización, y 1/P(S) se
    maneja como constante de normalización mediante
    la que los terminos condicionales suman 1.

31
Uso de la regla de Bayes Combinación de la
evidencia
  • Si se sabe que P(CariesDolorDientes) 0.8 y que
    P(CariesEnganchar)0.95
  • Qué se podría concluir si el gancho de acero
    queda enganchado en un diente que produce dolor?
    Se desea saber P(CariesDolorDientes ? Enganchar)
  • Usando la regla de Bayes, esto se puede
    reformular así
  • Cómo se calcula P(DolorDientes ?
    EngancharCaries)? El problema se da además si se
    requiere el calculo de las probabilidades
    condicionales de muchas variables y no sólo de
    dos.

32
Uso de la regla de Bayes Combinación de la
evidencia
  • El primer paso consiste en adoptar una
    perspectiva ligeramente distinta del
    procedimiento de incorporación de los diversos
    elementos de evidencia.
  • Mediante el procedimiento de actualización
    bayesiana se incorporan las evidencias de una en
    una, y es modificada la creencia anterior
    relativa a la variable desconocida.

33
Uso de la regla de Bayes Combinación de la
evidencia
  • Empezando por DolorDiente
  • Al observar Enganchar, podemos aplicar nuevamente
    la regla de Bayes con DolorDiente como contexto
    uniforme de condicionamiento
  • Sustituyendo
  • Este proceso es independiente del orden.

34
Uso de la regla de Bayes Combinación de la
evidencia
  • Es necesario aún así hacer una suposición
    fundamental, para simplificar las expresiones.
  • En este caso, la suposición fundamental es que la
    caries es la causa directa del dolor de diente y
    del enganchamiento de la cala en el diente
  • En otras palabras, si se sabe que el paciente
    tiene caries, no se esperará que la probabilidad
    de enganchamiento dependa de la presencia de un
    dolor de diente, ni el enganchamiento modificará
    la probabilidad de que la caries esté produciendo
    dolor de diente.

35
Uso de la regla de Bayes Combinación de la
evidencia
  • Por lo tanto
  • P(EngancharCaries ? DolorDientes)
    P(EngancharCaries)
  • P(DolorDientesCaries ? Enganchar)
    P(DolorDientesCaries)
  • Estas ecuaciones expresan la independencia
    condicional de DolorDientes y Enganchar,
    suponiendo la existencia de caries.

36
ORIGEN DE LAS PROBABILIDADES
  • Punto de Vista Frecuentista
  • Las probabilidades solo pueden originarse en
    experimentos, ejemplo si después de una revisión
    a 100 personas, 10 de ellas tienen caries, se
    puede decir que la probabilidad de caries es 0.1
  • Punto de Vista Objetivista
  • Las probabilidades son aspectos reales del
    universo la propensión de los objetos a
    comportarse de cierta forma y no meras
    descripciones del grado de creencia de un
    observador. Las mediciones frecuentistas son
    intentos de obtener el valor real de una
    probabilidad.
  • Punto de Vista Subjetivista
  • Las probabilidades son una manera de caracterizar
    las creencias de un agente y no se les concede
    ninguna significación externa. Un médico podría
    decir en mi opinión, la probabilidad de que
    haya caries es 0.1.

37
Otro enfoque para el mundo del wumpus
  • La incertidumbre surge en el mundo del wumpus
    porque los sensores del agente solo proporcionan
    información parcial, local, sobre el mundo.

38
Otro enfoque para el mundo del wumpus
1,4 2,4 3,4 4,4
1,3 2,3 3,3 3,4
1,2 B OK 2,2 3,2 4,2
1,1 OK 2,1 B OK 3,1 4,1
Después de encontrar brisa tanto en 1,2 como en
2,1, el agente está atorado (no hay ningún
lugar seguro para explorar).
39
Otro enfoque para el mundo del wumpus
  • 1,3, 2,2 y 3,1 podrían tener un precipicio.
  • La inferencia lógica por sí sola no puede
    concluir nada sobre cual celda es la que tiene
    más probabilidad de ser segura, así que un agente
    lógico tendría que elegir forzosamente al azar.
  • Un agente probabilístico lo puede hacer mejor.
  • Nuestro objetivo es calcular la probabilidad de
    que cada una de las tres celdas contenga un
    precipicio (por el momento, se ignorará el wumpus
    y el oro).

40
Otro enfoque para el mundo del wumpus
  • Las propiedades relevantes del mundo del wumpus
    son que
  • (1) Un precipicio causa brisa en todos las celdas
    adyacentes y
  • (2) Cada celda, excepto la 1,1, tiene un
    precipicio con una probabilidad de 0.2.
  • El primer paso es identificar el conjunto de
    variables aleatorias que necesitamos
  • Como en el caso de la lógica proposicional, se
    desea una variable booleana Pij para cada celda,
    la cual es verdadera si y sólo si la celda i, j
    contiene un precipicio.
  • También tenemos las variables booleanas Bij, las
    cuales son verdaderas si y sólo si hay brisa en
    i, j. Se incluyen estas variables sólo para las
    celdas observadas (en este caso, 1,1, 1,2 y
    2,1).

41
Otro enfoque para el mundo del wumpus
  • El siguiente paso es especificar la distribución
    conjunta completa, P(P1,1, , P4,4, B1,1, B1,2,
    B2,1).
  • Aplicando la regla del producto, se tiene que
  • P(P1,1, , P4,4, B1,1, B1,2, B2,1)
  • P(B1,1, B1,2, B2,1 P1,1, , P4,4) P(P1,1, ,
    P4,4)

42
Otro enfoque para el mundo del wumpus
  • El primer término es una probabilidad condicional
    de una configuración de brisas, dada una
    configuración de precipicios.
  • El segundo término es la probabilidad a priori de
    una configuración de precipicios.
  • Cada celda contiene un precipicio con una
    probabilidad de 0.2, independientemente de las
    otras celdas, por lo que
  • Para una configuración con n precipicios, esto es
    justo 0.2n ? 0.816-n.

43
Otro enfoque para el mundo del wumpus
  • En nuestra situación , la evidencia consiste de
    la brisa observada (o su ausencia) en cada celda
    que es visitada, combinada con el hecho de que
    cada una de esas celdas no contiene precipicio.
  • Abreviaremos esos hechos como b ? b1,1 ? b1,2 ?
    b2,1 y conocido ? p1,1 ? ? p1,2 ? ? p2,1
  • Estamos interesados en responder preguntas tales
    como P(P1,3conocido, b) qué tan probable es
    que haya un precipicio en 1,3, dadas las
    observaciones que hemos hecho hasta ahora?
  • Para responder a lo anterior, se pude usar el
    procedimiento estándar de sumar entradas de la
    tabla de distribución conjunta completa.
  • Sea desconocido una variable compuesta
    consistente de las variables Pij correspondientes
    a las celdas diferentes a las celdas conocidas y
    la celda de la consulta, 1,3.

44
Otro enfoque para el mundo del wumpus
  • Entonces tenemos que
  • Hay 12 celdas desconocidas, por lo que la
    sumatoria contiene 212 4096 términos. En
    general, la sumatoria crece exponencialmente con
    el número de celdas.
  • En la realidad, no todas las celdas desconocidas
    son relevantes, por ejemplo, el contenido de
    4,4 no afecta si 1,3 tiene un precipicio.

45
Otro enfoque para el mundo del wumpus
  • Sea Frontera las variables (aparte de las
    involucradas en la consulta) que son adyacentes a
    las celdas visitadas, en este caso, sólo son
    2,2 y 3,1.
  • Sean Otras las variables para los otras celdas
    desconocidas. En este caso, hay 10 otras celdas.

46
Otro enfoque para el mundo del wumpus
1,4 2,4 3,4 4,4
1,3 2,3 3,3 3,4
1,2 B OK 2,2 3,2 4,2
1,1 OK 2,1 B OK 3,1 4,1
con- sulta
otras
frontera
conocido
Después de encontrar brisa tanto en 1,2 como en
2,1, el agente está atorado (no hay ningún
lugar seguro para explorar).
47
Otro enfoque para el mundo del wumpus
  • Las brisas observadas son condicionalmente
    independientes de las otras variables, dados lo
    conocido, la frontera, y las variables de
    consulta.

otras se elimina por independiencia condicional
48
Otro enfoque para el mundo del wumpus
  • Ahora, el primer término de esta expresión no
    depende de la variable otras, así que se puede
    mover la sumatoria hacia dentro

49
Otro enfoque para el mundo del wumpus
  • Por independencia, el término previo se puede
    factorizar, y entonces los términos se reordenan
  • Donde en el último paso P(conocido) se fusiona en
    la constante normalizadora y se utiliza el hecho
    de que ??otrasP(otras) 1.

50
Otro enfoque para el mundo del wumpus
  • Note que la expresión P(bconocido, P1,3,
    frontera) 1 cuando la frontera es consistene
    con las observaciones de brisa, y 0 en caso
    contrario.
  • Por lo tanto, para cada valor de P1,3, sumamos
    sobre los modelos lógicos para las variables
    frontera que son consistentes con los hechos
    conocidos.

51
Otro enfoque para el mundo del wumpus

1,3
1,2 B OK 2,2
1,1 OK 2,1 B OK 3,1

1,3
1,2 B OK 2,2
1,1 OK 2,1 B OK 3,1

1,3
1,2 B OK 2,2
1,1 OK 2,1 B OK 3,1
0.8 x 0.2 0.16
0.2 x 0.2 0.04
0.2 x 0.8 0.16
Modelos consistentes con las variables frontera
P2,2 y P3,1, mostrando P(frontera) para cada
modelo. En este caso, los tres modelos suponen
que P1,3 verdadero
52
Otro enfoque para el mundo del wumpus

1,3
1,2 B OK 2,2
1,1 OK 2,1 B OK 3,1

1,3
1,2 B OK 2,2
1,1 OK 2,1 B OK 3,1
0.2 x 0.2 0.04
0.2 x 0.8 0.16
Modelos consistentes con las variables frontera
P2,2 y P3,1, mostrando P(frontera) para cada
modelo. En este caso, los dos modelos suponen que
P1,3 falso
53
Otro enfoque para el mundo del wumpus
  • Tenemos que
  • P(P1,3conocido,b) ???0.2(0.040.160.16),
    0-8(0.040.16)? ?? ? 0.31, 0.69?
  • Esto es, 1,3 (y 3,1, por simetría) tiene un
    precipicio con una probabilidad de 31 (69 que
    no lo contenga).
  • Un cálculo similar muestra que 2,2 contiene un
    precipicio con una probabilidad de 86. El agente
    inteligente probabilístico definitivamente
    evitaría irse por 2,2.
Write a Comment
User Comments (0)
About PowerShow.com