Conocimiento incierto y razonamiento - PowerPoint PPT Presentation

1 / 12
About This Presentation
Title:

Conocimiento incierto y razonamiento

Description:

... es que los agentes casi nunca tienen acceso a la verdad completa acerca de su entorno. En casi todos los casos habr cuestiones im-portantes para las cuales el ... – PowerPoint PPT presentation

Number of Views:138
Avg rating:3.0/5.0
Slides: 13
Provided by: unlu4
Category:

less

Transcript and Presenter's Notes

Title: Conocimiento incierto y razonamiento


1
Conocimiento incierto y razonamiento
2
Actuando bajo incertidumbre


Un problema con lógica de primer orden, y en
consecuen-cia con el enfoque de agente lógico, es
que los agentes casi nunca tienen acceso a la
verdad completa acerca de su entorno. En casi
todos los casos habrá cuestiones im-portantes
para las cuales el agente no puede encontrar una
respuesta categórica. Por lo tanto el agente debe
actuar bajo incertidumbre.
3
Manejando conocimiento incierto

  • Tratar de usar lógica de primer orden para
    enfrentar un dominio como el de diagnóstico
    médico falla por tres razones principales
  • Pereza. Es mucho trabajo listar el conjunto
    completo de antecedentes o consecuencias
    necesarios para asegurar que una regla no tenga
    excepciones, y se vuelve muy pesado usar las
    enormes reglas que resultan.
  • Ignorancia teórica. La ciencia médica no tiene
    una teoría completa para el dominio.
  • Ignorancia práctica. Podemos tener incertidumbre
    acerca de un paciente en particular porque todos
    los tests necesarios no han sido o no pueden ser
    realizados. (Aunque conozcamos todas las reglas).

4
Manejando conocimiento incierto (cont.)

La probabilidad que un agente asigna a una
proposición depende de las percepciones que ha
recibido hasta el mo-mento la evidencia-. Así
como el estado de una implica-ción puede cambiar
cuando se agregan más sentencias a la BC, las
probabilidades pueden cambiar cuando se adquiere
más evidencia. Antes de obtener la evidencia,
hablamos de probabilidad incondicional o previa
luego de obtener la evidencia, ha-blamos de
probabilidad condicional o posterior.
5
Incertidumbre y decisiones racionales

Para realizar la elección de un plan, un
agente debe tener preferencias entre los
diferentes resultados posibles de los distintos
planes. La teoría de utilidad representa y razona
con preferencias. La teoría general de
decisiones racionales combina prefe-rencias con
probabilidades Teoría de DecisiónTeoría de
ProbabilidadesTeoría de Utilidad Utilidad
esperada máxima la idea fundamental de la teoría
de decisión es que un agente es racional si y
solo si elige la acción que produce la utilidad
más grande esperada, pro-mediada sobre todos los
resultados posibles de la acción.
6
Notación básica de probabilidad

Probabilidad incondicional. Ej. P(Caries) 0.1
Si Caries denota la proposición que un paciente
particular tenga caries, significa que en
ausencia de cualquier otra información, el agente
asignará una probabilidad de 0.1 al evento de un
paciente con caries. Las proposiciones también
pueden incluir igualdades que involu-cran las
llamadas variables al azar. Por ej., para la
variable Clima P(Clima Soleado) 0.7
P(Clima) representa la probabilidad P(Clima
Lluvia) 0.2 de todos los valores
posibles de Cli- P(Clima Nublado) 0.08
ma, en este caso P(Clima Nieve) 0.02
P(Clima) lt0.7,0.2,0.08,0.02gt
7
Notación básica de probabilidad (continuación)

Probabilidad condicional. Cuando el agente ha
obtenido alguna evi-dencia concerniente a las
proposiciones previamente desconocidas, las
probabilidades incondicionales ya no son
aplicables. Probabilidad condicional, con
notación (A?B) se lee probabilidad de A dado que
todo lo que conocemos es B Importante recordar
que P(A?B) solo puede ser usado cuando0 todo lo
que conocemos es B. Tan pronto como conozcamos C
deberemos computar P(A?B?C) en vez de P(A?B).
Notación P con probabilidades condicionales.
P(X?Y) es una tabla bidimensional que da los
valores de P(Xxi ?Y yj) para cada par posible
i, j.
8
Relación Probab. Condic. Probab. Incondic.

Las probabilidades condicionales se pueden
definir en tér-minos de las probabilidades
incondicionales P(A?B) P(A?B)
válida siempre que P(B) gt 0
P(B) Re-escribiendo esta ecuación tenemos la
regla del producto P(A?B) P(A?B).P(B)
P(B?A).P(A)
9
Axiomas de probabilidad

1.- Todas las probabilidades están entre 0 y 1.
0 ? P(A) ? 1 2.- Las proposiciones
necesariamente verdaderas tienen probabilidad 1,
y las necesariamente falsas 0. P(Verdadero) 1
P(Falso) 0 3.- La probabilidad de una
disyunción está dada por P(A?B) P(A) P(B) -
P(A?B) Caso en que el Agente 1 tiene creencias
inconsistentes
Agente 1
Agente 2
Resultados para el Agente 1
Propo-sición
Monto de Apuesta
Creencia
A?B
Apuesta
A??B
?A?B
?A??B
A
A
4 vs 6
-6
0.4
4
4
-6
B
B
3 vs 7
3
-7
0.3
3
-7
?(A?B)
A?B
2
0.8
2 vs 8
2
2
-8
-1
-11
-1
-1
10
Modelo probabilístico de un problema conjunto
de variables al azar que pueden tomar valores
particulares con ciertas probabilidades. Evento
atómico consiste en la asignación de valores
particulares a todas las variables.
La distribución de probabilidad conjunta
P(X1, X2 ,..., Xn) asigna pro-babilidades a todos
los eventos atómicos posibles. Ejemplo una
distribución trivial de probabilidad conjunta
para el dominio médico consistente en dos
variables booleanas Dolor de Muelas (DM) y
Caries, es P(Caries) 0.10 P(Caries ? DM)
0.11 Dado que los eventos atómicos son
mutuamente excluyentes, cualquier conjunción de
eventos atómicos es necesariamente falsa. Dado
que son colecti-vamente exhaustivos, su
disyunción es necesariamente verdadera.
11
Regla de Bayes
A partir de la regla del producto podemos
obtener P(B?A) P(A?B) P(B) P(A)
El caso general de variables multivaluadas,
usando la notación P puede ser escrito P(Y?X)
P(X?Y) P(Y) P(X) Una versión más
generalizada condicionada por alguna evidencia
básica E es P(Y?X,E) P(X?Y,E) P(Y?E)
P(X?E)
12
Normalización
P(M?S) P(S?M) P(M) P(?M?S)
P(S??M) P(?M) P(S) P(S) Sumando
estas dos ecuac., y sabiendo que P(M?S) P(?M?S)
1, obtenemos P(S) P(S?M)P(M)
P(S??M)P(?M) Substituyendo en la ecuación para
P(M?S), tenemos P(M?S)
P(S?M) P(M) . P(S?M)P(M)
P(S??M)P(?M) En el caso general multivaluado,
obtenemos la siguiente fórmula de la regla de
Bayes P(Y?X) ?P(X?Y) P(Y) Donde ? es la
constante de normalización 1/P(X) necesaria para
hacer que las entradas en la tabla P(Y?X) sumen 1.
Write a Comment
User Comments (0)
About PowerShow.com