Presentacin de PowerPoint - PowerPoint PPT Presentation

1 / 28
About This Presentation
Title:

Presentacin de PowerPoint

Description:

El patr n de entrada se conoce como el est mulo, y el patr n de salida como la respuesta. ... La salida: a = hardlim(w0p0 1Wp b) Entrenamiento ... – PowerPoint PPT presentation

Number of Views:47
Avg rating:3.0/5.0
Slides: 29
Provided by: lucianom3
Category:

less

Transcript and Presenter's Notes

Title: Presentacin de PowerPoint


1
Aprendizaje Asociativo Objetivo Mostrar reglas
de aprendizaje no supervisado. Se mostrarán
varias formas del aprendizaje Hebbiano y otras
reglas de aprendizaje asociativo. Qué es una
asociación? Una asociación es cualquier relación
entre una entrada y una salida de un sistema, de
tal manera que cuando un patrón A se le presenta
al sistema, este responde con el patrón B. El
patrón de entrada se conoce como el estímulo, y
el patrón de salida como la respuesta.
2
Red Asociativa sencilla. La red más sencilla que
implementa una asociación es la siguiente
Con S R 1 y b -0.5

Se restringe el valor de p a un 0 ó a un 1 (por
simplicidad) para indicar la ausencia o presencia
de un estímulo, a también está limitada a un
valor de 0 ó 1 para indicar la ausencia o
presencia de la respuesta.
3
La presencia de una asociación entre el estímulo
p1 y la respuesta a1 está determinada por el
valor de w. La red responde al estímulo solo si
el valor de w es mayor que b. Ejemplo
Supongamos una red sencilla de dos entradas para
reconocer cambures (bananas). Hay un conjunto de
entradas que representarán el estímulo no
condicionado. Otro conjunto de entradas
representarán el estímulo condicionado. (Recordar
el experimento del perro de Ivan Pavlov. En este
caso, la comida sería el conjunto no condicionado
y la campana el conjunto condicionado). Represente
mos el estímulo no condicionado como P0 y el
estímulo condicionado como p. Supongamos que los
pesos asociados con P0 son fijos, pero los pesos
asociados con p se ajustan de acuerdo a una regla
de aprendizaje.
4
Se desea que la red (neurona) asocie la forma de
la banana, no el olor, con una respuesta que
indique que la fruta es una banana. El estímulo
no condicionado de la red será la forma de la
banana y el estímulo condicionado será su
olor. P0 1 indicará forma detectada P0 0
indicará que no se detectó la forma. P 1
indicará que se detectó el olor P 0 indicará
que no se detectó el olor. Si se da a W0 el valor
1 y a w el valor 0, el asociador se simplifica a
a hardlim(P0 0.5) Esta red solo responderá si
se observa la banana (si se da la forma),
independientemente de si se da el olor (p1) o no
(p0). Regla de No Supervisada de Hebb Para
problemas simples se puede diseñar una red con
asociaciones fijas. Se buscan redes que sean
capaces de aprender las asociaciones.
5
Cuándo se aprendería una asociación? Se acepta
que las personas y los animales tienden a asociar
cosas que ocurren simultáneamente. si ocurre un
estímulo de olor de la banana simultáneamente con
una respuesta del concepto de banana (activado
por algún otro estímulo como la forma), la red
debería fortalecer las conexiones entre éstos, de
tal manera que posteriormente pueda activar su
concepto de banana en respuesta al olor
solamente. La regla no supervisada de Hebb
realiza el ajuste incrementando los pesos wij
entre la entrada pj de la neurona y la salida ai
en proporción a su producto
6
La tasa de aprendizaje determina cuántas veces
deben ocurrir conjuntamente el estímulo y la
respuesta antes de que se logre la asociación. En
la red del ejemplo anterior, se logra la
asociación cuando wgt-b 0.5, dado que p1
producirá la respuesta a 1, independientemente
del valor de P0 . La ecuación utiliza sólo las
señales disponibles dentro de la capa que
contiene los pesos que se están modificando. Las
reglas que satisfacen esta condición se conocen
como Reglas de Aprendizaje Local. Forma Matricial
de La regla no supervisada de Hebb
Como toda regla no supervisada, el aprendizaje se
logra en respuesta a una serie de entradas, la
secuencia de entrenamiento (una serie de tiempo)
7
En cada iteración se calcula la salida a en
respuesta a la entrada p, luego se ajustan los
pesos de acuerdo a la regla de Hebb. Aplicación
de la Regla no Supervisada de Hebb al asociador
de la Banana Fijamos los valores iniciales para
los pesos (la primera parte del ejemplo anterior,
donde el asociador responde a la forma pero no al
olor)
La secuencia de entrenamiento será
El sensor de la forma operará sólo en los pasos
pares. El peso para el estímulo no condicionado
será constante, mientras w se ajustará en cada
ieteración con una tasa de aprendizaje de valor 1.
a 1
8
Primera iteración
El olor no generó respuesta. Sin respuesta, la
regla de Hebb no modifica a w
Segunda iteración
Se detecta la presencia del olor y la forma de la
banana y la red responde. Como el estímulo de
olor y la respuesta ocurren simultáneamente, la
Regla de Hebb incrementará los pesos entre éstos
9
Cuando el detector de forma falla de nuevo en la
tercera iteración, la red responde de todos
modos, debido a que logró una asociación entre el
olor y la respuesta
En adelante, la red responderá con la presencia
de forma o de olor (incluso cuando los dos
sensores fallen). La falla de la regla de Hebb
que se puede observar en este momento es que los
pesos pueden crecer arbitrariamente.
10
  • Correción de la falla
  • Una forma de mejorar la regla es agregando un
    término que controle el crecimiento del peso.
  • es la tasa de control, una constante positiva
    menor que 1. Cuando se aproxima a 1, la regla
    olvidará las entradas pasadas y recordará las más
    recientes.
  • El valor máximo de los pesos está determinado por
    ?. Si se coloca la entrada y la salida en 1 para
    todo q, y se resuelve para estado estacionario
    (los pesos nuevos iguales a los anteriores)

11
Aplicación de la Regla no Supervisada de Hebb al
asociador de la Banana con el factor de control
a 1
g 0.1
Primera iteración
Segunda iteración
12
Tercera iteración
El peso se incrementa más lentamente, hasta un
máximo
maxwij ?/? 1/0.1 10
13
El ajuste de los pesos con el control de
crecimiento tiene el siguiente problema Todos
los estímulos se deben presentar aunque sea de
manera ocacional, de lo contrario los pesos
pueden decrecer, por lo que cualquier asociación
aprendida previamente se puede perder.
Si ai 0
Si g 0.1
14
La Red Instar La red más sencilla para
reconocimiento de patrones. Con S 1
p
W
Rx1
SxR
a
n

Sx1
Sx1
1
b
S
Sx1
La Instar se activa cuando Ó El producto interno
es máximo cuando el ángulo entre los vectores es
cero. Si los vectores están normalizados (tienen
la misma dirección, con ángulo cero son iguales)
entonces P 1W. Las filas de la matriz de pesos
representan los patrones a reconocer.
15
La Instar se activará cuando el vector p está más
cerca del vector 1W. Se escoge el sesgo en forma
apropiada para que el vector de entrada esté
cerca del vector de pesos con el fin de activar
la red. Si se escoge la Instar se activará
cuando el vector p apunta en la misma dirección
del vector 1W (el ángulo cero). Se trata de una
neurona que reconoce solamente el patrón 1W. Se
asume en este análisis, que los vectores de
entrada tienen la misma longitud (norma). Se
puede diseñar una red para reconocer un vector,
si se conoce cuál es el vector que se quiere
reconocer. Sin embargo, si queremos que la red
aprenda sin supervisión, se requiere una regla.
(Ninguna versión de la regla de Hebb produce
pesos normalizados).
16
La regla de aprendizaje Instar Partiendo de la
regla de Hebb Para limitar los pesos y superar
el problema del olvido, se agrega el término de
control proporcional a la salida. Si se
escoge ? ? En forma vectorial Cuando la Instar
está activa, es decir cuando su salida es 1
17
Cuando la instar está inactiva Una propiedad
útil de la Instar es que si los vectores de
entradas están normalizados, los pesos también
están normalizados.
Ejemplo Se aplica la regla instar a la red
siguiente que tiene dos entradas.
Visual de naranja p0
W0 3
a naranja?
n
W11 W12 W13
Forma p1 Textura p2 Peso p3
b -2
1
Una entrada indica si la fruta se identifica
visualmente como naranja (estímulo no
condicionado) y otra que consiste de tres medidas
de la fruta (estímulo condicionado).
18
Los elementos de p son 1. P es un vector
normalizado de p p0 1 significa que se
detecta visualmente la naranja p0 0 significa
que no se detecta visualmente la naranja pT
forma textura peso El sesgo es 2, un valor
ligeramente superior a -p2 -3 La salida
a hardlim(w0p01Wp b) Entrenamiento
Inicialmente la red no responde a ninguna
combinación de las medidas, los pesos serán w0
3
19
Se trabaja con a1. Primera iteración La
secuencia de entrenamiento consiste de
presentaciones repetidas de la una naranja. Se
dan las medidas todo el tiempo, pero la imágen
sólo se dará en instantes pares, debido a fallas
en el detector óptico.
0
0
1
1
W
p
1
2



(
)
(
)
(
)
(
)
a
h
a
r
d
l
i
m
w
p
æ
ö
1
ç

1
3
0
2


0
(sin respuesta)


(
)

a
h
a
r
d
l
i
m
0
0
0
1

ç

ç

1

è
ø
20
Segunda iteración La neurona responde cuando
la naranja se identifica visualmente
conjuntamente con las otras medidas. La
neurona aprendió a asociar el vector de medidas
con su respuesta, puede reconocer la naranja por
sus medidas. Tercera iteración
21
La red responde incluso si el sistema visual
falla. Cuando la red aprende (recuerda las
medidas), los pesos ya no cambian. Una tasa de
aprendizaje más pequeña requiere más iteraciones.
22
La regla de aprendizaje de Kohonen Otra regla de
aprendizaje asociativo. Está relacionada con la
regla Instar. Permite que los pesos de una
neurona aprendan un vector de entrada. El
aprendizaje no es proporcional a la salida de la
neurona ai(q). El aprendizaje ocurre cuando el
índice i de la neurona es un miembro del conjunto
X(q). La regla de Kohonen es equivalente a la
Instar, si se aplica la regla Instar a una capa
de neuronas cuya función de transferencia retorna
0 ó 1 (como el escalón), y se define el conjunto
X(q) como el conjunto de todos los i tales que
ai(q)1. La ventaja de la regla de Kohonen es que
se puede usar con otras con otras definiciones.
Es útil para entrenar redes como los mapas de
propiedades auto-organizantes.
w
w
1

p
w
1





for

(
)
(
)
a
(
)
(
)
(
)
(
)
Î
,
q
q
q
q
i
X
q
i
i
i
23
El aprendizaje Outstar La red Instar (con un
vector de entrada y una salida escalar) realiza
reconocimiento de patrones asociando un vector
particular (estímulo) con una respuesta. La red
Outstar tiene una entrada escalar y un vector
como salida.
a satlins(Wp)
Se escoge la función lineal saturada cuando se
requiere que la red recuerde vectores con
elementos 1 ó 1.
24
Si se desea que la red asocie un estímulo (la
entrada de un 1) con un vector de salida
particular a simplemente se coloca el vector
columna w igual a a. Si p 1, la salida será a
Cuando se requiere una red que aprenda un
vector sin supervisión se necesita una regla de
aprendizaje. Regla de aprendizaje outstar Las
columnas de la matriz de pesos representan los
patrones a recordar. El término que controla el
crecimiento de los pesos es proporcional a la
entrada de la red.
Si se escoge ? ?
25
La red aprende cuando la entrada es diferente de
cero, en ese caso las columnas de w se mueven
hacia el vector de salida.
En forma vectorial
wj es la j-ésima columna de la matriz W
Ejemplo se entrena la red siguiente para
reconocer piñas.
n1 n2 n3
a1 a2 a3
w011 1 w022 1 w033 1
Recuerda forma Recuerda textura Recuerda peso
Forma P01 Textura p02 Peso p03
w11 w21 w31
Piña, imágen
p
26
La salida de la red
Las dos entradas de la red le proporcionan las
medidas p0 de la fruta (estímulo no condicionado)
y la señal p que indica que se vió o no una piña
(estímulo condicionado).
p0 1 significa que se detecta visualmente la
piña p0 0 significa que no se detecta
visualmente la piña pT forma textura peso Se
espera que la salida de la red refleje las
medidas de la fruta que se examina, usando
cualquiera de las entradas disponibles.
1

p
i
ña
p

1

1
27
Se trabaja con a1.
Primera iteración
æ
ö
0
0
0
ç

a
1
s
a
t
l
i
n
s
1

(sin respuesta)


(
)
0
0
ç

0
ç

0
0
0
è
ø
Segunda iteración
æ
ö
1

0
1

ç

a
2
s
a
t
l
i
n
s
1

(medidas)


(
)
1

0
ç

1

ç

1
0
1
è
ø
28
Tercera iteración
æ
ö
0
1

1

ç

a
3
s
a
t
l
i
n
s
1

(medidas)


(
)
ç

0
1

1

ç

0
1
1
è
ø
Write a Comment
User Comments (0)
About PowerShow.com