6. Sistemas Autoorganizados
La idea del aprendizaje competitivo está ya trazada en los primeros
trabajos de von der Malsburg (1973) sobre la autoorganización de las
células nerviosas de la corteza cerebral.
En 1975, Fukushima propuso el cognitron que es una red competitiva
multicapa y autoorganizada. Willshaw y von der Malsburg (1976)
trabajaron sobre la formación de las conexiones neuronales mediante
autoorganización y Grossberg (1972, 1976) sobre la clasificación
adaptativa de patrones.
Rumelhart y Zisper (1985) especificaron los tres elementos básicos de
una regla de aprendizaje competitiva:
 Un conjunto de neuronas (unidades de proceso) que se activan o no
en respuesta a un conjunto de patrones de entrada (estímulos) y que
difieren en los valores de un conjunto de pesos sinápticos específico de
cada neurona.
 Un límite impuesto sobre la “fuerza” de cada neurona.
 Un mecanismo que permite competir a las neuronas para responder
a un subconjunto de entradas de tal manera que una y sólo una neurona
por grupo se activa.
6. 2. Redes Neuronales Competitivas no
supervisadas
Potencial sináptico:
h i  w i 1 x 1  w i 2 x 2  ...  w iN x N   i
i 
Dinámica de la computación:
1
yi  
 0
1
2
( w i1  w i 2  ...  w iN )
2
2
2
si h i  max h 1 , h 2 ,..., h M
k
en otro caso

6. 2. Redes Neuronales Competitivas no
supervisadas
•
Gana la unidad de proceso cuyo vector sináptico wi está más cerca
del vector de entrada x
d (x, w i )  x  w i 
( x 1  w i 1 )  ...  ( x N  w iN )
2
2
Teorema 1
Si r es la unidad de proceso ganadora cuando se introduce el patrón de
entrada, x=(x1 ,x2 ,…,xN ), entonces
d ( x , w r )  d ( x , w k ), k  1, 2 ,..., M
d ( x , w r )  2
 xwr
2
 ( x  w r )' ( x  w r )  x ' x  2w r ' x  w r ' w r
 x' x  2hr
 x ' x  2 h k  d ( x , w k ) 
2
6. 2. Determinación de los pesos sinápticos: Regla de
aprendizaje no supervisada
M
Minimizar
E (k ) 

a ik x ( k )  w i ( k )
i 1
 w i ( k  1)   
aˆ ir
si
x(k )  C i
en otro caso
w i (k )
w i (k )
si
a ik
1

0
E
E
1

0
2
  2 a ik ( x ( k )  w i ( k ))
x(k )  w r (k )  x(k )  w i (k ) , i  r
en otro caso
6. 2. Determinación de los pesos sinápticos: Regla de
aprendizaje no supervisada
w i ( k  1)  w i ( k )   w i ( k )
 ( k )( x ( k )  w r ( k )
 w i ( k  1)  
0
w r ( k  1)  w r ( k )   ( k )( x ( k )  w r ( k ))
si i  r
si i  r
wr(k)
wr(k+1)
x(k)
w r ( k  1)  (1   ( k )) w r ( k )   ( k ) x ( k )
 ( k )   0 (1 
k
T
), k  1, 2 ,...
ALGORITMO DE APRENDIZAJE COMPETITIVO
INDIVIDUALIZADO
Paso 0 Elegir como vectores de pesos sinápticos iniciales M
patrones de entrenamiento y poner k=1.
Paso 1 Elegir aleatoriamente un patrón de entrenamiento.
Paso 2 Calcular los potenciales sinápticos
h1(k), h2(k),…, hM(k).
Paso 3 Determinar la neurona ganadora r, es decir, la de mayor
potencial sináptico
h ( k )  máx h ( k )
r
i
1 i  M
Paso 4 Actualizar como sigue:
w r ( k  1)  w r ( k )   ( k )x ( k )  w r ( k ) 
Paso 5 Calcular la nueva tasa de aprendizaje según la expresión
 ( k )   0 (1 
k
)
T
Paso 6 Si k=T parar. Hemos encontrado los vectores sinápticos. En
otro caso poner k=k+1 e ir al paso 1.
6. 2. Determinación de los pesos sinápticos: Regla de
aprendizaje por lotes
M
Minimizar

a
i 1
E
w i
p
ij
x( j)  w i
2
j 1
1
a ij  
0
si
x( j)  C i
en otro caso
p
  2  a ij ( x ( j )  w i )
j 1
p
 w i ( k  1)   ( k )  a ij ( x ( j )  w i )
j 1
p
 aˆ
wi 
ij
x( j)
j 1
p
 aˆ
j 1
ij
6. 2. Determinación de los pesos sinápticos: Otra regla
de aprendizaje por lotes
M
Minimizar
 

i 1
1
ni
a
ij
w i ( k  1)  w i ( k )   ( k )
nˆ i
x( j)  w i
2
j 1
 w i ( k  1)   ( k )
1
1
a ij  
0
p
1
nˆ i
 aˆ
ij
en otro caso
(x( j)  w i )
j 1
 aˆ x ( j )  w 
j 1
x( j)  C i
p
p
ij
si
r
 (1 -  ) w i ( k )   ( k )
1
nˆ i
p
 aˆ
j 1
ij
x( j)
6.3 Redes Autoorganizados: La red de Kohonen
•
En el aprendizaje competitivo no hemos tenido en cuenta para nada la posición física
de las unidades de proceso.
•
No ocurre así en el cerebro humano, donde neuronas próximas físicamente presentan
características y comportamiento similares.
•
La localización espacial de una neurona dentro de un mapa topográfico va a
corresponder a un dominio o característica particular de los datos de entrada.
•
Esta idea está inspirada en los estudios pioneros que hizo von der Malsburg (1973)
indicando que un modelo del corteza visual puede no estar completamente
predeterminado genéticamente sino que un proceso de autoorganización por aprendizaje
puede ser responsable de la ordenación local de las neuronas.
•
Kohonen (1982) presentó un modelo sencillo para la formación autoorganizada de
mapas de características de los datos de entrada del que nos ocuparemos en este
capítulo.
6.3. Red de Kohonen
d (p i , p j ) 
( p i1  p j 1 )  ( p i 2  p j 2 )
2
Funciones de vecindad:
 (p i , p j )  e
 p i ,p j
2
d ( p i , p j )  p i1  p j1  p i 2  p j 2
0
0.5
0
0.5
1
0.5
0
0.5
0
Regla de aprendizaje:
w i ( k  1)  w i ( k )   ( k )  p r , p i ( x ( k )  w i ( k ))
6.3. Red de Kohonen
Tipos de rejillas:
Hexagonal SOM grid
Rejilla hexagonal
Rectangular SOM grid
Rejilla rectangular.
6.3. Etapas del Proceso de Entrenamiento
En la primera etapa, llamada fase de ordenación global, tiene lugar
la ordenación topológica de los vectores sinápticos (vectores de
referencia o prototipos) de las unidades de proceso. Se utiliza una
tasa de aprendizaje alta (0.9) y un radio de vecindad grande similar al
diámetro del mapa. A medida que avanza el aprendizaje, tanto la tasa
de aprendizaje como el radio de vecindad se van reduciendo forma
lineal hasta alcanzar unos valores mínimos, 0.02 y 1, respectivamente.
La segunda etapa, llamada fase de ajuste fino, tiene como objetivo
conseguir la convergencia de los vectores sinápticos a los prototipos
de los grupos que construye la red. La tasa de aprendizaje se toma
pequeña (0.05) y se puede mantener constante o reduciéndose
suavemente. El radio de vecindad se toma igual a 1 (mínimo).
6.3. Etapas del Proceso de Entrenamiento
Se repite el proceso de entrenamiento 10 veces, cada una de ellas
con una configuración inicial diferente de los vectores sinápticos. Se
calcula el error de representación para cada uno de los mapas
obtenidos y se selecciona el de menor error.
Por lo tanto, el proceso de aprendizaje de un Mapa Autoorganizativo se
puede dividir en tres fases. Una primera fase competitiva en la que se
determina la neurona ganadora, es decir, la mejor emparejada con el
patrón de entrada según la distancia euclidiana; una segunda fase
cooperativa establecida en términos de una función de vecindad entre
la neurona ganadora y las demás, y, finalmente, una tercera fase
adaptativa que actualiza los vectores sinápticos de la unidad ganadora
y sus vecinas según la regla de aprendizaje
6.3.1 Precisión de la Transformación
Cada unidad de proceso tiene asignado el conjunto de patrones de
entrada que la hace ganadora. Dicho conjunto viene representado por el
vector de pesos sinápticos de la unidad de proceso. Una medida de
precisión de la transformación de un mapa autoorganizativo describe
cómo de correcta es la representación de dicho conjunto de patrones por
el vector de pesos sinápticos de la unidad de proceso que los representa
(unidad ganadora). Es decir, la precisión de las respuestas de las
unidades de proceso a un conjunto de patrones (datos) dado. Una medida
que calcula la precisión de la transformación es el error medio de
cuantificación sobre un conjunto de N datos que viene dada por la
expresión:
EM C 
1
N
N

k 1
x k  w (k )
2
6.3.2 Preservación de la topología
Con una red autoorganizativa se persigue la preservación topológica en el
plano de la proyección. Una medida de la preservación de la topología del
conjunto de patrones (datos) en el mapa autoorganizado es el error
topográfico que viene dado por la expresión:
1
ET 
N
N
 u (x
k
)
k 1
donde
1
u (x k )  
0
si la prim era y segunda unidades ganadoras para x k están próxim as
en otro caso
La proyección de Sammon es un algoritmo que proyecta un espacio de
alta dimensión en un espacio de baja dimensión de manera que se
minimice la siguiente función de error:
E 
*
1

 d ij  d ij 
*
d ij

i j
2
*
d ij
i j
siendo d*ij la distancia en el espacio original entre los objetos i-ésimo y j-ésimo
6.3.3. Aplicaciones: Visualización de datos
Una matriz de distancias unificada (U-matriz) es una visualización 2D
de datos multivariantes que utiliza los vectores sinápticos (prototipos,
vectores de representación o vectores código) de las unidades de
proceso de un Mapa Autoorganizativo. Para ello, se genera una matriz en
la que cada elemento de la misma está asociado a una unidad de
proceso y el valor de cada elemento viene determinado por la distancia
media del vector de pesos sinápticos de la unidad de proceso a los
vectores sinápticos de sus unidades de proceso vecinas. Por ejemplo,
consideremos un mapa autoorganizado de tamaño 5×1, siendo pi,
i=1,2,...,5, las unidades de proceso. La U-matriz es el vector definido por
los elementos
ui 
1
2

d ( w i , w j ), i  1,2,...,5.
j N ( i )
y N(i) es el conjunto de unidades de proceso vecinas con la unidad i.
6.3.3. Aplicaciones: Visualización de datos
Los valores altos de una U-matriz representan una región frontera entre
clusters mientras que los valores bajos representan un alto grado de
similitud entre las neuronas de esa región (clusters). Podemos utilizar
algún sistema de colores o tonos de gris para realizar una representación
gráfica de dicha matriz.
Mapa Autoorganizativo de Kohonen 40×40 para datos IRIS.
6.3.3. Aplicación al problema del viajante
1


1 / 2
 ( r ,  j )  

1/4


0
si
r 
si
r 
j

r 
j

si
j
en otro caso
 0
2
3N
4
3N
6.3.3 Detección de vasos sanguíneos
en mamografías
1


 ( r ,  j )  1 / 2

0

si  r  
si  r  
j
j
en otro caso
0


10
6.3.2 Detección de vasos sanguíneos
en mamografías
6.4. Modelos ART (Adaptive Resonance Theory)
•
Dilema de la estabilidad-plasticidad (Grossberg)
Red neuronal ART1:
•
hi 
Potencial sináptico:
w i 'x
wi
•
w i 'x
hi 
wi
• Test 2:
w r 'x
x
2
 w i 'x
h r  hi ,  i  r
Unidad ganadora r :
• Test 1:
2

2
x
2
n
 
• Regla de aprendizaje
Parámetro de vigilancia
nuevo
wr
 wi  x
6.4 Modelos ART (Adaptive Resonance Theory)
Red neuronal ART2
•
Unidad ganadora r :
• Test de vigilancia:
• Regla de aprendizaje:
wr  x  wi  x ,
i  r
wr  x  
w r ( k  1) 
x  grupo
r w r (k )
1  grupo
1
x m 1
m 1
x

m 1
i 1
r
i

 1 m

 m  xi 
 m i 1 
m 1
6.5. Redes competitivas con aprendizaje supervisado
•
h i  w i 1 x 1  w i 2 x 2  ...  w iN x N   i
Potencial sináptico:
i 
• Unidad ganadora:
1
yi  
 0
1
2
wr(k)
( w i 1  w i 2  ...  w 1 N )
2
2
si h i  max h 1 , h 2 ,..., h M
2
wr(k+1)
x(k)

k
en otro caso
• Regla de aprendizaje para x  C s
  r ( k )( x ( k )  w r ( k ) )
 w r ( k  1)  
   r ( k )( x ( k )  w r (k))
 w i ( k  1)  0 , i  r
  r (k )
1   ( k )

r
 r (k )  
  r (k )
 1   r ( k )
si r  s
si r  s
si r  s
si r  s
wr(k+1)
wr(k)
x(k)
Descargar

6. Sistemas Autoorganizados