DETECCIÓN Y DIAGNOSTICO DE FALLOS
USANDO REDES NEURONALES
María Jesús de la Fuente
Dpto. Ingeniería de Sistemas y Automática
Universidad de Valladolid
[email protected]
CONTENIDOS
 Introducción a las redes neuronales artificiales (RNA)
 Método 1: uso de las RNA para identificar un modelo nolineal.
Aplicación a un reactor químico
 Método 2: uso de las RNA como clasificadores
Aplicación a un reactor químico
 Método 3: uso de las RNA para implementar métodos
robustos de FDD.
Aplicación a una depuradora de aguas residuales
 Conclusiones
REDES NEURONALES (I)
 Formadas por elementos de proceso simples (neuronas)
 Una neurona se divide en función de activación y función
de transferencia
 La función de transferencia determina las propiedades de
la neurona
 Varias neuronas forman una capa
P(1)
W(1,1)
W(1,1)
p(1)
P(2)
P(3)
S
p(2)
S
n
F
a
P(R)
F
a(1)
F
a(2)
F
a(S)
b(1)
1
p(3)
S
b
W(1,R) 1
n(1)
1
p(R)
W(S,R)
b(2)
S
1
n(2)
b(S)
n(S)
REDES NEURONALES (II)
 Principales funciones de transferencia:
Lineal: y=ka
Escalón: y = 0 si a<0; y=1 si a>=0
Sigmoide
Gaussiana.
REDES RECURRENTES Y FEEDFORWARD
Capa oculta
Capa de
salida
Capa de
entrada
Capa oculta
Salidas
Entradas
1
Capa de contexto
1
Red feedforward
Red recurrente
(Perceptron multicapa)
(Red de Elman)
MÉTODO 1. GENERADOR DE RESIDUOS
Fallos
Ruido
 Perturbaciones
 Errores de modelado

U
entradas
Y
Planta
Salidas
Generador
de
residuos
Ecuaciones de paridad
ARMA
e(t)=y(t)-S(z)·u(t)
r(t)=V(z)·e(t)
MA
*
e (t)=H(z)·y(t)-G(z)·u(t)
r*(t)=W(z)· e*(t)
r
0
Residuos
Redes neuronales
Filtros de Kalman
^y(t) = g((t), )
^x(t+1|t) = A·x(t|t)
^
+ B·u(t)
^
r(t) = y(t) - y(t)
^x(t|t) = x(t|t-1)
^
+ K’·r(t)
^
r(t) = y(t) - C· x(t|t-1)
REACTOR QUÍMICO ENCAMISADO.
Fl, Ca0, Tl0
Reactor
Fr, Tr0
Camisa
A
Ca, Cb, Tl
B
Tr
1. Transforma un producto A en otro B
2. Reacción química exotérmica
3. Se controla la temperatura mediante
una camisa por la que circula un
refrigerante
4. Salidas:
Ca Cb Tl Tr
5. Entradas: Manipulables:
Fl Fr
Perturbaciones medibles:
Ca0 Tl0 Tr0
MODELADO DEL REACTOR
 El periodo de muestreo es T = 0.2 horas
 Las entradas han de ser tales que provoquen todas las salidas de interés
MODELADO DEL REACTOR
 Se normalizan los datos de entrada y salida
 Se entrenan cuatro redes, cada una modeliza una salida
 Se usa el algoritmo backpropagation
Fl
Fr
R.N.A. Elman
Ca
R.N.A. Elman
Cb
R.N.A. Elman
Tl
R.N.A. Elman
Tr
Ca0
Tl0
Tr0
VALIDACIÓN DEL MODELO
Salidas del modelo saltos en Fr
SIMULACIÓN DE FALLOS
 Se simulan fallos en la variables controladas y en las
manipuladas
 Los fallos se implementan como escalones
Señales de control
con fallo
u
referencias
Controlador
Actuador
Planta
Sensores
+
+
fallo
fallo
Salida con fallo
GENERACIÓN DE RESIDUOS
 El efecto de un
fallo en los sensores
sobre el control es:
 Residuos variables controladas
r (t )  y (t )  y (t )
residuoC  r (t )  r (t  1)
r(t) es una estima del tamaño del fallo
residuo es igual que r(t) pero de menor tamaño
CLASIFICACIÓN DE FALLOS
F a llo en
F a llo en
F a llo en
F a llo en
F a llo en
F a llo en
 ref T l
Ca
Cb
Tl
Tr
Fl
Fr
R esid u o d e
Ca
R esid u o d e
Cb
R esid u o d e
Tl
R esid u o d e
Tr
R esid u o d e
Fl
R esid u o d e
Fr
1
0
0
0
0
0
0
1
1
0
0
0
0
0
1
0
1
0
1
1
1
1
0
0
1
0
1
0
0
0
1
1
0
0
0
1
0
 Para clasificar los fallos se usa una matriz de incidencias
 Cada fila corresponde a un posible fallo
 Cada columna corresponde a un síntoma
 La matriz está formada por 1 y 0
 Un 1 indica que cuando ocurre el fallo al que se refiere la
fila se produce el síntoma que indica la columna. Un 0
indica lo contrario
PRUEBAS DEL CLASIFICADOR
PRUEBAS DEL CLASIFICADOR
MÉTODO 2: CLASIFICACIÓN (I)
 Fallos provocados:
 Tubería de entrada parcialmente bloqueada: Fl se reduce un 20%
 Concentración alta a la entrada del producto A, Ca0 aumenta 20%
 Impurezas en las paredes del tanque, se reduce la transmisión de calor
entre el tanque y la camisa. U se reduce en un 20%
 Tubería del refrigerante parcialmente bloqueada: Fr disminuye 20%
 Disminución de la temperatura Tl en un 20%
 Las variables medibles más afectadas por los fallos que se
introducen como entradas a la red son: Ca, Cb, Tl y Tr
 La salida deseada será: (0,0,0,0,0) para caso sin fallo,
(1,0,0,0,0) para el fallo 1, (0,1,0,0,0) para el fallo 2, etc.
 Las redes utilizadas son, una red perceptron multicapa: 4-8-5,
y una red de base radial con topología: 4-10-5
MÉTODO 2 (II).
 La salida del sistema cuando se provocan los fallos 1,2,3,4 y 5 son:
MÉTODO 2 (III).
 En este ejemplo los residuos son el vector de salida de las redes, se supone
un umbral de 0.5.
 Resultados de utilizar la red perceptron multicapa para el fallo 1 y 2 en la
primera gráfica a partir de t=150,la salida es (1,0,0,0,0) y para la segunda
(0,1,0,0,0):
MÉTODO 2 (IV).
 La red de base radial, se estudia con los fallos 3 y 4:
MÉTODO 3. MÉTODOS ROBUSTOS (I)
 Definir una señal de diagnóstico:
z(t) = f (fallos) + g(perturbaciones)
Se calculan las componentes en frecuencia de esta señal

N 1
1
2

z ( n  1) 
z ( k  1) * cos(
* n * k ) 

n
N

k0
 n  0 ,1,...,23





Estas señales se usan como entradas a la red neuronal: para
que aprenda a distinguir entre patrones debido a fallos y
patrones debidos a perturbaciones
La salida de la red: 0.05 indica no fallo, 0.95 indica fallo.
Se pone un umbral en 0.5
MÉTODO 3. MÉTODOS ROBUSTOS (II)
 Se pueden utilizar distintos tipos de redes neuronales:
No supervisadas:
Supervisadas:
MÉTODO 3. APLICACIÓN (III)
 Este método se aplicará a una depuradora de aguas residuales:
Primary settlers
wastewater
colector
aeration tanks
secondary
clariffiers
from
Screening
sand/oil
removal
water
to the
river
RAS
WAS
sludge
thickener
flotation
tank
anaerobic
digestion
filtration
filtered sludge
removed by
lorry
water returned to plant inlet
methane
flare
stack
MÉTODO 3. MODELO MATEMÁTICO (IV)
qi, xi, si
q, x, s
q1, xd
q
q, x , s
xd
aeration tank
xb
secondary clarifier
xr
M
qr, xr, sr
turbine
q2, xr
recycled activate sludge (RAS)
activate sludge
q2
qp: waste activate sludge (WAS)
AERATION TANKS
dx
 *y*
dt
ds
dt
dc
dt
  *
s*x
(ks  s)
x*s
ks  s
x
 kd *
 kd 1 *
2

s
x
2
s

q
SECONDARY CLARIFIERS
( xir  x )
A * L d x d  q1 * x b  q1 * x d  A * Vs ( x d )
d dt
V
q
A * Lr *
( sir  s )
V
 kla * fkla * ( cs  c )  OUR 
A * Lb
q
V
( cir  c )
dxr
dt
dxb
dt
 q 2 * xb  q 2 * xr  A * Vs ( xb )
 q * x  ( q 1  q 2 ) * xb  A * ( Vs ( xd )  Vs ( xb ) )
Vs ( x )  n r * x * exp(  a r * x )
MÉTODO 3. ALGORITMO (V)
 Calcular
mediante
él método
  ( t )   ( t )   ( t 
1)
i
i
i
 Calcular:
w ( t )   w ( t  1)    ( t )
i
i
1 i
RLS


s ( t )  sig n    T ( t ) w ( t  1) 
i
i
i


r ( t )   r ( t  1)  (1   )s ( t )
i
2 i
2 i
 r(t) => señal de diagnóstico. Sus componentes en frecuencia son las
entradas a la red neuronal
 Cuatro tipos de redes neuronales:
 Red de Kohonen
 Red competitiva
 Red feedforward
 Red de base radial
MÉTODO 3. ALGORITMO (VI)
 Modificación del algoritmo de adaptación de la matriz P(t)
P(t)=P(t) + (t)
( t ) 
0 (t) 
1
 0 ( t )  ( t )
 ( t ) ( t )
T

   ( t ) P ( t  1) ( t )
T

0
o ut  0 .5
1
o ut  o ut(t)
MÉTODO 3. RESULTADOS (VII)
 Señal de diagnóstico r(t) y sus componentes en frecuencia
Situación normal
Fallo
MÉTODO 3. RESULTADOS (VIII)
 Red de kohonen
1 neurona:
Entrenamiento
Resultados
MÉTODO 3. RESULTADOS (IX)
 Red competitiva
347 neuronas
 10 para fallos
 247: no fallos
 Buenos resultados
MÉTODO 3. RESULTADOS(X)
 Red perceptron multicapa:
capa de entrada 23 neuronas
capa oculta con 47 neuronas
capa de salida con 1 neurona
 Red de base radial:
capa de entrada con 23
neuronas
capa oculta con 113 neuronas
capa de salida con 1 neurona
MÉTODO 3. RESULTADOS (XI)
 Red perceptrón multicapa
Red de base radial.
MÉTODO 3. RESULTADOS (XII)
 Aplicación a la planta real:
Sólo funcionó la red neuronal perceptrón multicapa
Descargar

DETECCIÓN Y DIAGNOSTICO AUTOMÁTICO DE FALLOS