Geoestadística multivariada
Hasta ahora se ha estudiado como estimar una propiedad utilizando los valores
conocidos de dicha propiedad obtenidos en puntos vecinos o cercanos o bien
como hacer uso de una función de tendencia para guiar la estimación de la
propiedad.
A continuación estudiaremos algunas técnicas geoestadísticas propuestas para
obtener estimaciones de la propiedad de interés cuando se dispone de
observaciones de otras variables relacionadas con la variable en estudio.
Entre este tipo de técnicas se encuentran:
Cokriging Simple y Ordinario
Cokriging colocado (collocated cokriging)
Geoestadística multivariada
Al igual que en el caso de geoestadistica univariada, lo fundamental es contar
con una herramienta que mida la correlación espacial de las variables
involucradas y su interrelación.
La correlación espacial de cada una de las variables involucradas se obtiene
como antes a través de la función de covarianza o del variograma.
La correlación espacial conjunta o la interrelación se obtiene a traves de la
funcion de covarianza cruzada que estudiaremos a continuación
VARIOGRAMA CRUZADO
comportamiento espacial en conjunto
 ZS
 ZS
Si Z y S son funciones aleatorias estacionarias o intrínsecas, el
variograma cruzado de ellas se define como :
 ZS ( h ) 
1
E [( Z ( x )  Z ( x  h )) ( S ( x )  S ( x  h ))]
2
Para su estimación se utiliza el variograma cruzado experimental

*
ZS
(h) 
1
2 N h 

( z ( x i )  z ( x j )) ( s ( x i )  s ( x j ))
xi  x j  h
 ZS
Algunas propiedades del variograma cruzado son:
1)

2)

ZS
 h   
3)

ZS
h   
ZS
0   0
ZS
SZ
h 
h 
El variograma cruzado es una función simétrica
4) Relación con la función de covarianza cruzada
La función de covarianza cruzada se define como:
C ZS h   E  Z  x   m Z  S  x  h   m S 
 ZS
La función de covarianza cruzada se relaciona con el variograma cruzado a
través de la ecuación
 ZS ( h )  C ZS 0   C ZS h   C SZ h 
1
2
Esta expresión se debe al hecho de que la función de covarianza no
necesariamente es simétrica. Es decir, en general
C ZS h   C SZ h 
Sin embargo, una práctica común es asumir que la función de covarianza es
simétrica. Esto simplifica enormemente los cálculos asociados a la estimación
de la función de covarianza conjunta. En ese caso,
 ZS ( h )  C ZS 0   C ZS h 
 ZS
5) Relación de dependencia
Es importante tener presente que entre el variograma cruzado y los
variogramas de cada una de las variables, existe una relación de dependencia.
Por ejemplo, se puede demostrar que:
 ZS  h 
2
  Z h   S h 
Desigualdad de Hölder
En particular, El producto de cada uno de los sill de los variogramas
individuales es mayor que el cuadrado del sill del variograma cruzado.
 
2 2

ZS
 Z2  S2
En consecuencia, el modelo de variograma cruzado no puede ser escogido
independientemente de cada uno de los modelos de variogramas
individuales
!
 ZS
5) El modelo de coregionalización lineal
Anteriormente se aseguraba que la varianza de combinaciones lineales de la
variable de interés era positiva utilizando modelos de variograma. Al incluir más
variables, es necesario asegurar que la varianza de combinaciones lineales de
estas sea positiva.
Para lograr esto se utiliza el modelo lineal de coregionalización, que establece
que los variogramas individuales y el cruzado son combinaciones lineales de
modelos de variogramas. En el caso de 2 variables se tiene que:
 Z  h   u1  1  h   u 2  2  h     u m  m  h 
 S h   v1  1 h   v 2  2 h     v m  m h 
 ZS h   w1  1 h   w 2  2 h     w m  m h 
 ZS
Las ecuaciones anteriores se puede escribir en forma matricial como:
  Z (h)

 ZS ( h )
 ZS
 h
 u1

 S ( h )   w1
w1   1 ( h )

v1   0
um

   
 1( h ) 
 wm
0
w m   m ( h )

vm   0


 m (h)
0
Cada una de las matrices que contienen los variogramas son definidas
positivas, por lo tanto para que el resultado final sea una matriz definida
positiva debe ocurrir que:
uj  0
vj  0
u jv j  w j  0
2
 ZS
El uso del modelo de coregionalización lineal tiene las siguientes consecuencias:
1) Todo estructura presente en el variograma cruzado deber estar presente en
los variogramas individuales. El recíproco no es cierto.
Esto hace que en general resulte engorroso ajustar variogramas experimentales de
las variables y sus variogramas cruzados, ya que al cambiar los valores del
variograma cruzado cambian los valores de los variogramas individuales. La forma
de juzgar la bondad del ajuste es establecer un compromiso entre el ajuste de cada
uno de los variogramas y su desviación de los valores experimentales.
2) Los variogramas individuales tendrán todos el mismo rango y la forma del
variograma será la misma. Sólo se diferenciarán en los valores del sill
3) Los variogramas individuales tendrán todos la misma dirección de anisotropía
 ZS
4) Envolvente del variograma cruzado
Debido a la relación entre los parámetros u, v y w el variograma cruzado se
encuentra siempre dentro de dos curvas que conforman su envolvente.
 ZS
h
Cokriging
Planteamiento básico de la estimación por Cokriging:
Considerar la estimación de
como una combinación lineal de las
observaciones disponibles de Z más combinaciones lineales de las
observaciones de las variables relacionadas.
Ejemplo:
Z Propiedad o variable principal, por ejemplo porosidad
S
Información o variable secundaria, por ejemplo impedancia acústica
+
Combinación lineal de
la variable principal
Combinación lineal de
la variable secundaria
Cokriging
En el caso general lo único que se complica es la notación :
Z Propiedad o variable principal, por ejemplo porosidad
S i Variables secundarias, por ejemplo atributos sísmicos
+
+
Combinación lineal de
la variable principal
+
Combinaciones lineales de
las variables secundarias
+
Cokriging
COKRIGING SIMPLE
El caso más simple se denomina cokriging simple y la hipótesis básica es la
estacionaridad de todas las variables junto con el hecho de que se asume que las
medias de todas las variables son conocidas. Esto es,
E  Z u    m


E S j u   m j
y m es conocida
y m j es conocida
 j
A continuación se obtendrán las ecuaciones de cokriging simple en el caso en que
se considera solo una variable secundaria. En este caso el estimador propuesto es
Cokriging
Al igual que antes, las condiciones de optimalidad son:
*
1) Estimador insesgado E ( Z cok
( u ))  E  Z u 
*
2) var[ Z u   Z cok
u ] mínima
La primera condición se obtiene automáticamente al utilizar que:
E  Z u 
 
E S 1 x
  m
1
  m
 0
1
 0
Con lo cual,
E ( Z cok ( u ))  m  E  Z u 
*
Cokriging
La condición de varianza mínima se obtiene derivando respecto a los parámetros 
y  e igualando a cero cada una de las derivadas obtenidas.
*
 var[ Z ( u )  Z cok ( u )]
0
 j
j  1, 2 ,  , N
*
 var[ Z ( u )  Z cok ( u )]
0
 j
j  1, 2 ,  , N 1
Para calcular explícitamente la expresión de la varianza hay que proceder con
cautela debido a que aparecen nuevos términos a considerar.
*
*
*
var[ Z ( u )  Z cok ( u )]  var[ Z ( u )]  var[ Z cok ( u )]  2 cov( Z ( u ), Z cok ( u ))
T1
T2
T3
Cokriging
T1  var[ Z ( u )]  
2
*
T 2  var[ Z cok ( u )]
 var(
  i ( Z (u i )  m ))  var(   j ( S ( x j )  m j ))  2 cov(   i ( Z (u i )  m ),   j ( S ( x j )  m j ) )

  i  j C Z (u i  u j )     i  j C S ( xi  x j )  2    i  j C ZS (u i  x j )
Covarianza de la
variable principal
*
T3  2 cov( Z ( u ), Z cok ( u ))  2
Covarianza de la
variable secundaria
Covarianza cruzada entre la
variable primaria y la
variable secundaria
  i C Z ( u  u i )  2   j C ZS ( u  x j )
Cokriging
Al calcular las derivadas respectivas se obtiene que
*
 var[ Z ( u )  Z cok ( u )]
i
*
 var[ Z ( u )  Z cok ( u )]
 i
N

N



 2   j C Z u i  u j  2   j C ZS u i  x j  2 C Z u  u i 
j 1
j 1
N
N




 2   j C S x i  x j  2   j C ZS u i  x j  2 C ZS ( u  x i )
j 1
j 1
Ahora la expresión detallada del sistema de ecuaciones es
i  1, 2 ,  , N
i  1, 2 ,  , N 1
Cokriging
C Z u 1  u 2 
 C Z 0 

C u  u 
C Z 0 
 Z 2 1




 C Z u N  u 1  C Z  u N  u 2 




 C SZ  x1  u1  C SZ  x1  u 2 
 C x  u  C x  u 
SZ 2
2
 SZ 2 1




C x  u C SZ x N  u 2
1
 SZ N 1 1


 CZ

 C SZ


C Z u 1  u N 
|

C Z u 2  u N 


|

C Z 0 



C SZ  x1  u N 




 
 
 
C ZS u1  x 2  
C ZS u 2  x 2  



| C ZS u N  x1  C ZS u N  x 2  
|



 C SZ x N  u N
1
C ZS 

CS 
| C ZS u 2  x1 
|
C SZ  x 2  u N  |

C ZS u1  x1 

|
C S 0 
C S  x 2  x1 


| C S x N  x1
1
 C Zu 


 C Su 

C S  x1  x 2 

C S 0 




C S x N  x2
1








C ZS u1  x N  
1


  1 
C ZS u 2  x N

1 
 2 
 

 
 
C ZS u N  x N   
1
 N 


  
   
1
C S x1  x N 
1




2
C S x2  x N


1
 
 

 

  N 
C S 0 
  1




 C Z u  u 1  


C Z u  u 2 





 C Z u  u N  







 C S u  x1  
 C u  x  
2 
 S





 C S u  x N 1 


Cokriging
COKRIGING ORDINARIO
Al igual que en el caso de kriging ordinario, se asume que las medias de las
variables son desconocidas y se imponen condiciones para filtrarlas.
El estimador propuesto es
+
Con lo cual,
*
E ( Z cok
( u ))  m
 
N
K
j
mj 

j 1

 j 1
j
Y se obtienen las condiciones,
 
1
N
j


 j 1
 0
j
j  1, 2 ,  , K
Cokriging
Ahora se procede nuevamente como en el kriging ordinario pero con K+1
parámetros de Lagrange. Cuando se tiene tan solo una variable secundaria, el
sistema de ecuaciones del cokriging ordinario es
 CZ

C
 SZ
 1

 0
C ZS
1
CS
0
0
0
1
0
0

1

0

0
    C Zu 
  


C Su
   

 1   1 
  

 2   0 
Cokriging
OBSERVACIONES
1) Con sólo 2 variables se requieren 4 funciones de covarianza. En general,
con N variables secundarias se requieren 2N+1 funciones de covarianza.
2) Debe existir una correlación lineal entre las variable principal y las variables
secundarias
3) Las variables secundarias deben poseer un número mucho mayor de
observaciones que la variable principal.
Cokriging
4) Imposible estimar las covarianzas cruzadas con datos NO coincidentes
Variable secundaria (impedancia acústica)
Variable principal (porosidad)
Cokriging
5) Resultados satisfactorios se obtienen con datos parcialmente coincidentes
Variable secundaria (impedancia acústica)
Variable principal (porosidad)
Variable principal y variable secundaria
Cokriging
6) Con datos totalmente coincidentes
Conveniente para estimar de manera consistente el tope y la base
de un yacimiento
Tope
Base
No se obtiene una mejora sustancial sobre los métodos de kriging cuando
la variable secundaria es la información sísmica.
Cokriging
Cuando las variables están intrínsicamente relacionadas, es decir cuando
ocurre que los modelos de variograma o covarianza de todas las variables son
proporcionales a un un mismo modelo de variograma o covarianza, entonces
el kriging y el cokriging con datos totalmente coincidentes son iguales.
!
Collocated Cokriging
Una simplificación al sistema de ecuaciones del Cokriging se obtiene cuando se
considera solo una variable secundaria y únicamente en el punto donde se
requiere realizar la estimación.
En este caso, el estimador propuesto es
Al igual que antes se obtienen distintas versiones cuando se conoce o no la
media de las variables involucradas.
A continuación estudiaremos el cokriging colocado simple y el cokriging colocado
ordinario.
Collocated Cokriging
COLLOCATED SIMPLE COKRIGING
La hipótesis básica es la estacionaridad de las variables junto con el hecho de que
se asume que las medias de las variables son conocidas. Esto es,
E  Z u    m
y m es conocida
E  S u   m S
y m S es conocida
En este caso, el estimador propuesto es
Al proceder exactamente igual que en el caso de cokriging simple se obtiene que:
Collocated Cokriging
*
 var[ Z ( u )  Z ck ( u )]
i
N


 2   j C Z u i  u j  2 C ZS u i  u   2 C Z u  u i 
i  1, 2 ,  , N
j 1
*
N
 var[ Z ( u )  Z ck ( u )]
2
 2 S  2   j C ZS u i  u   2 C ZS ( 0 )

i 1
Ahora se obtiene un sistema de ecuaciones de N+1 variables con N+1 incógnitas
en lugar del sistema de N+ N1 ecuaciones con N+ N1 variables del kriging simple
con solo una variable secundaria.
El sistema de ecuaciones se escribe en forma matricial como:
Collocated Cokriging
C Z 0 


C u  u 1 
 Z 2



 C Z u N  u 1 
 C u  u 
 ZS 1
C Z u 1  u 2 
C Z 0 


C Z u 1  u N 
C Z u 2  u N 



C Z u N  u 2  
C ZS u 2  u 

C Z 0 
C ZS u N  u 
C ZS u1  u  

C ZS u 2  u 




C ZS u N  u 
2

S

 1


 2
 

 N
 
  C Z u 1  u  

 
C Z u 2  u 

 




 


C
u

u

  Z N
  C ZS 0  


Es importante observar que:
• No se requiere conocer la función de covarianza de la variable secundaria.
• El sistema sólo depende de la función de covarianza de la variable principal y de
la función de covarianza cruzada.
• Es necesario conocer el valor de la variable secundaria en todo los puntos donde
se requiere estimar el valor de la variable primaria.
Collocated Cokriging
Aproximación de la covarianza cruzada
En el cokriging colocado se asume que la función de covarianza cruzada y la
función de covarianza de la variable principal son proporcionales. Es decir, que
C ZS  h   b C Z  h   h
Esta hipótesis tiene sentido porque se asume una relación lineal entre las
variables. Además, en particular se tiene que:
b

C ZS 0 
C Z 0 



C ZS 0  /
 ZS
C Z 0 
C S 0  C Z 0 
C Z 0 
C S 0  C Z 0 
C S 0 
C Z 0 
 ZS
C S 0  C Z 0 
Collocated Cokriging
En consecuencia,
C ZS  h  
C S 0 
C Z 0 
 ZS C Z  h   h
Correlación lineal entre las
variables Z y S.
Esta expresión permite manipular el coeficiente de correlación y obtener así
diversas estimaciones de la variable principal para distintos grados de correlación
con la variable secundaria.
Es importante cuando se tiene incertidumbre sobre el grado de relación lineal de
las variables involucradas.
Collocated Cokriging
COLLOCATED ORDINARY COKRIGING
Al igual que en el caso del cokriging ordinario se asume que las medias de la
variable principal y la variable secundaria son desconocidas y constantes.
Bajo esta suposición, la forma del estimador es distinta puesto que si se utiliza la
anterior se obtiene =0 y la variable secundaria no es tomada en cuenta.
Ahora el estimador propuesto es:
Valor de la variable secundaria
en el punto a estimar
Valores de la variable principal y la variable secundaria
medidos en los mismos puntos
Collocated Cokriging
Para que el estimador sea insesgado se debe verificar que:
N
 
N
1
y
w
 1

  0
 1
Ahora se procede como antes, considerando dos multiplicadores de Lagrange
para incluir las restricciones anteriores. El sistema de ecuaciones es:
 CZ

C
 ZS
 ct
ZS
 t
1
 t
0
CZS
c ZS
1
CS
cS
0
t
 S2
0
0
0
1
0
cs
0
t
1
t
0

1

1

0

0
 λ   cZ 
  

β
c ZS
  

 w    
ZS
  

 1   1 
   0 

 2 
Kriging Factorial
La idea consiste en asumir que la propiedad observada Z(u) es la suma de
diversos factores aleatorios e independientes. Es decir,
Z u   Z 1  u   Z 2 u     Z K u 
Los factores no son directamente observables, sólo se cuenta con la observación
Z(u).
La descomposición anterior puede variar dependiendo de las condiciones
asumidas sobre la propiedad observada.
Por ejemplo, si se conoce el valor promedio m de la propiedad entonces se
considera
Z  u   m  Z 1  u   Z 2  u     Z K u 
y los factores como funciones aleatorias independientes de media cero.
Kriging Factorial
La importancia de considerar a los factores como independientes es que se
puede demostrar que:
C Z h   C1 h     C K h 
Y es esta relación la que permite obtener estimaciones de cada una de los
factores en la descomposición de la variable Z.
A continuación se estudiarán las ecuaciones para la obtención de dichas
estimaciones.
Kriging Factorial
CASO 1
Se asume que Z es una función aleatoria estacionaria con media igual a cero que
se descompone como suma de K factores aleatorios de media cero e
independientes.
Z u   Z 1 u   Z 2 u     Z K u 
El estimador propuesto para el factor j es:
Z j u  
*
  u  Z u 
j  1, 2 ,  K

Los Valores observados se utilizan para estimar los
valores de los factores
Kriging Factorial
Como la variable y cada uno de los factores tienen media cero se obtiene
directamente que:

 
E Z j u   E Z j u 
*

Respecto a la varianza del error, se tiene que:

var[ Z j u   Z j u ]   j  var[ Z j u ]  2 cov Z j u , Z j u 
*
2
2
 j 
 
 ,
*
  C Z u   u    2  

*

 cov Z j ( u ), Z i ( u ) 
i
Independencia de los factores
2
 j 
 
 ,
  C Z u   u    2   C

j u  u 

Kriging Factorial
A partir de esta expresión se tiene que:
var[ Z j u   Z j u ]
*
 



 2   C Z u   u   2 C j u  u 

  1, 2 ,  N

Y al igualar a cero se obtiene el sistema de ecuaciones:
  C Z u


 u  C j u  u

  1, 2 ,  N

Vector asociado a la
función de covarianza del
factor j
Matriz de kriging simple de Z
Kriging Factorial
Observar que:
1) La matriz de kriging es siempre la misma y lo que cambia es el vector asociado
a la función de covarianza del factor j. Esto implica que es necesario invertir la
matriz sólo una vez para obtener la estimación de todos los factores.
2) Si alguno de los factores está asociado a un effecto nugget puro entonces este
no se puede estimar. Este procedimiento sólo cambia los valores de las variable Z
en los puntos observados.Para efectos prácticos es mejor no considerarlo en la
descomposición.
3) El número de factores se puede obtener a partir del número de estructuras
presentes en la función de covarianza o variograma de la variable Z
4) La descomposición de la variable Z en factores debe tener sentido físico y no
ser producto solamente de las estructuras observadas en el variograma.
Kriging Factorial
X (Kilometer)
10.
20.
30.
40.
40.
40.
30.
30.
20.
20.
10.
10.
0.
0.
10.
20.
30.
X (Kilometer)
40.
0.
(Kilometer)
Y
Y
(Kilometer)
0.
>=12.9686
12.1258
11.2829
10.44
9.59716
8.75429
7.91142
7.06856
6.22569
5.38282
4.53995
3.69708
2.85422
2.01135
1.16848
0.325613
-0.517255
-1.36012
-2.20299
-3.04586
-3.88873
-4.73159
-5.57446
-6.41733
-7.2602
-8.10307
-8.94593
-9.7888
-10.6317
-11.4745
-12.3174
-13.1603
<-14.0031
Z
N/A
4.5
Z
4
3.5
3
2.5
2
1.5
1
0.5
0
0
1.3
2.6 3.9 5.2 6.5 7.8 9.1 10.4 11.7 13 14.3 15.6 16.9
Kriging Factorial
X (Kilometer)
10.
20.
30.
40.
40.
40.
30.
30.
20.
20.
10.
10.
0.
0.
10.
20.
30.
40.
(Kilometer)
Y
Y
(Kilometer)
0.
0.
>=9.28523
8.70756
8.12989
7.55222
6.97455
6.39688
5.81921
5.24154
4.66386
4.08619
3.50852
2.93085
2.35318
1.77551
1.19784
0.620167
0.0424957
-0.535175
-1.11285
-1.69052
-2.26819
-2.84586
-3.42353
-4.0012
-4.57887
-5.15654
-5.73421
-6.31189
-6.88956
-7.46723
-8.0449
-8.62257
<-9.20024
2.5
2
1.5
1
0.5
0
0
N/A
X (Kilometer)
1.3 2.6 3.9 5.2 6.5 7.8 9.1 10.4 11.7 13 14.3 15.6 16.9
X (Kilometer)
10.
20.
30.
40.
2.5
40.
40.
30.
30.
20.
20.
10.
10.
0.
0.
10.
20.
30.
X (Kilometer)
40.
0.
(Kilometer)
Y
Y
(Kilometer)
0.
>=7.15479
6.71376
6.27273
5.8317
5.39067
4.94964
4.50861
4.06758
3.62655
3.18553
2.7445
2.30347
1.86244
1.42141
0.980377
0.539347
0.0983174
-0.342712
-0.783742
-1.22477
-1.6658
-2.10683
-2.54786
-2.98889
-3.42992
-3.87095
-4.31198
-4.75301
-5.19404
-5.63507
-6.0761
-6.51713
<-6.95816
N/A
2
1.5
1
0.5
0
0
1.3 2.6 3.9 5.2 6.5 7.8 9.1 10.4 11.7 13 14.3 15.6 16.9
Kriging Factorial
CASO 2
Se asume que Z es una función aleatoria estacionaria con media igual a m que se
descompone como suma de K factores aleatorios de media cero e
independientes.
Z u   m  Z 1 u   Z 2 u     Z K u 
El estimador propuesto para el factor j es:
Z j u  
*
  u  Z u 
j  1, 2 ,  K

Ahora se tiene que


E Z j u   m     
*


 E  Z i u 
i
Kriging Factorial
Y por lo tanto, para que el estimador sea insesgado se debe imponer la condición
 
1

Ahora se procede como en el caso de kriging ordinario y se obtiene el sistema de
ecuaciones
N
  C Z u
 1
 u


 C j u  u

  1, 2 ,  , N
Kriging Factorial
C Z u 1  u 2 
 C Z 0 

C u  u 
C Z 0 
 Z 2 1




 C Z u N  u 2  C Z  u N  u 2 

1
1



C Z u 2  u N 




C Z 0 
1
1
1
0

C Z u 1  u N
Matriz de kriging oridnario de Z
1
1
  1   C j  u  u 1  
  

2
C j u  u 2 
  

  


  




C
u

u
N 
 N  j
   

1
  

Vector asociado a
la
función
de
covarianza
del
factor j
Kriging Factorial
CASO 3
Se asume que Z es una función aleatoria con una función de tendencia m(u)
conocida que se descompone como suma de K factores aleatorios de media cero
e independientes.
Z u   m u   Z 1 u   Z 2 u     Z K u 
El estimador propuesto para el factor j es:
Z j u  
*
  u  Z u 
j  1, 2 ,  K

Ahora se tiene que


E Z j u  
*
  m u      E  Z i u 


i
Kriging Factorial
Y por lo tanto, para que el estimador sea insesgado se debe imponer la condición
  m u   0

Ahora se procede como en el caso de kriging universal y se obtiene el sistema de
ecuaciones
N
  C Z u
 1
 u
   m u    C j u  u  
  1, 2 ,  , N
Kriging Factorial
CASO 4
Se asume que Z es una función aleatoria con una función de tendencia m(u)
desconocida que se descompone como suma de K factores aleatorios
independientes.
Z u   Z 1 u   Z 2 u     Z K u 
El problema que se tiene ahora es saber cuál es la contribución de cada uno de
los factores a la tendencia de la función Z ya que
E  Z u   
E  Z 1 u    E  Z 2  u      E  Z K u  
El problema puede ser resuelto asumiendo dos condiciones que a priori resultan
arbitrarias.
Kriging Factorial
• Se asume que solo uno de los factores está asociado a la función de tendencia
que se observa en la variable Z mientras que los otros tienen media cero. Asi,
se tendría por ejemplo:


E Z j u   0
j  1, 2 ,  K  1
E  Z K u    m u 
• Análogamente al caso de kriging universal, se asume que la función de
tendencia es de la forma:
m u  
L
aj
j0
f j u 
f0  1
Kriging Factorial
De esta forma,


E Z j u  
*
  E  Z K u 


   a l

f l u

l
Y al igual que en el caso de kriging universal hay que imponer la condición
siguiente para asegurar que el estimador es insesgado:
  f l u 
 0
si j  K

ó
  f l u 

 f l u 
si j  K
Kriging Factorial
Ahora se procede como en el caso de kriging universal y se obtiene el sistema de
ecuaciones
N
  C Z u
 1
 u
    l f l u    C j u  u  
  1, 2 ,  , N
l
Donde
 1 si i  j
i j  
 0 si no
(Función Delta de Kronecker)
Kriging Factorial
FILTERING
Hasta ahora se ha visto como estimar cada uno de los factores presentes en la
descomposición de Z.
Otra aplicación posible es obtener una estimación de la variable original Z pero
filtrando uno o varios factores.
Z u  
Z 1 u   Z 2 u     Z K u 
Z f (u )
Zf (u) se obtiene al filtrar la componente Z1 (u). Por consiguiente, una estimación
de Z filtrando el valor de Z1 se obtiene al estimar Zf (u)
Kriging Factorial
Asumiendo que todas las variables tienen media cero, el estimador
*
Z f (u ) 
   Z u  

es insesgado. Además, la varianza del error es

var[ Z f u   Z f u ]  var[ Z f u ]  var[ Z f u ]  2 cov Z f u , Z f u 
*
var[ Z f u ] 
*
*

K
 j
2
Por la independencia de los factores
j2
var[ Z f u ] 
*
  i  j C Z u i  u j 
i, j


cov Z f u , Z f 
*
  cov Z f u , Z u     C Z u  u 


f
Por la independencia de los
factores
Kriging Factorial
En consecuencia,
var[ Z f u   Z f u ]
*
 



 2   C Z u   u   2 C Z u  u 
f

Y al igualar a cero se obtiene el sistema de ecuaciones:
  C Z u


 u  CZ
f
u  u  
  1, 2 ,  N

  1, 2 ,  N
Kriging Factorial
Debido a la independencia entre los factores, la función de covarianza de la
variable filtrada se conoce, ya que
CZ
f
h   C Z h   C Z h     C Z h 
2
3
K
Descargar

Geoestadística Multivariada