El Azar: un recorrido desde la
Antigüedad a la Época Actual
Servet Martínez
CMM-DIM- U. de CHILE
Núcleo Milenio Información y Aleatoriedad
http://www.dim.uchile.cl/~random/
Preparación: Mª Inés Rivera
Conferencia ICM Gran Público
Fundación Telefónica
24/09/03
1
PREHISTORIA
•Los Juegos de azar pueden haber sido una de las primeras
invenciones del ser humano viviendo en sociedad.
•Se especula que desde los tiempos del neolítico habrían huesos
tallados que permiten obtener resultados equilibrados (como en
los dados), y que no serían herramientas “útiles”, solo servirían
para jugar (¿adivinación?).
HISTORIA
•En tiempo de los egipcios ya se producen dados muy bien
pulidos y equilibrados.
2
UNA HISTORIA
Una historia sorprendente aparece en el gran relato épico
indio Mahábharata: es la historia de Nala.
Kali, un semidiós se enfurece cuando Nala gana en un
juego de dados la mano de una princesa, y en castigo Kali
toma posesión del cuerpo y alma de Nala y en una apuesta
Nala pierde su reino y vaga demente por años.
Posteriormente trabaja para un potentado, Rtuparna, quien
queda admirado de que Nala sepa estimar el número de
hojas y frutos de un árbol, tan sólo examinando una
pequeña parte. El lo ayuda a recuperar su reino, lo que
consigue Nala en un nuevo juego de dados.
El relacionar las apuestas con la estimación no se haría en
Europa sino a partir del siglo XVII.
3
*Ian Hacking, The Emergence of Probability, Cambridge U.P. 1975
PARADOJAS
Dilema del Prisionero
O
A
B
Uno de los tres prisioneros será condenado a muerte y los
otros dos serán liberados.
4
Caso 1
Caso 2
Caso 3
0
M
L
L
A
L
M
L
B
L
L
M
Probabilidad (0 Muere)=1/3
Información: Un guardia le dice a 0 que B se
salva.
¿Cual es la Probabilidad que 0 muera?
5
La selección del guardia, que llamaremos Y se hace así:
Y=B si A muere
Y=A si B muere
Si A y B se salvan se tira una moneda y se elige A ó B con
probabilidad 1/2.
Luego Probabilidad {Y=B}=1/2


Prob {0 muere, Y=B}= Prob {0 muere} Prob {Y=B / 0 muera}
= Prob {0 muere} Prob{Y=B}
Deducción:
Probabilidad {0 muera / Y=B} = Probabilidad {0 muera}=1/3
Probabilidad {A muera / Y=B} = 2/3
Luego a 0 no le conviene intercambiar su suerte con A.
6
Paradoja del Tiempo de Espera
DIVISIÓN DE UN ARO
0
El casino elige un punto. Se divide el aro en dos partes, el
casino se queda con la parte que contiene el 0.
7
A
A
0
B
Pierde Casino
0
B
Gana Casino
8
EXPLICACION GEOMÉTRICA
A
A
0
0
B
A
A
0
B
0
B
Pierde Casino
Gana Casino
9
EXPLICACIÓN PROBABILISTA
Como esto no depende de la posición de 0, podemos seleccionar 0 aleatoriamente
después de seleccionar A y B, por lo que 0 tendrá mayor probabilidad de
permanecer a intervalo más largo.
A
A
O
O
B
B
10
Paradoja de San Peterburgo
El Casino paga 2n si sale cara por
primera vez en la n-ésima tirada.
¿Cuánto esta dispuesto a pagar el jugador
por entrar al juego?
Sea X la ganancia. Su valor esperado,
o media teórica, es:
E X
 
n 1
1
2
n
2
n
 
(pues la probabilidad de que salga cara por primera vez en
la n-ésima tirada es: 1/2n )
Sin embargo el jugador esta en general dispuesto a pagar una
cantidad modesta, que depende de su propensión al riesgo.
11
CALCULOS PREVIOS
Antes de Pascal habían problemas para evaluar
combinatorias simples de dados. Por ejemplo en juegos
a 3 dados se discutía la frecuencia del 10 y el 12.
12
651
642
6 + 6
10
631
6 +
622
3
633
+ 3
552
+
541
+ 6
3
543
+ 6 +
532 442
+
6
+ 3
Galileo Galilei
1564-1642
444
= 5 Combinaciones
1
= 24 Permutaciones
433
= 5 Combinaciones
+ 3
= 27 Permutaciones
Citemos como anécdota que Galileo dio respuesta correcta a éste
y otros juegos, confirmando lo que ya era experiencia.
12
SIGLOS XVII, XVIII: GRANDES NÚMEROS
Apuestas sobre duración de vida de grandes personajes.
Resolución de problemas prácticos ligadas a tablas de
mortalidad.
Esperanza de vida: seguros.
En general si Xn son variables independientes con igual ley
se cumple la ley de grandes números
1
n
X 1
 X
2
   X
n

1
n
n

X
i
 E (X )
para n  
i 1
E(X)=Esperanza de X o media Teórica.
13
TEOREMA DE LOS GRANDES
NÚMEROS
Xn independientes
Xn =1 con proba p
Xn = 0 con proba 1-p
1
n
n

Xi  p
i 1
Jacques Bernoulli
1654 - 1705
Jacques Bernoulli (capítulo 5, Parte
IV del Ars conjectandi ).
14
TEOREMA DEL LIMITE CENTRAL: ERRORES
Xn independientes
Xn =1 con proba p
Xn = 0 con proba 1-p
Pierre-Simon Laplace
Johann Carl Friedrich Gauss
1777 - 1855
1749 -1827

Prob 




np( 1-p)  i 1
1
n


 X i  p    x  ~


1
2


x
e

1
2
y
2
dy
15
CAMPANA DE GAUSS
f ( x) 
1
2

e
1
x
2
2
f(x)
x
Área =
1
2


x
e

1
2
y
2
dy
16
NACIMIENTO DE LA TEORIA DE PROBABILIDADES
Hay dos jugadores. El total de lo
apostado es ganado por el jugador que
gana por primera vez N juegos.
Supongamos que el primer jugador ha
ganado k juegos y el segundo j juegos y
se interrumpe la partida:
¿Cómo debe dividirse el total entre
ambos jugadores?
Blaise Pascal
1623 - 1662
17
PASEO ALEATORIO
S
t
t
St+
Xi=1 probabilidad 1/2
Xi= -1 probabilidad 1/2
t
St=  X i : paseo aleatorio
i 1
18
SOLUCIÓN DE PASCAL
x
2N
k-j
t
k+j
2N
-2N
Proba (ganar)=
2 N 1  ( k  j )
2 N 1  ( k  j )
i
2 N 1 ( k  j )
i N k
1
2

Proba (perder)=1-Proba (ganar)

19
MOVIMIENTO BROWNIANO
(normalización del paseo aleatorio
en tiempo y espacio)
Norbert
Wiener
1894-1964
Trayectorias continuas
p t x, y  
1
2 t

e
1
2t
 x  y 2
 Prob
W
t
 y W0  x
20
Movimiento Browniano en el Plano evitando un obstáculo acotado K
y
K
Pierre Collet
Ecole Polytechnique
x
A modo de ejemplo de investigaciones nuestras (P. C., S. M., J. S. M):
u K ( x ) u K ( y ) : Núcleo del Calor
p (t , x , y ) ~
2
en el Dominio
t (log t )
21
“ORIGEN DEL AZAR”
Las probabilidades son la ciencia de la incertidumbre, cuyo origen
se encuentra en:
Equilibrio inestable (Dado)
Sensibilidad a las condiciones iniciales (Dado, Ruleta)
22
Complejidad de las causas: mezcla (de cartas por ejemplo).
Mezcla café y leche
Al abrirse compuerta el gas tiende a repartirse “al azar” en todo el
receptáculo.
23
TEOREMA DE BOLTZMANN
Densidad de moléculas
velocidad v en tiempo t
f ( v ( t )) :
H ( v ( t )) 

f ( v ( t )) log f ( v ( t )) dv ( t )
Debido a choques de moléculas entre sí
d
H ( v ( t ))  0
dt
es = 0 si f (v (t) ) es constante.
Ludwig Boltzmann
1844 - 1906
Gracias a que las moléculas de gas chocan
“aleatoriamente” se pueden formular leyes
simples. Si éstas están “organizadas” las
leyes son más difíciles de obtener.
24
Lema Recurrencia Poincaré:
n 1
 1 A (T x )   , x  A ,
i
si medida A >0.
i0
HIPOTESIS ERGÓDICA
1
n
n 1

g (T x ) 
i
i0
Media Temporal
Henri Poincaré
1854-1912
 g  x dx , n  
Media Espacial
Teorema de Von Neumann-Birkhoff: la hipotesis ergódica se
verifica si no hay conjuntos invariantes.
John von Neumann
1903-1957
25
INFORMACIÓN Y ENTROPÍA
X1
Xi
X
2
X3
X
4
X5

Cinta
Es 0 ó 1
Información depende de las unidades de bits.
Si el mensaje es elegido de entre n mensajes equiprobables, la
información será I(n).
Si tengo dos mensajes independientes, uno elegido de entre n
mensajes y otro de entre m mensajes, la información es
I(n)+I(m).
Si I(n) crece con n se deduce I(n)= log2 n. Luego la información
es el número de bits con que se escribe un mensaje (2 mensajes
caben en 1 bit: 0 ó 1). Así I(2n)=n.
26
Luego la entropía, que es la media de información de un
experimento será log2 n pues todos tienen igual información.
En general si se elige un mensaje, siendo que el mensaje i tiene
probabilidad pi, la información es log 1/ pi y la entropía es
n
H ( p) 

i 1
n
p i log 2 (1 / p i )    p i log
2
pi
i 1
Es fácil ver que H(p)  log2 n, luego la entropía se maximiza si las
probabilidades son iguales pi =1/n, i=1,...n.
27
Izquierda
Empate
Derecha
9 monedas: 8 son de peso igual, 1 de peso distinto.
Determinar en una balanza cual es la moneda distinta y
si es de peso mayor o menor que el resto.
Hay 18 permutaciones, luego información log 2 18  4 . 16
Cada pesada da información promedio log 2 3  1 . 58
2 pesadas 2 log 2 3  3 . 16 , luego no se puede determinar.
3 pesadas 3 log 2 3  4 . 74 y efectivamente se puede
determinar cual es la moneda y si es más o menos pesada.
*Gordon Raisbeck. Théorie de l’ Information, Masson, 1964.
28
SISTEMAS DE BERNOULLI (RULETAS)
1
1
F(x)
x
1
1
2
2 vueltas de ruleta
Entropía:
1 1
h  ,   log 2
2 2
0
0
p1
m 1
p1 + p2

i 1
m
Ruleta generalizada 
pi  1
i 1
Entropía (K-S): h  p 1 ,.., p m  
m


i 1
p i log p i
29
pi
1
ENTROPIA EN TEORIA ERGODICA
Entropía es invariante de Sistemas dinámicos abstractos:
corresponde a la información media asintótica dada por
el sistema en una unidad de tiempo.
Para sistemas de Bernoulli se verifica que la entropía es
invariante completo:
 p 1 ,...,
p m  conjugado
dinámico
a
q 1 ,...,q n 
si y solo si h  p 1 ,..., p m   h q 1 ,...,q
n

Andrey Nikolaevich
Kolmogorov
1903 - 1987
(D. Ornstein)
30
TEORIA DE PERCOLACIÓN
Sean
i , j , i , j  
nodos vecinos
X  i , j ,  i  , j    1 proba p
X  i , j ,  i  , j    0 proba 1-p
(i , j )
p  pc
p  pc
(abierto)
(cerrado)
( i , j  )
: no hay cluster infinito
: hay cluster infinito
¿Cuál es el valor de pc?
Harry Kesten
Professor Emeritus of Mathematics
Cornell University
¿Qué ocurre en p= pc?
31
REDES DE TELECOMUNICACIONES
(Loss Networks)
R : Conjunto de rutas
r : ruta determinada
por enlaces que usa
j1
j3
j2
La ruta r usa Ajr circuitos del enlace j.
Por ejemplo
A j1 r  3
A
j2 r
 2
A
j3 r
1
Cj: número total de circuitos del enlace j (capacidad).
Si llega una llamada para usar la ruta r, ésta se efectúa si hay al
menos Ajr circuitos disponibles del enlace j, si no la llamada se
pierde.
32
Punto fijo de Erlang
Si las llamadas que usan la ruta r llegan aleatoriamente a tasa  r
(esto es según un proceso de Poisson).
nr : número de llamadas que están usando la ruta r, n  ( n r : r  R )
el vector de llamadas de las diferentes rutas. Se verifica
A
jr
n r  C j para todo
enlace
j.
r R
La distribución de equilibrio del sistema es:
Probabilidad n ~ 
r R

nr
r
nr !
33
GENOMICA
(Laboratorio de Bioinformática y Matemáticas del Genoma)
AGCTTTTCATTCTGACTGCAACGGGCAATATGTCTCTGTGTGGATTAAAAAAAGAGTGTCT
GATAGCAGCTTCTGAACTGGTTACCTGCCGTGAGTAAATTAAAATTTTATTGACTTAGGTC
ACTAAATACTTTAACCAATATAGGCATAGCGCACAGACAGATAAAAATTACAGAGTACACA
ACATCCATGAAACGCATTAGCACCACCATTACCACCACCATCACCATTACCACAGGTAACG
GTGCGGGCTGACGCGTACAGGAAACACAGAAAAAAGCCCGCACCTGACAGTGCGGGCTTTT
TTTTTCGACCAAAGGTAACGAGGTAACAACCATGCGAGTGTTGAAGTTCGGCGGTACATCA
GTGGCAAATGCAGAACGTTTTCTGCGTGTTGCCGATATTCTGGAAAGCAATGCCAGGCAGG
GGCAGGTGGCCACCGTCCTCTCTGCCCCCGCCAAAATCACCAACCACCTGGTGGCGATGAT
TGAAAAAACCATTAGCGGCCAGGATGCTTTACCCAATATCAGCGATGCCGAACGTATTTTT
GCCGAACTTTTGACGGGACTCGCCGCCGCCCAGCCGGGGTTCCCGCTGGCGCAATTGAAAA
CTTTCGTCGATCAGGAATTTGCCCAAATAAAACATGTCCTGCATGGCATTAGTTTGTTGGG
GCAGTGCCCGGATAGCATCAACGCTGCGCTGATTTGCCGTGGCGAGAAAATGTCGATCGCC
ATTATGGCCGGCGTATTAGAAGCGCGCGGTCACAACGTTACTGTTATCGATCCGGTCGAAA
AACTGCTGGCAGTGGGGCATTACCTCGAATCTACCGTCGATATTGCTGAGTCCACCCGCCG
TATTGCGGCAAGCCGCATTCCGGCTGATCACATGGTGCTGATGGCAGGTTTCACCGCCGGT
AATGAAAAAGGCGAACTGGTGGTGCTTGGACGCAACGGTTCCGAC
Hebra 1
Genes
Hebra -1
Zonas codificantes y zonas no-codificantes tiene distintas estructuras
de memoria:
Prob X n  a 0
X n 1  a 1 , X n  2  a 2 ,  , X n  k  a k
34

Distribución Granulométrica: Cantera
Sesgo en Estimación por Efecto Frontera
Las fotografías son analizadas con un marco, hay dos
granulometrías estudiadas por J. B. y S. M. Una subestima y
la otra subestima la granulometría real (análogo Paradoja
35
Tiempo de Espera).
NUMEROS NORMALES
Casi todos los números x 0 . x 1 x 2 ..... x n .....
x 0 , x 1 , x 2 ,..... x n ,.....
son normales, esto es
son variables independientes uniformes en
los dígitos {0, 1,..., 9}: Prob  x i  a   1 / 10
¿ Es  = 3.14159..... un número normal?
PROBLEMA DEL CUMPLEAÑOS
¿Cuál es la probabilidad para que entre n personas, haya al menos dos de
ellas que cumplan años el mismo día?
Sean x 1 , x 2 ,..... x n ,... independientes uniformes en {1, 2,..., 365}
Sea N el más pequeño tal que x i  x N para i  N
Prob  N  n  
Prob
N
365      365  n  1 
365
n
 22   0 . 524  0 . 5  Prob  N  23   0 . 493
Se dispone Applet Problema de Coleccionista de Albúm.
36
PROBLEMAS QUE NO HEMOS TRATADO:
Probabilidades en Ciencias Sociales:
Probabilidades Subjetivas.
Ejemplo: Apuestas en Carreras de Caballos.
Por una cabeza
De un noble potrillo
Que justo en la raya
Afloja al llegar.
Y que al regresar
Parece decir
No olvides, hermano,
Vos sabes no hay que jugar.
Basta de carrera:
Se acabo la timba,
Un final reñido
Carlos Gardel.
1890 - 1935
Yo no vuelvo a ver.
Pero si algún pingo
Llega a ser fija el domingo
Yo me juego entero
¡ que le voy a hacer ¡
* Extracto de “Por una Cabeza” (Tango de C. Gardel y A. Lepera)
37
Descargar

Presentación de PowerPoint