Title: Diapositiva 1
1La ley de los grandes números
"El indicio de que las cosas estaban saliéndose
de su cauce normal vino una tarde de finales de
la década de 1940. Simplemente lo que pasó fue
que entre las siete y las nueve de aquella tarde
el puente de Triborough tuvo la concentración de
tráfico saliente más elevada de su
historia". Comienzo del relato corto "La Ley"
de Robert M. Coates
2Suma de variables aleatorias discretas
Supongamos que X e Y son dos variables aleatorias
discretas e independientes con funciones de
distribución p1(x) y p2(y) respectivamente. Sea
Z X Y, cómo será la función de distribución
de Z, p3(z)? Puesto que el evento Z z es la
unión del par de eventos disjuntos (X k) e (Y
z - k), tendremos
Decimos que p3(x) es la convolución de p1(x) y
p2(x)
p3(x) p1(x) p2(x)
3Convolución
La convolución es una operación conmutativa y
asociativa. Visto lo visto, es "fácil" demostrar
por inducción cómo será la suma de n variables
aleatorias independientes
teniendo en cuenta que
4Veamos un ejemplo Supongamos que lanzamos un
dado dos veces. Sea el resultado del primer
lanzamiento la variable aleatoria X1 y del
segundo, la variable aleatoria X2 , ambas con la
misma distribución de probabilidad que llamaremos
m(x). Calculemos la función de distribución de
probabilidad para S2 X1 X2.
(....)
5Si quisiéramos calcular S3 X1 X2 X3 ,
tendríamos
(...)
Este es el resultado gráfico para la suma S10
de 10 dados.
6Y estos son los resultados gráficos para las
sumas S20 y S30 de 20 y 30 dados,
respectivamente. Observemos que, a medida que
aumenta el número de dados, tenemos una curva
que se aproxima más y más a una campana de
Gauss, a una normal. Veremos por qué más
adelante, cuando hablemos del teorema central
del límite.
7Suma de variables aleatorias continuas
Si X e Y son dos variables aleatorias continuas e
independientes con funciones densidad de
probabilidad f(x) y g(x) respectivamente, la
variable aleatoria Z X Y, tendrá como
densidad de probabilidad la convolución de f y g
8Suma de dos variables aleatorias
uniformes independientes
Dos distribuciones uniformes U(0,1).
Obtenemos la densidad de probabilidad de la
suma de las dos variables por convolución de
sus densidades.
9Observa que, como X e Y varían entre 0 y 1, su
suma Z variará entre 0 y 2.
10Convolución de dos densidades de probabilidad
uniformes U(0,1).
11Suma de dos variables aleatorias exponenciales
independientes
Dos densidades de probabilidad exponenciales
Exp(?).
Obtenemos la densidad de probabilidad de la
suma de las dos variables por convolución de
sus densidades.
12Convolución de dos densidades de probabilidad
exponenciales Exp(?).
13Suma de dos variables aleatorias normales
independientes
Dos densidades de probabilidad normales tipificada
s N(0,1).
14Obtenemos la densidad de probabilidad de la
suma de las dos variables por convolución de
sus densidades.
Normalización de N(0, v2)
El resultado es una normal de media 0 y varianza
2, N(0,2)
15Suma de n variables aleatorias independientes
Teniendo en cuenta que
Y que
Tendremos para n variables aleatorias
independientes
Recuerda que la convolución es una operación
conmutativa y asociativa.
16(No Transcript)
17(No Transcript)
18(No Transcript)
19Teorema central del límite
En condiciones muy generales la suma de n
variables aleatorias , independientes y con la
misma distribución tiende a la distribución
normal a medida que n tiende a infinito.
20Desigualdad de Chebyshev (1821-1894)
Una varianza pequeña indica que las desviaciones
grandes alrededor de la media son improbables.
La desigualdad de Chebyshev hace precisa esta
impresión
O bien, haciendo
Pafnuti Lvovic Cebicev (1821-1894)
21Demostración
Para el caso discreto la demostración es
semejante.
22Ley de los grandes números (en forma débil)
Sean X1, X2, ..., Xn variables aleatorias
independientes, con la misma distribución y con
valores esperados y varianzas finitos. Entonces
para Sn X1 X2 ... Xn y cualquier real ?
gt 0
23Demostración
Usando la desigualdad de Chebyshev y fijado un
épsilón
24Observa que Sn/n es un promedio y por eso a la
ley de los grandes números suele conocerse
también como ley de los promedios. Hemos visto
su "forma débil". En su "forma fuerte" nos dice
que si repetimos el lanzamiento de una moneda, la
proporción de caras se aproxima más y más a 1/2
a medida que aumentamos el número de
lanzamientos. Si Sn es el número de caras en n
lanzamientos, la ley fuerte de los grandes
números dice que cuando n tiende a infinito
25Distribuciones para el número de caras en n
lanzamientos de una moneda. La ley de los grandes
números predice que el porcentaje de caras para n
grande estará próximo a 1/2.
En las gráficas se ha marcado con puntos las
probabilidades comprendidas entre 0.45 y 0.55.
Vemos como a medida que n crece la distribución
se concentra más y más alrededor de 0.5 y el
porcentaje de área correspondiente al intervalo
(0.45, 0.55) se hace más y más grande.
26Supongamos que tomamos al azar n números del
intervalo 0,1 con una distribución uniforme.
Si la variable aleatoria Xi describe la elección
i-ésima, tenemosc
De modo que, para cualquier ? gt 0, tendremos
Es decir, si escogemos al azar n números del
intervalo 0,1, las probabilidades son mejores
que 1 - 1/(12n?2) de que la diferencia Sn/n -
1/2 sea menor que ?.
27Gráficos semejantes al caso del lanzamiento de n
monedas anterior, pero ahora con la suma de n
valores independientes tomados de una
U(0,1). Rigen los mismos comentarios.
28Una aplicación al Método de Monte Carlo
Sea g(x) una función continua definida en el
intervalo 0,1 y con imagen en 0,1. Vimos
cómo estimar el área bajo la función, su
integral, generando pares de números (x,y) al
azar. Existe una forma más eficiente de
calcular la integral basándose en la ley de los
grandes números.
29Escojamos una gran cantidad de números Xn al azar
del intervalo 0,1 con densidad uniforme.
Definamos Yn g (Xn). El valor esperado de Yn
es una estimación del área.
Como el dominio y la imagen de g(x) son el
intervalo 0,1, la media µ estará en 0,1
también y g(x)- µ 1.
Que podemos leer como la diferencia entre el
área estimada y la real, el error que cometemos,
es mayor que épsilon con probabilidad 1/n?2.