You are on page 1of 109

TEORA DE PROBABILIDAD

LECT 1A

1. BSICO
La teora de probabilidad trata con el estudio de fenmenos arbitrarios, que en
experimentos repetidos ceden los resultados diferentes que tienen el cierto modelo
subyacente sobre ellos. La nocin de un experimento asume un juego de las condiciones
repetibles que permiten a cualquier nmero de repeticiones idnticas. Cuando un
experimento es realizado en estas condiciones, ciertos acontecimientos elementales
ocurren de modos diferentes pero completamente inciertos. Podemos asignar el nmero no
negativo como la probabilidad del acontecimiento de varios modos:

La Definicin Clsica de Laplace:
La Probabilidad de un acontecimiento un es definida a priori sin la experimentacin real
como:
P(A)= nmero de resultados A favorable/nmero total de resultados posibles
(1-1)
a condicin de que todos estos resultados sean igualmente probables.
Considere una caja con la n blanca y m pelotas rojas. En este caso, hay dos resultados
elementales: pelota blanca o pelota roja. Probabilidad "de para seleccionar una pelota
blanca", es: n/(n+m)

Podemos usar la susodicha definicin clsica para determinar la probabilidad que un
nmero dado es divisible por p principal.
Si p es un nmero primo, entonces cada nmero de pth (el comienzo con p) es divisible
por p. As entre nmeros enteros p consecutivos hay un resultado favorable, y de ah
P { un nmero dado es divisible por un principal}= 1/p (1-2)


Definicin de Frecuencia Relativa: La probabilidad de un acontecimiento un es definida
como
(1-3)
donde nA es el nmero de las presencias de un A y la n es el nmero total de pruebas.

Podemos usar la definicin de frecuencia relativa para provenir (1-2) tambin. Para
hacer esto argumentamos que entre los nmeros enteros 1,2,3,, los nmeros p, 2p,,
son divisibles por p.

As hay n/p tales nmeros entre 1 y la n. De ah
P {un nmero dado la N es divisible por p principal} (1-4)

En una manera similar, se sigue que
P {p2 divide cualquier nmero dado la N} = 1/p2 (1-5)
Y P {pq divide cualquier nmero dado la N} = 1/pq (1-6)


El acercamiento axiomtico a probabilidad, debido a Kolmogorov, desarrollado por un
juego de axiomas (debajo) es generalmente aprobado como superior a las susodichas
definiciones, (1-1) (1-3), como esto proporciona una fundacin slida para complicado
usos.
n
n
A P
A
n
lim ) (

=

La totalidad de todo Ei sabido a priori, constituye un juego , el juego de todos los
resultados experimentales.
= {E1,E2,E3, , Ek,} (1-7)
tiene subconjuntos A, B, C... Recuerde que si un es un subconjunto de , entonces la
EA un implica la E. De A y B, podemos generar otros subconjuntos relacionados
etc.











, | = B A el Si
conjunto vaco, entonces A y B son dicho ser mutuamente exclusivo (M.E).
Una particin de es una coleccin de mutuamente exclusiva los subconjuntos de tal
que su unin es .








Los Derechos de Morgan:






A menudo es significativo
hablar de al menos un poco de
los subconjuntos de como acontecimientos, para cual debemos tener el mecanismo de
calcular sus probabilidades.

Ejemplo 1.1: Considere el experimento donde dos monedas simultneamente son sacudidas.
Varios acontecimientos elementales son:

El subconjunto es el mismo como " la Cabeza ha ocurrido al
menos una vez " y se licencia como un acontecimiento.

Suponga dos subconjuntos A y B son ambos acontecimientos, luego considera
"Hace un resultado pertenece a A o B"
"Hace un resultado pertenece a A y B"
Se cae un resultado fuera A?

As los juegos etc., tambin licnciese como acontecimientos.
Formalizaremos esta utilizacin la nocin de un Campo.


Campo: Una coleccin de los subconjuntos de un juego no vaco formas una F de campaa
si

Usando (i) - (iii), es fcil mostrar esto etc., tambin pertenezca a la
F. Por ejemplo, de (ii) tenemos y la utilizacin (iii) esto da ;
aplicando (ii) otra vez nos ponemos donde hemos usado del teorema
de Morgan en (1-10).

As si entonces
De aqu sobre salas, reservaremos el trmino 'el acontecimiento' slo a los miembros de
F.
Asumiendo que la probabilidad de resultados elementales de es a priori
definido, cmo uno asigna probabilidades a acontecimientos 'ms complicados' como A, B,
AB, etc., encima?

Los tres axiomas de probabilidad definida debajo pueden ser usados alcanzar aquel
objetivo.

Axiomas de probabilidad
Para cualquier acontecimiento A, asignamos un nmero P (A), llamado la probabilidad del
acontecimiento la A. Este nmero satisface las tres condiciones siguientes que
interpretan los axiomas de probabilidad.

(Note que (iii) estados que si un A y la B son mutuamente exclusivo (M.E).
acontecimientos, la probabilidad de su unin es la suma de sus probabilidades.)
Las siguientes conclusiones se derivan de estos axiomas:
a. Ya que tenemos con (ii)
. 1 ) ( ) P( = O = P A A
Sin embargo , | e A A , y usando (iii),
). ( 1 ) P( or 1 ) P( ) ( ) P( A P A A A P A A = = + = (1-14)
b. Del mismo modo, para cualquier A { } { }. | | = A
De ah se sigue que { } ( ) . ) ( ) ( | | P A P A P + =
Sin embargo { } , A A = | , y por lo tanto { } . 0 = | P (1-15)
c.Supongamos que A y B no son mutuamente excluyentes (ME)?
Cmo se puede calcular ? ) ( = B A P

Para calcular la probabilidad de lo anterior, debemos volver a expresar B A en
trminos de M.E. establece para que podamos hacer uso de los axiomas de
probabilidad. Desde Fig.1.4 tenemos:
, B A A B A = (1-16)
donde A y B A son claramente eventos M.E..As, utilizando el axioma (1-13-iii)
). ( ) ( ) ( ) ( B A P A P B A A P B A P + = = (1-17)
Para calcular ), ( B A P podemos expresar B
A B BA A B A B
A A B B B
= =
= O =
) ( ) (
) (
(1-18)
Por lo tanto
), ( ) ( ) ( A B P BA P B P + = (1-19)

desde entonces AB BA = y B A A B = son eventos ME.

A partir de (1-19),
) ( ) ( ) ( AB P B P B A P = (1-20)
y el uso de (1-20) en (1-17)
). ( ) ( ) ( ) ( AB P B P A P B A P + = (1-21)
Pregunta: Supongamos que cada miembro de una numerable Ai infinita
coleccin de conjuntos disjuntos par sabio es un caso, entonces qu podemos decir acerc
a de su unin
?
1

=
=
i
i
A A (1-22)
es decir, supongamos que todo lo que sobre A? Se pertenecen a F? (1-23)
Adems, si A tambin pertenece a la F, lo que acerca de P (A)? (1-24)

Las preguntas sobre participacin de los conjuntos infinitos slo pueden ser resuelta
utilizando nuestra experiencia intuitiva de los experimentos posibles. Por ejemplo, en
un experimento de lanzamiento de una moneda, donde se lanza la misma moneda por tiempo
indefinido, definir
A = "al final aparece la cabeza". (1-25)
Es un evento? Nuestra experiencia intuitiva sin duda nos dice que A es un evento. Vamos
a
(la cabeza aparece por vez primera en el ensimo lanzamiento)
{ }
} , , , , , {
th toss on the 1st time for the appears head
1
h t t t t
n A
n
n

=
=
(1-26)
Claramente . | =
j i
A A Adems de lo anterior A es
.
3 2 1
=
i
A A A A A (1-27)

No podemos utilizar el axioma de probabilidad (1-13-iii) para calcular P (A), ya que el
axioma slo se ocupa de dos (o un nmero finito) de los eventos ME.
Para resolver las dos preguntas anteriores (1-23) - (1-24), la extensin de estas
nociones se debe hacer sobre la base de nuestra intuicin como nuevos axiomas.


o de campo (definicin):
Un campo F es un campo de o-si adems de las tres condiciones en (1-11), temmoslo
siguiente:
Para cada secuencia , 1 , = i A
i
de eventos disjuntos par sabia que
pertenece a M, su unin tambin pertenece a la F, es decir,
.
1
F A A
i
i
e =

=

(1-28)
En vista de (1-28), podemos aadir otro axioma que el conjunto de axiomas de
probabilidad en (1-13).
(iv) Si Ai son sabios par mutuamente excluyentes, entonces
). (
1 1

=
=
|
|
.
|

\
|
n
n
n
n
A P A P

(1-29)
Volviendo de nuevo a la experiencia lanzamiento de una moneda, por experiencia
sabemos que si seguimos lanzando una moneda al aire, a la larga, una cabeza que se
presenta, es decir,
. 1 ) ( = A P (1-30)
Sin embargo

=
=
1
,
n
n
A A , y usando el axioma de probabilidad cuarto (1-29),
). ( ) (
1 1

=
=
|
|
.
|

\
|
=
n
n
n
n
A P A P A P

(1-31)
De (1.26), por una moneda, ya que slo uno de cada 2
n
resultados est a favor de una
An, tenemos
, 1
2
1
) ( and
2
1
) (
1 1
= = =


=

= n
n
n
n
n
n
A P A P (1-32)
que est de acuerdo con (1-30), lo que justifica la "razonabilidad" del
axioma cuarto (1-29).

En resumen, el triplete (O, F, P), integrado por un conjunto no vaco O de sucesos
elementales, un F-o campo de subconjuntos de O, y una medida de probabilidad P en los
sistemas de sujecin F los cuatro axiomas ((1- 13)y(1-29)) constituyen un modelo de
probabilidad.

La probabilidad de eventos ms complicados que se derivan de este marco por deduccin.


Probabilidad condicional e independencia
En los ensayos N independientes, suponga NA, NB, NAB denotan el nmero de
eventos tiempos A, B y AB, respectivamente, se producen. De acuerdo con la
interpretacin de frecuencia de la probabilidad, para N grande
. ) ( , ) ( , ) (
N
N
AB P
N
N
B P
N
N
A P
AB B A
~ ~ ~ (1-33)

Entre las ocurrencias de NA de A, slo NAB de ellos tambin se encuentran entre los
acontecimientos Nota de B. As, el relacin de
) (
) (
/
/
B P
AB P
N N
N N
N
N
B
AB
B
AB
= = (1-34)

es una medida de "el evento A dado que B ya ha ocurrido". Denotamos esta probabilidad
condicional
P (A | B) = Probabilidad de "el evento A dado
que B ha ocurrido".
Definimos
,
) (
) (
) | (
B P
AB P
B A P = (1-35)

Como siempre se muestra a . 0 ) ( = B P continuacin, la definicin anterior
satisface todos los axiomas de probabilidad se discuti anteriormente.
Tenemos
(i) , 0
0 ) (
0 ) (
) | ( >
>
>
=
B P
AB P
B A P (1-36)
(ii) , 1
) (
) (
) (
) (
) | ( = =
O
= O
B P
B P
B P
B P
B P desde O B = B. (1-37)
(iii) Supongamos . 0 = C A entonces
.
) (
) (
) (
) ) ((
) | (
B P
CB AB P
B P
B C A P
B C A P

=

= (1-38)

Sin embargo , | = AC AB , por lo tanto, ). ( ) ( ) ( CB P AB P CB AB P + =
), | ( ) | (
) (
) (
) (
) (
) | ( B C P B A P
B P
CB P
B P
AB P
B C A P + = + = (1-39)
satisfacer todos los axiomas de probabilidad en (1-13). Por lo tanto (1-35) define una
medida de probabilidad legtima.


Propiedades de la probabilidad condicional:
a. Si , , B AB A B = c y
1
) (
) (
) (
) (
) | ( = = =
B P
B P
B P
AB P
B A P (1-40)
ya que si , A B c entonces la ocurrencia de B implica la aparicin automtica del evento
A. A modo de ejemplo, pero


en un experimento de lanzar los dados. Entonces, , A B c y . 1 ) | ( = B A P

b. Si , , A AB B A = c y
). (
) (
) (
) (
) (
) | ( A P
B P
A P
B P
AB P
B A P > = = (1-41)

(En un experimento de los dados, de modo que . B A c La afirmacin de que B ha ocurrido
(el resultado es an) hace que la cuota para "resultado es de 2"ms grande que sin esa
informacin).

c. Podemos utilizar la probabilidad condicional para expresar la probabilidad de un
evento complicado en trminos de "simple" eventos relacionados.
Que
n
A A A , , ,
2 1
son disjuntos por pares y su unin es O. As , | =
j i
A A y
.
1
O =
=

n
i
i
A (1-42)
Por lo tanto
. ) (
2 1 2 1 n n
BA BA BA A A A B B = = (1-43)

Pero , | | = =
j i j i
BA BA A A por lo que a partir de (1-43)

= =
= =
n
i
i i
n
i
i
A P A B P BA P B P
1 1
). ( ) | ( ) ( ) ( (1-44)

Con la nocin de probabilidad condicional, al lado se introduce el concepto de
"independencia " de los acontecimientos.


Independencia: A y B se dice que son eventos independientes, si
). ( ) ( ) ( B P A P AB P = (1-45)

Tenga en cuenta que la definicin anterior es una declaracin probabilstica, no una
idea de conjunto terico como mutuamente exclusividad.

Supongamos que A y B son independientes, entonces
). (
) (
) ( ) (
) (
) (
) | ( A P
B P
B P A P
B P
AB P
B A P = = = (1-46)

As, si A y B son independientes, el caso de que B se ha producido no arroja ninguna luz
ms en el caso de A. No hace ninguna diferencia a la A si B se ha producido o no. Un
{outcome is even}, ={outcome is 2}, A B =
ejemplo aclarar la situacin:

Ejemplo 1.2: Una caja contiene 6 blancas y 4 bolas de color negro. Retire los dos bolas
al azar sin reemplazo. Cul es la probabilidad de que el primero es de color blanco y
la segunda es de color negro?

Que W1 = "primera bola se retira blanco"
B2 = "segunda bola se extrae negro"

Necesitamos ? ) (
2 1
= B W P . Tenemos .
1 2 2 1 2 1
W B B W B W = = . Usando la regla de
probabilidad condicional,
). ( ) | ( ) ( ) (
1 1 2 1 2 2 1
W P W B P W B P B W P = = (1-47)
Sin embargo,
,
5
3
10
6
4 6
6
) (
1
= =
+
= W P
y
,
9
4
4 5
4
) | (
1 2
=
+
= W B P
y por lo tanto
90
24
9
4
10
6
) (
2 1
= = B W P

Si los acontecimientos W1 y B2 independiente? Nuestro sentido comn dice No.

Para comprobar esto tenemos que calcular P (B2). Por supuesto, el destino de la segunda
bola depende mucho de la de la primera bola. La primera bola tiene dos opciones: W1 =
"primera bola es blanca" o B1 = "primera bola es de color negro".

Tenga en cuenta que ,
1 1
| = B W y .
1 1
O = B W . Por lo tanto W1 junto con B1 forma
una particin. De este modo (vase (1-42) - (1-44))
,
5
2
15
2 4
5
2
3
1
5
3
9
4
10
4
3 6
3
5
3
4 5
4

) ( ) | ( ) ( ) | ( ) (
1 1 2 1 1 2 2
=
+
= + =
+
+
+
=
+ = B P R B P W P W B P B P

Y
.
81
20
) (
5
3
5
2
) ( ) (
1 2 1 2
= = = W B P W P B P


Como era de esperar, los acontecimientos W1 y B2 son dependientes.

A partir de (1-35),
). ( ) | ( ) ( B P B A P AB P = (1-48)

Del mismo modo, a partir de (1-35)
,
) (
) (
) (
) (
) | (
A P
AB P
A P
BA P
A B P = =
o
). ( ) | ( ) ( A P A B P AB P = (1-49)
A partir de (1-48) - (1-49), obtenemos
). ( ) | ( ) ( ) | ( A P A B P B P B A P =
o
) (
) (
) | (
) | ( A P
B P
A B P
B A P = (1-50)
La ecuacin (1-50) se conoce como el teorema de Bayes.

Aunque bastante simple, el teorema de Bayes tiene una interpretacin interesante: P (A)
representa el a-priori de probabilidad del evento A.

Supongamos que B ha ocurrido, y se supone que A y B no son independientes. Cmo puede
esta nueva informacin utilizar para actualizar nuestro conocimiento acerca de A? Regla
de Bayes en (1-50) tener en cuenta la nueva informacin ("B ha ocurrido") y da la
probabilidad de que un-a posteriori de una propuesta B.

Tambin podemos ver el evento B como los nuevos conocimientos obtenidos a partir de un
experimento nuevo. Sabemos algo sobre A como P (A). La nueva informacin est disponible
en trminos de B. La nueva informacin se debe utilizar para mejorar nuestros
conocimientos y la comprensin del teorema de Bayes A. 'da el mecanismo exacto para la
incorporacin de nueva informacin tales.

Una versin ms general del teorema de Bayes implica la particin de O. A partir de (1-
50)
,
) ( ) | (
) ( ) | (
) (
) ( ) | (
) | (
1

=
= =
n
i
i i
i i i i
i
A P A B P
A P A B P
B P
A P A B P
B A P (1-51)

donde hemos hecho uso de (1-44). En (1-51) , 1 , n i A
i
= , representan un conjunto de
eventos mutuamente excluyentes con sus correspondientes probabilidades a priori
. 1 ), ( n i A P
i
= Con la nueva informacin "B ha ocurrido", la informacin sobre Ai
puede ser actualizado por el n probabilidades condicionales
47). - (1 using , 1 ), | ( n i A B P
i
=

Ejemplo 1.3: Dos cajas de B1 y B2 contienen 100 y 200 bombillas, respectivamente. El
primer cuadro (B1) cuenta con 15 bombillas defectuosas, y el segundo 5. Supongamos que
una caja se ha seleccionado al azar, una lmpara se pone en relieve.

(a) Cul es la probabilidad de que es defectuoso?

Solucin: Tenga en cuenta que tiene un buen cuadro B1 85 y 15 bombillas defectuosas. Del
mismo modo B2 cuadro tiene 195 buenos y 5 bombillas defectuosas. Sea D = "bulbo
defectuoso se pone en relieve".
A continuacin,
. 025 . 0
200
5
) | ( , 15 . 0
100
15
) | (
2 1
= = = = B D P B D P

Desde una caja se ha seleccionado al azar, que son igualmente probables.
.
2
1
) ( ) (
2 1
= = B P B P
As, B1 y B2 forma una particin como en (1-43), y el uso de
(1-44) obtenemos
. 0875 . 0
2
1
025 . 0
2
1
15 . 0
) ( ) | ( ) ( ) | ( ) (
2 2 1 1
= + =
+ = B P B D P B P B D P D P

Por lo tanto, hay cerca de 9% de probabilidad de que una bombilla elegida al azar es
defectuoso.

(b) Supongamos que la prueba de la bombilla y se encuentra defectuoso. Cul es la
probabilidad de que se trataba de un cuadro? ? ) | (
1
= D B P
. 8571 . 0
0875 . 0
2 / 1 15 . 0
) (
) ( ) | (
) | (
1 1
1
=

= =
D P
B P B D P
D B P (1-52)

Tenga en cuenta que inicialmente luego tom una caja al azar y se puso a prueba un bulbo
que result ser defectuoso. Esta informacin puede arrojar algo de luz sobre el hecho de
que podramos haber tomado un cuadro?

A partir de (1-52) , 5 . 0 857 . 0 ) | (
1
> = D B P y de hecho es ms probable en este punto que
debemos tener seleccionado el recuadro 1 en favor de la caja 2. (Recurdese caja1 tiene
seis veces ms bombillas defectuosas en comparacin con Tabla 2).
























LECT 2A
2. INDEPENDENCIA Y ENSAYOS DE BERNOULLI
(EULER, RAMANUJAN Y NMEROS DE BERNOULLI)

Independencia: eventos A y B son independientes si
). ( ) ( ) ( B P A P AB P =
(2-1)

Es fcil demostrar que A, B independientes implica
; , B A

B A B A , ; ,
son todos los pares
independientes. Por ejemplo,
B A AB B A A B = = ) (
y
, | = B A AB
para que
) ( ) ( ) ( ) ( ) ( ) ( ) ( B A P B P A P B A P AB P B A AB P B P + = + = =
o
), ( ) ( ) ( )) ( 1 ( ) ( ) ( ) ( ) ( B P A P B P A P B P A P B P B A P = = =
es decir, A y B son eventos
independientes.

Como una aplicacin, que Ap y Ac representan los eventos

y


Luego, a partir de (1-4)

Tambin

(2-2)
De ah se sigue que AP y AQ son eventos independientes!

Si P (A) = 0, ya que el evento A AB c siempre, tenemos
, 0 ) ( 0 ) ( ) ( = = s AB P A P AB P
y (2-1) es siempre satisfechos. As, el caso de cero probabilidad es
independiente de cualquier otro evento!
Eventos independientes, obviamente, no puede ser mutuamente exclusivo, desde
entonces 0 ) ( , 0 ) ( > > B P A P y A, B independientes implica . 0 ) ( > AB P As, si A
y B son independientes, el caso de AB no puede ser el conjunto vaco.
De manera ms general, una familia de eventos { }
i
A se dice que son
independiente, si para cada sub coleccin finita , , , ,
2 1 n
i i i
A A A tenemos
[
= =
=
|
|
.
|

\
|
n
k
i
n
k
i
k k
A P A P
1 1
). (

(2-3)
Vamos a
,
3 2 1 n
A A A A A = (2-4)
una unin de n eventos independientes. Luego por la Ley De-Morgan n A A A A 2 1 =
y usando su independencia . )) ( 1 ( ) ( ) ( ) (
1 1
2 1
[ [
= =
= = =
n
i
i
n
i
i n A P A P A A A P A P (2-5)
" the prime divides the number "
p
A p N =
" the prime divides the number ".
q
A q N =
1 1
{ } , { }
p q
P A P A
p q
= =
1
{ } {" divides "} { } { }
p q p q
P A A P pq N P A P A
pq
= = =
As, para cualquier A como en (2-4)
, )) ( 1 ( 1 ) ( 1 ) (
1
[
=
= =
n
i
i
A P A P A P (2-6)
es un resultado til.

Podemos utilizar estos resultados para resolver unos problemas interesantes de teora de
los nmeros.

Ejemplo 2.1
Dos enteros M y N son elegidos al azar. Cul es la probabilidad de que sean primos
entre s a unos a otros?

Solucin: Como M y N son elegidos al azar, ya sea p divide M o no depende de la otra
serie N.
Por lo tanto tenemos



donde hemos utilizado (1-4). Tambin a partir de (1-10)



Observe que "M y N son primos entre s" si y slo si no existe un primo p que divide a
ambos M y N.

Por lo tanto


donde Xp representa el evento


Por tanto, poner (2-2) y (2-5)





donde hemos utilizado la identidad de Euler
(1)
.
(1) Vase el Apndice para una prueba de la identidad de Euler por Ramanujan.



El mismo argumento se puede utilizar para calcular la probabilidad
que un nmero entero seleccionado al azar es "sin plaza".

Dado que el evento



un nmero entero seleccionado al azar es cuadrada libre
2
{" divides both and "}
1
{" divides "} {" divides "}
P p M N
P p M P p N
p
= =
2
{" does divede both and "}
1
1 {" divides both and "} 1
P p not M N
P p M N
p
= =
2 3 5
" and are relatively prime" M N X X X =
" divides both and " .
p
X p M N =
2
prime
2 2
2 prime
1
1
{" and N are relatively prime"} ( )
1 1 6
(1 ) 0.6079,
/ 6
1 /
p
p
p
k
p
P M P X
k
t t

=
=
= = = = =
[
[

1
1 prime
1
1 / (1 ) .
s
s
k p
p
k

=
=
[
2
prime
" An integer chosen at random is square f ree"
{" does divide "},
p
p not N =
{p2 no divide N}
utilizando (2.5) tenemos







Nota: Para aadir un toque interesante a la serie 'plaza libre' problema, Ramanujan ha
demostrado a travs de primarias, pero argumentos inteligentes que los inversos de las
potencias n
th
de todos los "plaza libre 'nmeros aadir a
donde (vase (2-E))



As, la suma de los inversos de los cuadrados de "plaza libre" nmero est dado por





Ejemplo 2.2: Tres interruptores conectados en paralelo funcionan de forma independiente.
Cada interruptor permanece cerrado con una probabilidad p. (a) Hallar la probabilidad de
recibir una seal de entrada en la salida. (b) Encuentre la probabilidad de que el
interruptor S1 est abierto, ya que una seal de entrada se recibe en la salida.


Solucin: a. Sea Ai = "Cambiar Si est cerrado". A continuacin, P(Ai)=p, i=13. Desde
interruptores funcionan de forma independiente, tenemos
). ( ) ( ) ( ) ( ); ( ) ( ) (
3 2 1 3 2 1
A P A P A P A A A P A P A P A A P
j i j i
= =

Sea R = "seal de entrada se recibe en la salida". Para el caso de R que se produzca
cualquiera de los interruptores 1 y 2 del interruptor o el interruptor 3 debe permanecer
cerrado, es decir,
.
3 2 1
A A A R = (2-7)
Usando (2-3)-(2-6)
. 3 3 ) 1 ( 1 ) ( ) (
3 2 3
3 2 1
p p p p A A A P R P + = = = (2-9)

Tambin puede obtener (2-8) de una manera diferente. Desde cualquier caso, y su
complemento forman una particin trivial, siempre podemos escribir
). ( ) | ( ) ( ) | ( ) ( 1 1
1 1
A P A R P A P A R P R P + = (2-9)

Pero P(R|A1)=1, y
2
3 2
1 2 ) ( ) | ( p p A A P A R P = = y el uso de estos en (2-9) se obtiene
2
2
prime prime
2 2
2
1
1
{" An integer chosen at random is square free"}
{ does divide } (1 )
1 1 6
.
/ 6
1 /
p p
k
p
P
P p not N
k
t t

=
= =
= = =
[ [

2
/ ,
n n
S S
1
1 / .
n
n
k
S k

=
=

2
2 2 2 2 2 2 2 2 2
4
2
4 2
1 1 1 1 1 1 1 1 1
2 3 5 6 7 10 11 13 14
/ 6 15
1.51198.
/ 90
S
S
t
t t
+ + + + + + + + + =
= = =
, 3 3 ) 1 )( 2 ( ) (
3 2 2
p p p p p p p R P + = + = (2-10)
que est de acuerdo con (2-8).

Tenga en cuenta que los sucesos A1, A2, A3 no forman una particin, ya que no son
mutuamente excluyentes. Obviamente, cualquiera de los dos o los tres interruptores puede
ser cerrado (o abierto) al mismo tiempo. Por otra parte, . 1 ) ( ) ( ) (
3 2 1
= + + A P A P A P

b. Necesitamos ). | ( 1 R A P Desde el teorema de Bayes
.
3 3
2 2
3 3
) 1 )( 2 (
) (
) ( ) | (
) | (
3 2
2
3 2
2
1 1
1
p p p
p p
p p p
p p p
R P
A P A R P
R A P
+
+
=
+

= = (2-11)

Debido a la simetra de los interruptores, tambin tenemos
). | ( ) | ( ) | ( 3 2 1 R A P R A P R A P = =


Repeticin de pruebas
Consideremos dos experimentos independientes con los modelos de probabilidad asociada
(O 1, F1, P1) y (2 O, F2, P2). Que eO1, qeO2 representan sucesos elementales. Una
actuacin conjunta de los dos experimentos produce una sucesos elementales e = (,q).
Cmo caracterizar a una probabilidad adecuada a este "evento combinado"? En este
sentido, considerar el producto cartesiano del espacio O = O1O2 generados a partir
de O1 y 2 O tal que si eO1 y qeO2, luego cada e en O es un par ordenado de la forma
e = (,q). Para llegar a un modelo de probabilidad, tenemos que definir el tro
combinado (O, F, P).

Supongamos que AeF1 y BeF2. Entonces AB es el conjunto de todos los pares (,q), donde
subconjunto eA y qeB. Cualquier O como de que parece ser un caso legtimo para el
experimento combinado. Sea F denota el campo integrado por todos los subconjuntos AxB,
junto con sus sindicatos y elogios. En este experimento combinado, las probabilidades de
los eventos AxO2, y O1B son tales que
). ( ) ( ), ( ) (
2 1 1 2
B P B P A P A P = O = O (2-12)

Por otra parte, los sucesos AO2 y O1B son independientes de cualquier y AeF1 y BeF2.
Desde
, ) ( ) (
1 2
B A B A = O O (2-13)
llegamos a la conclusin con (2-12) que
) ( ) ( ) ( ) ( ) (
2 1 1 2
B P A P B P A P B A P = O O = (2-14)

para todo AeF1 y F2eB. La asignacin de (2-14) se extiende a una medida de probabilidad
nica ) (
2 1
P P P en los conjuntos en F y define el tro combinado (O, F, P).

Generalizacin: Teniendo en cuenta n experimentos , , , ,
2 1 n
O O O y dejar que sus
asociados , 1 , and n i P F
i i
= que
n
O O O = O
2 1
(2-15)

representar a su producto cartesiano cuyos sucesos elementales son las ordenadas de n-
tuplas , , , ,
2 1 n
donde .
i i
O e Eventos en este espacio se combinan de la forma
n
A A A
2 1
(2-16)
dnde ,
i i
F A e y sus sindicatos un intersecciones.

Si todos estos experimentos n son independientes, y ) (
i i
A P es la probabilidad del evento
i
A en
i
F entonces como antes
(2-17)

Ejemplo 2.3: Un evento A tiene probabilidad p de ocurrir en un solo ensayo. Encuentre la
probabilidad de que A ocurra exactamente k veces, k s n en n ensayos.

Solucin: Sea (O, F, P) es el modelo de probabilidad para un solo ensayo. El resultado
de los experimentos n es un n-tupla
{ } , , , ,
0 2 1
O e =
n
e (2-18)

donde cada O e
i
y O O O = O
0
como en (2-15). El evento A ocurre en el juicio
# i, si . A
i
e Supongamos que se produce exactamente k veces en e.

Luego k del
i
pertenecen a A, decimos , , , ,
2 1 k
i i i
y los restantes k n se encuentran
en su complemento en . A Usando (2-17), la probabilidad de ocurrencia de tal e viene
dada por
. ) ( ) ( ) ( ) ( ) ( ) (
}) ({ }) ({ }) ({ }) ({ }) , , , , , ({ ) (
2 1 2 1
0
k n k
k n k
i i i i i i i i
q p A P A P A P A P A P A P
P P P P P P
n k n k

= =
= =




e
(2-19)

Sin embargo, los sucesos k de A se puede producir en un lugar especial dentro de e. Que
N
e e e , , ,
2 1
a representar a todos los eventos en los que A ocurre exactamente k veces.
A continuacin,
. trials" in times exactly occurs "
2 1 N
n k A e e e = (2-20)
(A ocurre exactamente k veces en n ensayos)

Sin embargo, todos estos eis son mutuamente excluyentes, y equiprobables.
Por lo tanto
, ) ( ) (
) trials" in times exactly occurs ("
0
1
0
k n k
N
i
i
q Np NP P
n k A P

=
= = =

e e
(2-21)

donde hemos utilizado (2-19). Recordemos que, a partir de n opciones posibles, el primer
objeto se puede elegir n de diferentes maneras, y para cada eleccin como la segunda en
formas ) 1 ( n , ... y las formas k
th
- ) 1 ( + k n , esto le da las opciones para el total
de k objetos de n para ). 1 ( ) 1 ( + k n n n Pero esto incluye el k! elegir entre los k
1 2 1 1 2 2
( ) ( ) ( ) ( ).
n n n
P A A A P A P A P A =
objetos que son indistinguibles de los objetos idnticos. Como resultado de ello.
|
|
.
|

\
|
=

=
+
=
k
n
k k n
n
k
k n n n
N
! )! (
!
!
) 1 ( ) 1 (
(2-22)

representa el nmero de combinaciones, o las opciones de n objetos idnticos tomadas de
k en un tiempo. Utilizando (2.22) en (2-21), obtenemos


(2-23)


una frmula, debido a Bernoulli.

Independiente repitiendo los experimentos de esta naturaleza, cuando el resultado es o
bien un "xito" (=A) o un "fracaso " (=A) se caracterizan por los ensayos de Bernoulli,
y la probabilidad de k xitos en n ensayos viene dada por (2.23), donde p representa la
probabilidad de de "xito" en cualquier prueba de una.
Ejemplo 2.4: Lanza una moneda de n veces. Obtener la probabilidad de obtener k cabezas
en los ensayos n?

Solucin: Es posible identificar "la cabeza" con "xito " (A) y dejar ). ( H P p = En
ese caso (2-23) da la probabilidad deseada.

Ejemplo 2.5: Considere la posibilidad de rodar una feria mueren ocho veces. Encuentra la
probabilidad de que 3 o 4 aparece cinco veces?

Solucin: En este caso podemos identificar
{ } { }. } 4 or 3 either { success" "
4 3
f f A = = =
Por lo tanto
,
3
1
6
1
6
1
) ( ) ( ) (
4 3
= + = + = f P f P A P
y la probabilidad deseada viene dada por (2.23) con 5 , 8 = = k n y . 3 / 1 = p Tenga en
cuenta que esto es similar a una "moneda sesgada" problema.


Ensayo de Bernoulli: consiste en repetir experimentos independientes e idnticos cada
uno de ellos tiene slo dos resultados A o A con , ) ( p A P = y . ) ( q A P = La probabilidad
de que exactamente k ocurrencias de A en n ensayos como est dada por (2-23).

Vamos a
. trials" in s occurrence exactly " n k (2-24)

Dado que el nmero de ocurrencias de A en n ensayos debe ser un entero , , , 2 , 1 , 0 n k = o
n
X X X X or or or or
2 1 0
debe ocurrir en un experimento. Por lo tanto

. 1 ) (
1 0
=
n
X X X P (2-25)
, , , 2 , 1 , 0 ,
) trials" in times exactly occurs (" ) (
n k q p
k
n
n k A P k P
k n k
n
=
|
|
.
|

\
|
=
=


Sin embargo, se excluyen mutuamente. Por lo tanto


= =

|
|
.
|

\
|
= =
n
k
n
k
k n k
k n
q p
k
n
X P X X X P
0 0
1 0
. ) ( ) ( (2-26)
De la relacin
, ) (
0
k n k
n
k
n
b a
k
n
b a

=

|
|
.
|

\
|
= + (2-27)

(2-26) es igual , 1 ) ( = +
n
q p y est de acuerdo con (2-25).
Para un n dado y lo que p es el valor ms probable de k? Desde Fig. 2.2, el valor ms
probable de k es el nmero que maximiza ) (k P
n
en (2-23). Para obtener este valor, tenga
en cuenta la relacin

. 2 / 1 , 12 = = p n


.
1 !
! )! (
)! 1 ( )! 1 (
!
) (
) 1 (
1 1
p
q
k n
k
q p n
k k n
k k n
q p n
k P
k P
k n k
k n k
n
n
+
=

+
=

+
(2-28)

As, ), 1 ( ) ( > k P k P
n n
si p k n p k ) 1 ( ) 1 ( + s o . ) 1 ( p n k + s As ) (k P
n
, en funcin de
los aumentos de hasta k.
p n k ) 1 ( + = (2-29)

si es un nmero entero, o el mayor entero
max
k menor , ) 1 ( p n + y(2-29) representa
el nmero ms probable de los xitos (o cabezas) en n ensayos.


Ejemplo 2.6: En un experimento de Bernoulli, con n ensayos, encuentre la probabilidad
de que el nmero de ocurrencias de A es entre
1
k y .
2
k

Solucin: Con , , , 2 , 1 , 0 , n i X
i
= tal como se define en (2-24), es evidente que son
eventos mutuamente excluyentes. Por lo tanto

. ) ( ) (
) " and between is of s Occurrence ("
2
1
2
1
2 1 1
1
2 1

=

=
+
|
|
.
|

\
|
= = =
k
k k
k n k
k
k k
k k k k
q p
k
n
X P X X X P
k k A P

(2-30)
(sucesos de a est entre k1 y k2)

Ejemplo 2.7: Supongamos 5.000 componentes estn ordenados. La probabilidad de que una
parte est defectuosa es igual a 0.1. Cul es la probabilidad
de que el nmero total de piezas defectuosas no exceda de 400?

Solucin: Deja que
". components 5,000 among defective are parts " k Y
k
=
(k piezas son defectuosas entre 5.000 componentes)

Utilizando (2.30), la probabilidad deseada est dada por
. ) 9 . 0 ( ) 1 . 0 (
5000

) ( ) (
5000
400
0
400
0
400 1 0
k k
k
k
k
k
Y P Y Y Y P

=
=

|
|
.
|

\
|
=
=
(2-31)

La ecuacin (2-31) tiene demasiados trminos de calcular. Es evidente
que necesitamos una tcnica para calcular el plazo por encima de una manera
ms eficiente.

De (2.29),
max
k el nmero ms probable de xitos en n ensayos, satisfacer
p n k p n ) 1 ( 1 ) 1 (
max
+ s s + (2-32)
o
,
max
n
p
p
n
k
n
q
p + s s (2-33)

de manera que
. lim p
n
k
m
n
=

(2-34)

A partir de (2-34), como , n la relacin entre el nmero ms probable de aciertos
(A) al nmero total de ensayos en un experimento de Bernoulli tiende a p, la
probabilidad de ocurrencia de A enun solo ensayo. Tenga en cuenta que (2-34) conecta los
resultados de un experimento real ( n k
m
/ ) para la definicin axiomtica de p. En este
contexto, es posible obtener un resultado ms general de la siguiente manera:

Teorema de Bernoulli: Sea A un evento cuya probabilidad de ocurrencia en un solo
ensayo es p. Si k denota el nmero de ocurrencias de A en n pruebas independientes,
entonces
.
2
c
c
n
pq
p
n
k
P <
|
|
.
|

\
|
)
`

> (2-35)

La ecuacin (2-35) establece que la definicin de frecuencia de la probabilidad de
un evento
n
k
y su definicin axiomtica (p) puede ser compatible con cualquier
grado de exactitud.

Prueba: Para probar el teorema de Bernoulli, necesitamos dos identidades. Tenga en
cuenta que con ) (k P
n
en (2-23), el clculo directo da
. ) (
! )! 1 (
)! 1 (
! )! 1 (
!

)! 1 ( )! (
!
! )! (
!
) (
1
1
1
0
1 1
1
0
1
1
1 0
np q p np
q p
i i n
n
np q p
i i n
n
q p
k k n
n
q p
k k n
n
k k P k
n
i n i
n
i
i n i
n
i
k n k
n
k
n
k
k n k
n
k
n
= + =


=

=

=

=
+

=


(2-36)

Procediendo de manera similar, se puede demostrar que

.
)! 1 ( )! (
!

)! 2 ( )! (
!
)! 1 ( )! (
!
) (
2 2
1
2 1 0
2
npq p n q p
k k n
n
q p
k k n
n
q p
k k n
n
k k P k
k n k
n
k
k n k
n
k
n
k
k n k
n
k
n
+ =

+

=

=

= =


(2-37)

Volviendo a (2-35), tenga en cuenta que
, ) ( to equivalent is
2 2 2
c c n np k p
n
k
> > (2-38)

que a su vez es equivalente a
. ) ( ) ( ) (
2 2
0
2 2
0
2
c c n k P n k P np k
n
n
k
n
n
k
= >

= =
(2-39)

Usando (2-36) - (2-37), el lado izquierdo de (2-39) se puede ampliar para dar
. 2
) ( 2 ) ( ) ( ) (
2 2 2 2
2 2
0 0
2
0
2
npq p n np np npq p n
p n k P k np k P k k P np k
n
n
k
n
n
k
n
n
k
= + + =
+ =

= = =
(2-40)

Por otra parte, el lado izquierdo de (2-39) se puede expresar como
{ }.
) ( ) ( ) (
) ( ) ( ) ( ) ( ) ( ) (
2 2
2 2 2
2 2
0
2
c c
c
c c
c c
n np k P n
k P n k P np k
k P np k k P np k k P np k
n
n np k
n
n np k
n
n np k
n
n np k
n
n
k
> =
> >
+ =


> >
> s =
(2-41)

Usando (2-40) en (2-41), obtenemos el resultado deseado.
.
2
c
c
n
pq
p
n
k
P <
|
|
.
|

\
|
)
`

> (2-42)

Tenga en cuenta que para un
2
/ , 0 c c n pq > determinado puede hacerse
arbitrariamente pequea al permitir que n es grande. As, para n muy grande, podemos
hacer la ocurrencia fraccionada (frecuencia relativa)
n
k
del evento A tan cerca
de la probabilidad p real del evento A en un solo ensayo. As, el teorema de que
la probabilidad del evento A partir del marco axiomtico puede ser calculada a partir
de la definicin de frecuencia relativa con bastante precisin, siempre y cuando el
nmero de experimentos son lo suficientemente grandes. Dado
max
k que es el valor ms
probable de k en n ensayos, de la discusin anterior, como las , n
parcelas de ) (k P
n
tiende a concentrarse cada vez ms en torno a
max
k (2-32).

A continuacin presentamos ejemplo para ilustrar que la utilidad de
"ejemplos simple libro de texto" a los problemas prcticos de inters:

Ejemplo 2.8: Da de la estrategia de negociacin:
Una caja contiene n bolas numeradas al azar (del 1 a n, pero no un nmero arbitrario con
los nmeros mayor que). Supongamos que una fraccin de esas pelotas (dice m=np; p<1)
son inicialmente un empate a uno con el reemplazo aunque toma nota de los
nmeros de las bolas. El dibujo se permite que contine hasta que se extrae una
bola con un nmero mayor que el nmero de metros en primer lugar.
Determine la fraccin p de ser inicialmente elaborado, a fin de maximizar la
probabilidad de sacar el mayor entre los nmeros n utilizando esta estrategia.

Solucin: Sea
st
k
k X ) 1 ( + = la bola ha atrado el mayor nmero entre todas las bolas n,
y el ms grande entre las bolas primero k est en el grupo de bolas primeros m, k>m.
(2-43)

Tenga en cuenta que Xk es de la forma
donde
A = "el ms grande entre las bolas k primero es en el grupo de los primeros
m bolas extradas "
y
B = (k +1)
st
bola tiene el mayor nmero entre todas las bolas n.
Tenga en cuenta que A y B son eventos independientes, y por lo tanto

(2-44)




Donde m = np representa la fraccin de bolaspara ser inicialmente
dibujado. Esto le da
P ("bola seleccionada tiene el mayor nmero entretodas las bolas")


(2-45)
, A B
.
1

1
) ( ) ( ) (
k
p
k
np
n k
m
n
B P A P X P
k
= = = =
1 1


1 1
( ) ln
ln .
n n
n
n
k
np
np
k m k m
P X p p p k
k k
p p

= =
= = ~ =
=

}


Maximizacin de la probabilidad deseada en (2-45) con respecto a p da.
0 ) ln 1 ( ) ln ( = + = p p p
dp
d

O
(2-46)
A partir de (2-45), el valor mximo para la probabilidad deseada de dibujo con el mayor
nmero es igual a 0.3679 entonces.
Es interesante que la citada estrategia se puede utilizar para "jugar el mercado de
valores".
Supongamos que uno se mete en el mercado y decide quedarse hasta el da 100o El valor
de las acciones flucta da a da, y la cuestin importante es el momento de salir?
De acuerdo con la citada estrategia, se debe salir en la primera oportunidad despus de
37 das, cuando el valor de las acciones supere el mximo entre los primero 37 das.

En ese caso la probabilidad de golpear el valor superior ms de 100 das para que la
poblacin est tambin cerca del 37%. Por supuesto, el argumento anterior asume que
el stock de valores durante el perodo de inters son las fluctuaciones al azar sin
mostrar ninguna otra tendencia.

Curiosamente, tal es el caso si tenemos en cuenta marcos de tiempo examinado como el
comercio inter-da.

En resumen, si hay un da del comercio, a continuacin, una posible estrategia podra
ser la de entrar en a las 9:30 de la maana, y salir en cualquier momento despus de las
12 horas (9.30+ 0.3679 AM 5,6 horas = 11:54 para ser exactos) en el primer
pico que supera el valor mximo entre las 9.30 y las 12 del medioda. En caso de que las
posibilidades son alrededor de un 37% que uno llega al valor ms favorable para ese da!
(Aviso: Comercio a su propio riesgo).

Concluimos esta conferencia con una variacin del juego de dados discutido en el
ejemplo 16.3, el texto.


Ejemplo 2.9: Juego de dados con los dados sesgada:
Del ejemplo 3.16, el texto, la probabilidad de ganar el juego de los
dados es 0.492929 para el jugador.
As, el juego es un poco ventajoso para la casa. Esta celebracin del curso
asume que los dos dados que se trate son cubos perfectos. Supongamos que no es el
caso.

Supongamos que los dos dados se cargan un poco en la bsqueda
un hombre para que las caras 1, 2 y 3 aparece con una probabilidad
y se enfrenta a 4, 5 y 6 aparece con una probabilidad
para cada dados. Si T es el combinado total para los dos dados (el
texto siguiente notacin), obtenemos


1
0.3679. p e

=
1
6
c
1
6
0 , c c + >
2
4
2 2
5
2 2
6
7
1
6
1 1
36 6
1 1
36 6
{ 4} {(1, 3), ( 2, 2), (1, 3)} 3( )
{ 5} {(1, 4), ( 2, 3), (3, 2), ( 4,1)} 2( ) 2( )
{ 6} {(1, 5), ( 2, 4), (3, 3), ( 4, 2), (5,1)} 4( ) ( )
{ 7} {(1, 6), ( 2, 5), (3, 4), ( 4, 3), (5, 2), (6,1
p P T P
p P T P
p P T P
p P T P
c
c c
c c
= = = =
= = = = +
= = = = +
= = =
2
2 2
8
2 2
9
2
10
11
1
36
1 1
36 6
1 1
36 6
1
6
1
6
)} 6( )
{ 8} {( 2, 6), (3, 5), ( 4, 4), (5, 3), (6, 2)} 4( ) ( )
{ 9} {(3, 6), ( 4, 5), (5, 4), (6, 3)} 2( ) 2( )
{ 10} {( 4, 6), (5, 5), (6, 4)} 3( )
{ 11} {(5, 6), (6, 5)} 2(
p P T P
p P T P
p P T P
p P T P
c
c c
c c
c
=
= = = = + +
= = = = + +
= = = = +
= = = = +
2
) . c
(Tenga en cuenta que (1,3) "de arriba representa el evento" los dados primero
muestra una cara, y el segundo muestra los dados frente a 3 ", etc.)
Para obtenemos el siguiente cuadro:



Esto da la probabilidad de ganar en el primer lanzamiento que es (Uso (3-56), el texto)
(2-47)

y la probabilidad de ganar por lanzar un remanente que es (Uso (3-58)-(3-59), el texto)
(2-48)


Por lo tanto
(2-49)
Aunque los dados perfecto en da lugar al juego desfavorable, una carga ligera de
los dados vueltas alrededor de fortuna en l a favor del jugador! (No es una emocionante
conclusin en cuanto a los casinos se refiere).

Incluso si dejamos que los dos dados que carga diferentes
factores y por la situacin descrita anteriormente), similares
Siguen las conclusiones. Por ejemplo,
da (mostrar el resultado de esto)
(2-50)

Una vez ms, el juego est a favor del jugador!
Aunque la ventaja es muy modesto en cada juego, desde Teorema de Bernoulli es
el efecto acumulativo puede ser muy importante cuando un gran nmero de juegos se
juegan. Razn de ms para los casinos para mantener los dados en forma perfecta.

En resumen, las variaciones pequea posibilidad en cada juego de los dados pueden
conducir a cambios significativos en contra de la intuicin
cuando un gran nmero de juegos se juegan. Lo que parece favorable para ser
un juego para la casa en realidad puede llegar a hacer al juego desfavorable,

Apndice: Identidad de Euler

S. Ramanujan en uno de sus primeros trabajos (J. de la India Matemticas Soc;V, 1913)
comienza con la observacin inteligente que si son nmeros
menores que la unidad donde los subndices 2,3,5,7,11,.. son la serie de primera
nmeros, Entonces
1



(2-A)

Tenga en cuenta que los trminos en (2-A) se organizan de tal manera que el producto
0.01, c =
1
( 7) ( 11) 0.2285 P P T P T = = + = =

2
10
2
4 7
7
0.2717
k
k k
k
p
p p
P
=
=
+
= =

1 2
{winning the game} 0.5002 P P P = + =
1
c
2
c
1 2
0.01 and 0.005 c c = =
{winning the game} 0.5015. P =
2 3 5 7 11
, , , , , a a a a a
2 3 2 2 5
2 3 5 7
2 3 7 2 2 2 3 3
1 1 1 1
1
1 1 1 1
.
a a a a a
a a a a
a a a a a a a a
= + + + +

+ + + + +
obtenido al multiplicar los subndices son la serie de todos los nmeros naturales
2,3,4,5,6,7,8,9,. Claro,(2-A) se sigue observando que los nmeros naturales

1 La relacin (2-A) es antigua.

estn formadas por primos y multiplicando sus poderes.

Utiliza Ramanujan (2-A) para obtener una variedad de identidades interesantes,
incluyendo la identidad de Euler que sigue permitiendo que , ,en un
(2-A). Esto le da la identidad de Euler.

(2-B)

La suma en el lado derecho de (2-B) puede estar relacionada con los nmeros de Bernoulli
(para s par).
Nmeros de Bernoulli son nmeros racionales positivos se define a travs de la expansin
en serie de potencias de la funcin par . As, si escribimos.
(2-C)
a continuacin,


Mediante la manipulacin directa de (2-C) tambin obtenemos.

(2-D)

de manera que los nmeros de Bernoulli puede ser definido a travs de (2-D) tambin.
Ms.




lo que da.



Por lo tanto
1





1
La serie se puede resumir con la expansin en serie de Fourier de una rampa de
peridicos la seal tambin.
Y cuando se juega puede llevar varias veces a resultados desagradables.







2 3 5
1 / 2 , 1 / 3 , 1 / 5 ,
s s s
a a a = = =
1
prime 1
1
(1 ) 1 / .
s
s
p n
p
n

=
=
[
2
cot( / 2).
x
x
2 4 6
1 2 3
cot( / 2) 1
2 2! 4! 6!
x x x x
x B B B =
1 2 3 4 5
1 1 1 1 1
6 30 42 30 66
, , , , , . B B B B B = = = = =
6 2 4
3 1 2
1
1 2 2! 4! 6!
x
B x x x B x B x
e
= + +

2 1
2 1 2 4
2
0 0
2 2 2 2 2
1
4 ( )
2( 2 ) ! 1 1 1 1
( 2 ) 1 2 3 4
n
n x x
x n
n n n n n
x
e
B n dx x e e dx
n
t t
t
t

= = + +
| |
= + + + +
|
\ .
} }
2
2
2
1
( 2 )
1 /
2( 2 ) !
n
n
n
n
k
B
S k
n
t

=
= =

2 4
2 4
1 1
1 / ; 1 / etc.
6 90
k k
k k
t t

= =
= =

2
1
1 /
k
k

LECT 3A
3. VARIABLES ALEATORIAS

Sea (O, F, P) un modelo de probabilidad para un experimento, y X una funcin que se
asigna , O e a cada un nico punto , R x e el conjunto de los nmeros reales. Puesto
que el resultado no es seguro, por lo que es el valor . ) ( x X = As,
si B es un subconjunto de R, es posible que desee determinar la probabilidad de "
B X e ) ( ". Para determinar esta probabilidad, podemos ver el
conjunto que contiene O e =

) (
1
B X A todos O e los mapas que en B bajo la funcin
de X.



Obviamente, si ) (
1
B X A

= el conjunto tambin pertenece a la F campo asociado,
entonces es un acontecimiento y la probabilidad de A est bien definida, en cuyo caso se
puede decir.
)). ( ( " ) ( " event the of y Probabilit
1
B X P B X

= e (3-1)

Sin embargo, ) (
1
B X

no siempre pertenecen a F para todo B, lo que crea dificultades. El
concepto de variable aleatoria (v.a.) se asegura de que los resultados
de la asignacin inversa siempre en un evento para que sean capaces de determinar la
probabilidad de algn . R B e

VARIABLE ALEATORIA (VA): Un solo valor finito funcin X(-)que se asigna el
conjunto de todos los resultados experimentales en O el conjunto de los nmeros
reales R se dice que una v.a., si el conjunto { } ) ( | x X s es un evento ) ( F e
para todo x en R.

Por otra parte X se dice que una va, si F B X e

) (
1
donde B representa intervalos semi-
definida de la forma } { a x s < y todos los otros conjuntos que pueden construirse a
partir de estos conjuntos mediante la realizacin de las operaciones de conjunto
de unin, interseccin y negacin cualquier nmero de veces. La coleccin
de Borel B de subconjuntos de R tales es el ms pequeo o de campo de los
subconjuntos de R que incluye todos los intervalos semi-
infinita de la forma anterior. As, si X es un r.v, entonces,
{ } { } ) ( | x X x X s = s (3-2)
es un evento para todos los x. Qu pasa con { } { }? , a X b X a = s <
ellos son tambin los acontecimientos? De hecho con a b > el puesto } { a X s y { } b X s
eventos, es un evento y por lo tanto { } { } } { b X a b X a X s < = s > es tambin un
acontecimiento.

Por lo tanto,
)
`

s <
1
a X
n
a es un evento para cada n. En consecuencia,

=
= =
)
`

s <
1
} {
1

n
a X a X
n
a (3-3)

es tambin un acontecimiento. Todos los eventos tienen bien definida la
probabilidad. As, la probabilidad de que el evento { } ) ( | x X s debe depender de
x. Denotan,
{ } . 0 ) ( ) ( | > = s x F x X P
X
(3-4)

El papel del subndice X en (3-4) es slo para identificar la v.a. real. ) ( x F
X
se dice
que la distribucin de probabilidad de funciones (P-DF) asociadas a la v.a. X.

FUNCIN DE DISTRIBUCIN: Tenga en cuenta que una funcin de distribucin g(x) que
es no decreciente, haga continua y satisface,

, 0 ) ( , 1 ) ( = = + g g (3-5)
es decir, si g (x) es una funcin de distribucin, a continuacin,
(i) , 0 ) ( , 1 ) ( = = + g g
(ii) si ,
2 1
x x < entonces ), ( ) (
2 1
x g x g s (3-6)
y
(iii) ), ( ) ( x g x g =
+
para todo x.

Tenemos que demostrar que ) ( x F
X
que se define en (3-4) satisface todas las
propiedades en (3-6). De hecho, para cualquier v.a X,

Funcin de distribucin: Tenga en cuenta que una funcin de distribucin g(x) es no
decreciente, ahora continua y satisface,
, 0 ) ( , 1 ) ( = = + g g (3-5)
es decir, si g (x) es una funcin de distribucin, a continuacin,
(i) , 0 ) ( , 1 ) ( = = + g g
(ii) si ,
2 1
x x < entonces ), ( ) (
2 1
x g x g s (3-6)
y
(iii) ), ( ) ( x g x g =
+
para todo x.
Tenemos que demostrar que ) ( x F
X
se define en (3-4) satisface todas las propiedades en
(3-6). De hecho, para cualquier r.v X,

(i) { } 1 ) ( ) ( | ) ( = O = + s = + P X P F
X
(3-7)
y { } . 0 ) ( ) ( | ) ( = = s = | P X P F
X
(3-8)

(ii) Si ,
2 1
x x < pues, el subconjunto ). , ( ) , (
2 1
x x c En consecuencia, el evento
{ } { }, ) ( | ) ( |
2 1
x X x X s c s ya que
1
) ( x X s implica . ) (
2
x X s Como resultado de
la
( ) ( ) ), ( ) ( ) ( ) (
2 2 1 1
x F x X P x X P x F
X X
= s s s = (3-9)

lo que implica que la funcin de distribucin de probabilidad es no negativo y
montono no decreciente.
(iii) Sea ,
1 2 1
x x x x x
n n
< < < < <

y considerar el evento
{ }. ) ( |
k k
x X x A s < = (3-10)

desde
{ } { } { }, ) ( ) ( ) (
k k
x X x X x X x s = s s < (3-11)

usando la propiedad mutuamente excluyentes de los acontecimientos nos da
( ) ). ( ) ( ) ( ) ( x F x F x X x P A P
X k X k k
= s < = (3-12)

Sin embargo ,
1 1

+
c c
k k k
A A A y por lo tanto.
. 0 ) ( lim hence and lim
1
= = =

=

k
k
k
k k
k
A P A A |

(3-13)
Por lo tanto
. 0 ) ( ) ( lim ) ( lim = =

x F x F A P
X k X
k
k
k

Sin embargo , lim
+

= x x
k
k
el limite derecho de x, y, por tanto.
), ( ) ( x F x F
X X
=
+
(3-14)

es decir, ) ( x F
X
est bien-continua, lo que justifica todas las propiedades.


Propiedades adicionales de un PDF
(iv) Si 0 ) (
0
= x F
X
por alguna ,
0
x despus . , 0 ) (
0
x x x F
X
s = . (3-15)
Esto se deduce, ya que ( ) 0 ) ( ) (
0 0
= s = x X P x F
X
implica { }
0
) ( x X s es el conjunto
vaco, y por alguna { } ) ( ,
0
x X x x s s ser un subconjunto del conjunto vaco.
(v) { } ). ( 1 ) ( x F x X P
X
= > (3-16)
Que tenemos { } { } , ) ( ) ( O = > s x X x X y desde que los dos eventos son mutuamente
excluyentes, (16) a continuacin.

(vi) { } . ), ( ) ( ) (
1 2 1 2 2 1
x x x F x F x X x P
X X
> = s < (3-17)

Los eventos { } ) (
1
x X s y } ) ( {
2 1
x X x s < , son mutuamente excluyentes y su
unin representa el evento { }. ) (
2
x X s

(vii) ( ) ). ( ) ( ) (

= = x F x F x X P
X X
(3-18)

Vamos , 0 ,
1
> = c c x x y .
2
x x = De (3-17)
{ } ), ( lim ) ( ) ( lim
0 0
c c
c c
= s <

x F x F x X x P
X X
(3-19)
o
{ } ). ( ) ( ) (

= = x F x F x X P
X X
(3-20)

De acuerdo con (3-14), ), (
0
+
x F
X
el lmite de ) ( x F
X
a partir
0
x x de la
derecha siempre existe y es igual ). (
0
x F
X
. Sin embargo, el valor lmite de la izquierda
) (
0

x F
X
necesariamente no es igual a ). (
0
x F
X
Por lo tanto ) ( x F
X
no necesita
ser continua desde la izquierda. En un punto de discontinuidad de la distribucin,
los lmites izquierdo y derecho son diferentes, y de (3-20)
{ } . 0 ) ( ) ( ) (
0 0 0
> = =

x F x F x X P
X X
(3-21)

As, las discontinuidades slo de una funcin de distribucin ) ( x F
X
son del tipo de
salto, y se producen en los puntos
0
x en (3.21) se cumple. Estos puntos siempre se
pueden enumerar como una secuencia, y por otra parte son en la mayora de contable en
nmero. Ejemplo 3.1: X es una va tal que encontrar una solucin: Por lo que y para que
(Fig.3.2)


Ejemplo 3.2: Lanza una moneda al aire. Supongamos que la RV es tal que X Buscar

Solucin: Para { } { }, ) ( , 0 | = s < x X x , para que . 0 ) ( = x F
X

{ } { } { }
{ } { } 3.3) (Fig. . 1 ) ( that so , , ) ( , 1
, 1 ) ( that so , ) ( , 1 0
= O = = s >
= = = s < s
x F T H x X x
p T P x F T x X x
X
X




- X se dice que es una variable aleatoria continua de tipo si su funcin de
distribucin ) ( x F
X
es continua. En este caso, ) ( ) ( x F x F
X X
=

para todo x, y de
(3-21) obtenemos { } . 0 = = x X P

- Si ) ( x F
X
es constante, a excepcin de un nmero finito de discontinuidades de
salto (por trozos constante paso de tipo), entonces X se dice que es una variable
aleatoria discreta de tipo Si es un punto de discontinuidad, entonces de (3-21).
{ } ). ( ) (

= = =
i X i X i i
x F x F x X P p (3-22)
Desde Fig.3.2, en un punto de discontinuidad que tenemos.
{ } . 1 0 1 ) ( ) ( = = = =

c F c F c X P
X X


y de la Fig.3.3,
{ } . 0 ) 0 ( ) 0 ( 0 q q F F X P
X X
= = = =



Ejemplo: 3.3 una moneda se lanza dos veces, y dejar que la RV X representa el nmero de
cabezas. Buscar ). ( x F
X
Solucin: En este caso { }, , , , TT TH HT HH = O y

. 0 ) ( , 1 ) ( , 1 ) ( , 2 ) ( = = = = TT X TH X HT X HH X
{ }
{ } { } { }
{ } { } { }
{ } 3.4) (Fig. . 1 ) ( ) ( , 2
,
4
3
, , ) ( , , ) ( , 2 1
,
4
1
) ( ) ( ) ( ) ( , 1 0
, 0 ) ( ) ( , 0
= O = s >
= = = s < s
= = = = s < s
= = s <
x F x X x
TH HT TT P x F TH HT TT x X x
T P T P TT P x F TT x X x
x F x X x
X
X
X
X

|


Desde Fig.3.4, { } . 2 / 1 4 / 1 4 / 3 ) 1 ( ) 1 ( 1 = = = =

X X
F F X P



Funcin de densidad de probabilidad (p.d.f)
La derivada de la funcin de distribucin ) ( x F
X
se llama la funcin de densidad de
probabilidad ) ( x f
X
de la rv X. As:
.

) (
) (
dx
x dF
x f
X
X
= (3-23)
Desde
, 0
) ( ) (
lim

) (
0
>
A
A +
=
A
x
x F x x F
dx
x dF
X X
x
X
(3-24)
de la naturaleza montona, no decreciente de ), ( x F
X
se sigue que 0 ) ( > x f
X
para todo
x. ) ( x f
X
ser una funcin continua, si X es una va de tipo continuo Sin embargo, si X
es una va de tipo discreto como en (3.22), entonces su pdf tiene la forma general (Fig.
3.5)
, ) ( ) (

=
i
i i X
x x p x f o (3-25)
Donde
i
x que representan los puntos de discontinuidad en ). ( x F
X
Como la figura. 3.5
muestra ) ( x f
X
representa una coleccin de positivos masas discretas, y es conocida como
la funcin de masa de probabilidad (PMF) en el caso discreto. A partir de (3-23), que
tambin obtienen por la integracin
. ) ( ) ( du u f x F
x
x X
}

= (3-26)
Puesto que , 1 ) ( = +
X
F (3.26) se obtiene
, 1 ) ( =
}
+

dx x f
x
(3-27)
lo que justifica su nombre como la funcin de densidad. Adems, a partir de (3-26),
tambin obtenemos (Fig. 3.6b)
{ } . ) ( ) ( ) ( ) (
2
1
1 2 2 1
dx x f x F x F x X x P
x
x
X X X
}
= = s < (3-28)
As, el rea bajo ) ( x f
X
en el intervalo ) , (
2 1
x x representa la probabilidad de (3-28).


A menudo, r.vs son referidos por sus funciones de densidad especfica - tanto en los
casos continuos y discretos - y en lo que sigue se enumeran una serie de ellos en cada
categora.

Variables aleatorias de tipo continuo
1. Normal (gaussiana): X se dice que es rv normal o de Gauss, si,
.
2
1
) (
2 2
2 / ) (
2
o
to

=
x
X
e x f (3-29)

Esta es una curva en forma de campana, simtrica alrededor del parmetro , y su
funcin de distribucin viene dada por,
,
2
1
) (
2 2
2 / ) (
2
}


|
.
|

\
|
= =
x
y
X
x
G dy e x F
o

to
o
(3-30)

donde dy e x G
y
x
2 /
2
2
1
) (


}
=
t
a menudo se tabulan. Dado que ) ( x f
X
depende de dos
parmetros y ,
2
o el ) , (
2
o N X notacin se utiliza para representar (3-29).


2. Uniforme: , ), , ( b a b a U X < si (Fig. 3.8)

s s

=
otherwise. 0,
, ,
1
) (
b x a
a b
x f
X
(3-31)

3. Exponencial: ) ( c X si (Fig. 3.9)

>
=

otherwise. 0,
, 0 ,
1
) (
/
x e
x f
x
X

(3-32)




4. Gamma: ) , ( | o G X si ) 0 , 0 ( > > | o (Fig. 3.10)

>
I
=

otherwise. 0,
, 0 ,
) (
) (
/
1
x e
x
x f
x
X
|
o
o
| o
(3-33)
Si n = o es un numero entero )!. 1 ( ) ( = I n n






5. Beta: ) , ( b a X | si ) 0 , 0 ( > > b a (Fig. 3.11)

< <
=

otherwise. 0,
, 1 0 , ) 1 (
) , (
1
) (
1 1
x x x
b a
x f
b a
X
|
(3-34)
Donde la funcin Beta ) , ( b a | est definida como
}

=
1
0
1 1
. ) 1 ( ) , ( du u u b a
b a
| (3-35)






6. Chi-Cuadrada: ), (
2
n X _ si (Fig.3.12)

>
I
=

otherwise. 0,
, 0 ,
) 2 / ( 2
1
) (
2 / 1 2 /
2 /
x e x
n
x f
x n
n
X
(3-36)
Note que si ) (
2
n _ es igual que Gamma ). 2 , 2 / (n

7. Rayleigh: , ) (
2
o R X si (Fig.3.13)
(3-37)

>
=

otherwise. 0,
, 0 ,
) (
2 2
2 /
2
x e
x
x f
x
X
o
o


8. Nakagami distribucin m
(3-38)


9. Cauchy: si (Fig. 3.14)
(3-39)
10. Laplace: (Fig.3.15)
(3-40)

11. de distribucin T de Estudiante con n grados de libertad (Fig. 3.16)

( )
. , 1
) 2 / (
2 / ) 1 (
) (
2 / ) 1 (
2
+ < <
|
|
.
|

\
|
+
I
+ I
=
+
t
n
t
n n
n
t f
n
T
t
(3-41)



12. Distribucin F de Fisher

(3-42)

Variables aleatorias discretas de tipo

1. Bernoulli: X toma los valores (0,1), y
. ) 1 ( , ) 0 ( p X P q X P = = = = (3-43)
2
2 1 /
2
, 0
( )
( )
0 otherwise
X
m
m mx
m
x e x
f x
m
O

| |
>

|
=
I O
\ .

, ) , ( o C X
. ,
) (
/
) (
2 2
+ < <
+
= x
x
x f
X
o
t o
. ,
2
1
) (
/ | |
+ < < =

x e x f
x
X

/ 2 / 2 / 2 1
( ) / 2

{( ) / 2}
, 0
( ) ( / 2) ( / 2) ( )
0 otherwise
m n m
m n
z
m n m n z
z
f z m n n mz

+
I +
>

= I I +


2. Binomial: ), , ( p n B X si (Fig. 3.17)
. , , 2 , 1 , 0 , ) ( n k q p
k
n
k X P
k n k
=
|
|
.
|

\
|
= =

(3-44)

3. Poisson: , ) ( P X si (Fig. 3.18)
. , , 2 , 1 , 0 ,
!
) ( = = =

k
k
e k X P
k

(3-45)


4. Hiper-geomtrica:
(3-46)

5. Geomtrica: si
(3-47)

6. Binomial Negativa: si
(3-48)

7. Uniforme-Discreta:
(3-49)

Concluimos esta conferencia con una distribucin general, debido a Polya, que
incluye tanto binomial y hiper-geomtrica como casos especiales.

Distribucin de Polya: Una caja contiene a bolas blancas y b bolas negras.
Una bola se extraer al azar, y se sustituye con c bolas del mismo color.
Si X representa el nmero de blancos bolas extradas n de tales dibujos, encontrar la
probabilidad de funcin de masa de X.

Solucin: Considere la secuencia especfica de sorteos donde k bolas blancas se dibuja
primero, seguido de n - k bolas de color negro. La probabilidad de
sacar k bolas blancas sucesivas est dada por,

, max( 0, ) min( , ) ( )
m N m
k n k
N
n
m n N k m n P X k
| | | |
| |
| |
\ . \ .
| |
|
|
\ .

+ s s = =
) ( p g X
. 1 , , , 2 , 1 , 0 , ) ( p q k pq k X P
k
= = = =
), , ( p r NB X
1
( ) , , 1, .
1
r k r
k
P X k p q k r r
r

| |
= = = +
|

\ .
. , , 2 , 1 ,
1
) ( N k
N
k X P = = =
(3-50)

Del mismo modo la probabilidad de sacar las bolas k blanco seguido de n-k bolas
negro viene dada por
(3-51)

Curiosamente, en el pk (3-51) tambin representa la probabilidad de las
bolas blancas y k (n-k) las bolas de negro en cualquier otro orden especfico (es
decir, el mismo conjunto de numerador y trminos denominador en (3-51)
contribuir a todas las secuencias de otros tambin.) Pero no son
tales, distintos mutuamente excluyentes secuencias y sumando todos ellos, se
obtiene la Polya de distribucin (probabilidad de obtener k bolas blancas en n empates),
que se
(3-52)

Tanto la distribucin binomial, as como la hipergeomtrica distribucin son casos
especiales de (3-52).

Por ejemplo, si dibuja se hace con reemplazo, entonces c = 0 y (3-52) se simplifica a la
distribucin binomial,
(3-53)
donde,
(3-54)

Del mismo modo, si los sorteos se llevan a cabo sin reemplazo. Entonces c = -1 en (3-
52), y se lo da,


que representa la distribucin hipergeomtrica. Por ltimo c = 1 da (reemplazos se
duplican),

2 ( 1)

2 ( 1)
W
a a c a c a k c
p
a b a b c a b c a b k c
+ + +
=
+ + + + + + +

1 1
0 0
( )
( 1)

( 1) ( 1)
.
k w
k n k
i j
b jc
a ic
a b ic a b j k c
b b c b n k c
p p
a b kc a b k c a b n c

= =
+
+
+ + + + +
+ +
=
+ + + + + + +
=
[ [
1 1
0 0
( )
( ) , 0,1, 2, , .
k n k
k
i j
n n
k k
b jc
a ic
a b ic a b j k c
P X k p k n

| | | |
| |
| |
\ . \ .
= =
+
+
+ + + + +
= = = =
[ [
( ) , 0,1, 2, ,
k n k
n
k
P X k p q k n
| |

|
|
\ .
= = =
, 1 .
a b
p q p
a b a b
= = =
+ +





! !( ) ! !( ) !
( )
!( ) ! ( ) !( ) ! ( ) !( ) !
a b
k n k
a b
n
n a a b k b a b n
P X k
k n k a k a b b n k a b k
| | | |
| |
| |
\ . \ .
| |
|
|
\ .

+
+ +
= = =
+ + +

( 1)( 2) ( 1) ( 1) ( 1)
( )
( )( 1) ( 1) ( ) ( 1)
n
k
a a a a k b b b n k
P X k
a b a b a b k a b k a b n
| |
|
|
\ .
+ + +
= =
+ + + + + + +

(3-55)
nos referiremos a (3-55) como una de Polya distribucin. el general Distribucin
de Polya en (3-52) se ha utilizado para estudiar la propagacin de enfermedades
contagiosas (modelado de epidemia).











































1 1

1

( 1) ! ( 1) ! ( 1) ! ( 1) !
( )
( 1) ! ( 1) ! ( 1) ! ( 1) !
= .
n
k
a k b n k
k n k
a b n
n
a k a b b n k a b k
P X k
a a b k b a b n
| |
|
|
\ .
| | | |
| |
| |
\ . \ .
| |
|
|
\ .
+ +

+ +
+ + + + + +
= =
+ + + +
LECT 4A
4. APROXIMACIONES VARIABLE ALEATORIA BINOMIAL,
FUNCIONES DE DENSIDAD DE PROBABILIDAD CONDICIONAL
Y DE STIRLING FRMULA

Sea X representan una r.v Binomial como en (3-42). Luego, a partir de (2-30),
( )

=

=
|
|
.
|

\
|
= = s s
2
1
2
1
. ) (
2 1
k
k k
k n k
k
k k
n
q p
k
n
k P k X k P (4-1)

Dado que el coeficiente binomial
! )! (
!
k k n
n
k
n

=
|
|
.
|

\
|
crece muy rpidamente con n,
es difcil de calcular (4-1) para los grandes n. En este contexto, dos aproximaciones
son de gran utilidad
.
4.1 La aproximacin normal (demoivre-Laplace Teorema)
Supongamos que n con p mantenindose fijo. Entonces, para k npq en el
barrio de NP, podemos aproximar
.
2
1
2 / ) (
2
npq np k k n k
e
npq
q p
k
n

~
|
|
.
|

\
|
t
(4-2)

As, si
1
k y
2
k en (4-1) se encuentran dentro o alrededor de la vecindad del intervalo
( ), , npq np npq np + podemos aproximar la suma de (4-1) por una
integracin. En ese caso (4-1) se reduce a
( ) ,
2
1
2
1
2 /

2 / ) (

2 1
2
2
1
2
2
1
dy e dx e
npq
k X k P
y
x
x
npq np x
k
k

} }
= = s s
t t
(4-3)
Dnde
. ,
2
2
1
1
npq
np k
x
npq
np k
x

=

=
Podemos expresar (4-3) en trminos de la normalizacin integral
) (
2
1
) (

0
2 /
2
x erf dy e x erf
x
y
= =
}

t
(4-4)
que ha sido ampliamente tabulados (Vase el cuadro 4.1).

Por ejemplo, si
1
x y
2
x son positivas, se obtiene,
( ) ). ( ) (
1 2 2 1
x erf x erf k X k P = s s (4-5)

Ejemplo 4.1: Una moneda al aire se lanza 5.000 veces. Encuentre la probabilidad deque
el nmero de cabezas se sita entre 2475 a 2525.
Solucin: Necesitamos ). 525 , 2 475 , 2 ( s s X P Aqu n es grande, de modo que
podemos utilizar la aproximacin normal. En este caso ,
2
1
= p para que 500 , 2 = np y
. 35 ~ npq Desde entonces , 465 , 2 = npq np y , 535 , 2 = + npq np
la aproximacin es vlida para 475 , 2
1
= k y . 525 , 2
2
= k . Por lo tanto
( )
}

= s s
2
1
2
.
2
1
2 /
2 1
x
x
y
dy e k X k P
t

Aqu
.
7
5
,
7
5
2
2
1
1
=

= =

=
npq
np k
x
npq
np k
x

2
1
) (
2
1
) ( erf

0
2 /
2
= =
}

x G dy e x
x
y
t


























Desde , 0
1
< x de la figura. 4.1 (b), la probabilidad de arriba est dada por
( )
, 516 . 0
7
5
erf 2
|) (| erf ) ( erf ) ( erf ) ( erf 525 , 2 475 , 2
1 2 1 2
= |
.
|

\
|
=
+ = = s s x x x x X P

donde hemos utilizado la tabla 4.1 ( ) . 258 . 0 ) 7 . 0 ( erf =






x erf(x) x erf(x) x erf(x) x erf(x)

0.05
0.10
0.15
0.20
0.25

0.30
0.35
0.40
0.45
0.50

0.55
0.60
0.65
0.70
0.75

0.01994
0.03983
0.05962
0.07926
0.09871

0.11791
0.13683
0.15542
0.17364
0.19146

0.20884
0.22575
0.24215
0.25804
0.27337

0.80
0.85
0.90
0.95
1.00

1.05
1.10
1.15
1.20
1.25

1.30
1.35
1.40
1.45
1.50

0.28814
0.30234
0.31594
0.32894
0.34134

0.35314
0.36433
0.37493
0.38493
0.39435

0.40320
0.41149
0.41924
0.42647
0.43319

1.55
1.60
1.65
1.70
1.75

1.80
1.85
1.90
1.95
2.00

2.05
2.10
2.15
2.20
2.25


0.43943
0.44520
0.45053
0.45543
0.45994

0.46407
0.46784
0.47128
0.47441
0.47726

0.47982
0.48214
0.48422
0.48610
0.48778

2.30
2.35
2.40
2.45
2.50

2.55
2.60
2.65
2.70
2.75

2.80
2.85
2.90
2.95
3.00

0.48928
0.49061
0.49180
0.49286
0.49379

0.49461
0.49534
0.49597
0.49653
0.49702

0.49744
0.49781
0.49813
0.49841
0.49865


4.2. La aproximacin de Poisson.
Como hemos mencionado anteriormente, para n grande, la aproximacin de Gauss de una
variable aleatoria binomial es vlida slo si p es fijo, es decir, slo si 1 >> np y
. 1 >> npq Que si np es pequeo, o si no aumenta con el n?

Obviamente ese es el caso si, por ejemplo 0 p , como tal , n que = np
es un nmero fijo.

Muchos fenmenos aleatorios en la naturaleza, de hecho, siguen este patrn. Nmero total
de llamadas en una lnea telefnica, las reclamaciones en una compaa de seguros,
etc. tienden a seguir este tipo de comportamiento. Considere la posibilidad
de llegadas aleatorias, como las llamadas telefnicas a travs de una lnea. Sea n el
nmero total de llamadas en el intervalo (0,T). Por experiencia, como T tenemos
n que podemos suponer . T n = . Considere la posibilidad de un pequeo
intervalo de tiempo Acomo en la figura. 4.2. Si slo hay una sola
llamada entra, la probabilidad p de que la nica llamada que ocurre en
ese intervalo debe depender de su tamao relativo con respecto a T.



Por lo tanto podemos suponer .
T
p
A
= Tenga en cuenta que 0 p como . T Sin
embargo, en este caso = A =
A
=
T
T np es una constante, y la aproximacin
normal no es vlido aqu.

Supongamos que el intervalo A en la figura. 4.2 es de inters para nosotros. Una
llamada dentro de ese intervalo es un "xito" (H), mientras que un exterior es un
"fracaso " (T). Esto es equivalente a la situacin de lanzamiento de una moneda, y por
lo tanto la probabilidad ) (k P
n
de obtener las llamadas k (en cualquier orden) en
un intervalo de A duracin propuesta por el p.m.f. binomial. Por lo tanto
, ) 1 (
! )! (
!
) (
k n k
n
p p
k k n
n
k P

=
(4-6)

y aqu, como 0 , p n , de tal manera que . = np Es fcil obtener una excelente
aproximacin a (4-6) en esa situacin. Para ver esto, vuelva a escribir (4-6) como

.
) / 1 (
) / 1 (
!
1
1
2
1
1
1
) / 1 (
!
) ( ) 1 ( ) 1 (
) (
k
n k
k n
k
k
n
n
n
k n
k
n n
n np
k
np
n
k n n n
k P

|
.
|

\
|

|
.
|

\
|

|
.
|

\
|
=

+
=

(4-7)
Por la tanto
,
!
) ( lim
, 0 ,


=
= e
k
k P
k
n
np p n
(4-8)


ya que los productos finitos
|
.
|

\
|
|
.
|

\
|
|
.
|

\
|

n
k
n n
1
1
2
1
1
1 y tienden a
k
n
|
.
|

\
|


1 la
unidad como , n y
. 1 lim



=
|
.
|

\
|
e
n
n
n


El lado derecho de (4.8) representa la p.m.f. de Poisson y la aproximacin de Poisson
a la binomial r v es vlido en situaciones en las que la rv binomial de parmetros n y
p divergen a dos extremos ) 0 , ( p n tales que su producto np es una constante.

Ejemplo 4.2: ganar la lotera: Supongamos que dos millones de boletos de lotera se
emiten con 100 boletos ganadores entre ellos. (a) Si una persona
compra 100boletos, cul es la probabilidad de ganar? (b) Cuntos boletos deben comprar
uno de un 95% seguro de tener un boleto ganador?

Solucin: La probabilidad de comprar un billete ganador
. 10 5
10 2
100
tickets of no. Total
tickets winning of No.
5
6

=

= = p
En este caso , 100 = n y el nmero de boletos ganadores en el X n comprar boletos tiene
un aproximado de distribucin de Poisson con parmetro . 005 . 0 10 5 100
5
= = =

np Por
lo tanto
,
!
) (
k
e k X P
k


= =
y (a) Probabilidad de ganar . 005 . 0 1 ) 0 ( 1 ) 1 ( ~ = = = > =

e X P X P

(b) En este caso tenemos que . 95 . 0 ) 1 ( > > X P
. 3 20 ln implies 95 . 0 1 ) 1 ( = > > = >

e X P

Pero 3 10 5
5
> = =

n np o . 000 , 60 > n Por lo tanto se necesita para comprar
alrededor de 60.000 entradas para el 95% de confianza de tener un boleto ganador!


Ejemplo 4.3: Una nave espacial tiene 100.000 componentes ( ) n . La probabilidad de
cualquier componente sea defectuoso es ). 0 ( 10 2
5


p La misin estar
en peligro si cinco o ms componentes es defectuoso. Encuentre la probabilidad de
tal evento.
Solucin: Aqu n es grande y p es pequeo, y por lo tanto la aproximacin de Poisson es
vlida. Por lo tanto , 2 10 2 000 , 100
5
= = =

np y la probabilidad deseada est dada
por

. 052 . 0
3
2
3
4
2 2 1 1
!
1
!
1 ) 4 ( 1 ) 5 (
2
4
0
2
4
0
=
|
.
|

\
|
+ + + + =
= = s = >


e
k
e
k
e X P X P
k
k k
k



Funcin de densidad de probabilidad condicional

Para cualquiera de los dos eventos A y B, hemos definido la probabilidad condicional
de A dado B
. 0 ) ( ,
) (
) (
) | ( =

= B P
B P
B A P
B A P (4-9)

Tomando nota de que la probabilidad de distribucin de la funcin ) ( x F
X
est dada por
{ }, ) ( ) ( x X P x F
X
s = (4-10)
podemos definir la distribucin condicional de la v.a. X dado el evento B como
{ }
( ) { }
.
) (
) (
| ) ( ) | (
B P
B x X P
B x X P B x F
X
s
= s =

(4-11)

As, la definicin de la distribucin condicional depende de la probabilidad
condicional, y puesto que obedece a todos los axiomas de probabilidad, se deduce que la
distribucin condicional tiene las mismas propiedades que cualquier funcin de
distribucin. En particular.

( ) { }
( ) { }
. 0
) (
) (
) (
) (
) | (
, 1
) (
) (
) (
) (
) | (
= =
s
=
= =
+ s
= +
B P
P
B P
B X P
B F
B P
B P
B P
B X P
B F
X
X
|

(4-12)

Ms
( ) { }
), | ( ) | (
) (
) (
) | ) ( (
1 2
2 1
2 1
B x F B x F
B P
B x X x P
B x X x P
X X
=
s <
= s <

(4-13)

Dado que para, ,
1 2
x x >
( ) ( ) ( ) . ) ( ) ( ) (
2 1 1 2
x X x x X x X s < s = s (4-14)

La funcin de densidad condicional es la derivada de la funcin de distribucin
condicional. Por lo tanto,
,

) | (
) | (
dx
B x dF
B x f
X
X
= (4-15)
y procediendo como en (3.26) obtenemos,
}

=
x
X X
du B u f B x F


. ) | ( ) | ( (4-16)

Utilizando (4.16), tambin puede volver a escribir (4.13) como
( )
}
= s <
2
1


2 1
. ) | ( | ) (
x
x
X
dx B x f B x X x P (4-17)

Ejemplo 4.4: Vase el ejemplo 3.2. Lanzar una moneda y X(T)=0, X(H)=1.
Supongamos }. {H B = Determinar ). | ( B x F
X


Solucin: Del ejemplo 3.2 ) ( x F
X
tiene la siguiente forma. Necesitamos ) | ( B x F
X
para todo x.

Para { } , ) ( , 0 | = s < x X x por lo que ( ) { } , ) ( | = s B x X y . 0 ) | ( = B x F
X



Porque { } { }, ) ( , 1 0 T x X x = s < s a fin de que
( ) { } { } { } | = = s H T B x X ) ( y . 0 ) | ( = B x F
X


Porque { } , ) ( , 1 O = s > x X x y
( ) { } { } } { ) ( B B B x X = O = s y 1
) (
) (
) | ( = =
B P
B P
B x F
X

(ver fig. 4.3 (b)).

Ejemplo 4.5: Dado ), ( x F
X
supongo { }. ) ( a X B s = Buscar ). | ( B x f
X


Solucin: En primer lugar, se determine ). | ( B x F
X
A partir de (4-11) y B como se
indica ms arriba, tenemos
( ) ( ) { }
( )
. ) | (
a X P
a X x X P
B x F
X
s
s s
= (4-18)

Para ( ) ( ) ( ) x X a X x X a x s = s s < , , para que

( )
( )
.
) (
) (
) | (
a F
x F
a X P
x X P
B x F
X
X
X
=
s
s
= (4-19)
), (x F
X
Para ( ) ( ) ) ( , a X a X x X a x s = s s > , para que . 1 ) | ( = B x F
X

Por lo tanto,

>
<
=
, , 1
, ,
) (
) (
) | (
a x
a x
a F
x F
B x F
X
X
X
(4-20)
y por lo tanto

<
= =
otherwise. , 0
, ,
) (
) (
) | ( ) | (
a x
a F
x f
B x F
dx
d
B x f
X
X
X X
(4-21)


Ejemplo 4.6: Sea B el evento de { } b X a s < ) ( con . a b > Dado ), ( x F
X
determinar ) | ( B x F
X
y ). | ( B x f
X

Solucin:
{ }
( ) ( ) { }
( )
( ) ( ) { }
.
) ( ) (
) ( ) (

) (
) ( ) (
| ) ( ) | (
a F b F
b X a x X P
b X a P
b X a x X P
B x X P B x F
X X
X

s < s
=
s <
s < s
= s =


(4-22)

Para , a x < tenemos { } { } , ) ( ) ( | = s < s b X a x X y por lo tanto . 0 ) | ( = B x F
X
(4-23)

Para , b x a < s tenemos { } { } } ) ( { ) ( ) ( x X a b X a x X s < = s < s y por lo tanto

( )
.
) ( ) (
) ( ) (
) ( ) (
) (
) | (
a F b F
a F x F
a F b F
x X a P
B x F
X X
X X
X X
X

s <
=

(4-24)

Para , b x > tenemos { } { } { } b X a b X a x X s < = s < s ) ( ) ( ) ( por lo que
. 1 ) | ( = B x F
X
(4-25)

Usando (4-23)-(4-25), obtenemos (ver Fig. 4.5.)

s <

=
otherwise. , 0
, ,
) ( ) (
) (
) | (
b x a
a F b F
x f
B x f
X X
X
X
(4-26)




Podemos usar el pdf condicional, junto con el teorema de Bayes para actualizar
nuestro conocimiento a priori sobre la probabilidad de eventos en presencia de nuevas
observaciones. Lo ideal sera que toda la informacin nueva debe ser utilizada
para actualizar nuestros conocimientos. Como vemos en el ejemplo siguiente, pdf
condicional, junto con el teorema de Bayes permite la actualizacin sistemtica. Para
cualquiera de los dos eventos A y B, el teorema de Bayes da.

.
) (
) ( ) | (
) | (
B P
A P A B P
B A P = (4-27)

Que { }
2 1
) ( x X x B s < = por lo que (4.27) se convierte (vase (13.4) y (4-17))
{ }
( )
( )
). (
) (
) | (
) (
) ( ) (
) | ( ) | (

) (
) ( | ) ) ( (
) ) ( ( |
2
1
2
1
1 2
1 2
2 1
2 1
2 1
A P
dx x f
dx A x f
A P
x F x F
A x F A x F
x X x P
A P A x X x P
x X x A P
x
x
X
x
x
X
X X
X X
}
}
=

=
s <
s <
= s <

(4-28)

Por otra parte, en , 0 , ,
2 1
> + = = c c x x x x con el lmite , 0 c

{ } ( ) ). (
) (
) | (
) ( | ) ) ( ( | lim
0
A P
x f
A x f
x X A P x X x A P
X
X
= = = + s <

c
c
(4-29)
O
.
) (
) ( ) | (
) | (
|
A P
x f x X A P
A x f
X
A X
=
= (4-30)
A partir de (4-30), tambin obtenemos

, ) ( ) | ( ) | ( ) (
1
dx x f x X A P dx A x f A P
X X
} }
+

+

= =

(4-31)
O
dx x f x X A P A P
X
) ( ) | ( ) (
}
+

= = (4-32)
y el uso de esta expresin en (4-30), obtenemos el resultado deseado
.
) ( ) | (
) ( ) | (
) | (
|
}
+

=
=
=
dx x f x X A P
x f x X A P
A x f
X
X
A X
(4-33)

Para ilustrar la utilidad de esta frmula, vamos a examinar de nuevo el problema de
lanzamiento de una moneda.

Ejemplo 4.7: Sea ) ( H P p = representa la probabilidad de obtener una cabeza en un
lanzamiento. Por una moneda determinada, a-priori p puede poseer cualquier valor en
el intervalo (0,1). En ausencia de cualquier informacin adicional, podemos suponer que
la a-priori pdf ) ( p f
P
para una distribucin uniforme en ese intervalo. Ahora
supongamos que realmente llevan a cabo un experimento de lanzar la n veces la
moneda, y los jefes k se observan. Esta es una informacin nueva. Cmo podemos
actualizar ) ( p f
P
?

Solucin: Sea A = "k caras en n lanzamientos especficos". Dado que el resultado de
la tira en una secuencia especfica,

, ) | (
k n k
q p p P A P

= = (4-34)

y el uso de (4-32) obtenemos
.
)! 1 (
! )! (
) 1 ( ) ( ) | (
1
0
1
0
+

= = =
} }

n
k k n
dp p p dp p f p P A P
k n k
P
(4-35)

El a-posteriori pdf representa la actualizacin de la informacin dado el
suceso A, y de (4-30)



(4-36)


Tenga en cuenta que el a-pdf a posteriori de p en (4-36) no es
una distribucinuniforme, sino una distribucin beta. Podemos utilizar este a-
posteriori pdf para hacer predicciones ms all, por ejemplo, a la luz de la
experiencia anterior, qu podemos decir acerca de la probabilidad de una cabeza que
ocurren en el siguiente (n +1) sorteo?

Sea B = "la cara ocurren en el da (n +1) lanzamientos, dado que las k caras se han
producido en n lanzamientos anteriores". Con claridad , ) | ( p p P B P = = y de (4-32)
}
= =
1
0
. ) | ( ) | ( ) ( dp A p f p P B P B P
P
(4-37)

Tenga en cuenta que a diferencia de (4-32), se ha utilizado el a-posteriori pdf en (4-
37) para reflejar nuestro conocimiento sobre el experimento ya realizado. Usando (4-
36) en (4-37), obtenemos
}
+
+
=

+
=

1
0
.
2
1
! )! (
)! 1 (
) (
n
k
dp q p
k k n
n
p B P
k n k
(4-38)

Por lo tanto, si n = 10, k = 6, entonces
, 58 . 0
12
7
) ( = = B P
que es ms realista en comparacin con p = 0,5.

En resumen, si la probabilidad de un evento X es desconocido, se debe hacer un
juicio sin compromiso sobre su a-priori funcin de densidad de probabilidad ). ( x f
X
Por
lo general, la distribucin uniforme es una suposicin razonable en ausencia de
). , ( 1 0 ,
! )! (
)! 1 (

) (
) ( ) | (
) | (
|
k n p q p
k k n
n
A P
p f p P A P
A p f
k n k
P
A P
| < <

+
=
=
=

|
( | )
P A
f p A
cualquier otra informacin. A continuacin, los resultados experimentales (A) se
obtienen, y el conocimiento a cabo sobre X debe ser actualizado que refleja esta nueva
informacin. Regla de Bayes ayuda a obtener la A-PDF a posteriori de X dado A. A partir
de ese momento, este a-posteriori pdf ) | (
|
A x f
A X
debe ser utilizado para hacer
predicciones ms all y clculos.
Frmula de Stirling: Qu es?
Frmula de Stirling da una aproximacin precisa para n! de la siguiente manera:

(4-39)

en el sentido de que la relacin entre las dos partes en (4-39) est cerca
a uno, es decir, su error relativo es pequeo, o el porcentaje
error disminuye constantemente a medida que n aumenta. La aproximacin
es muy precisa, incluso para pequeos n. As, 1! = 1 es aproximadamente a
y 3!= 6 , por lo que se aproxima a 5.836.

Antes del trabajo de Stirling, DeMoivre haba establecido la misma frmula en (4-
39) en relacin con el binomio distribuciones en la teora de probabilidades. Sin
embargo DeMoivre no establecer el trmino constante de en (4-
39), que fue realizado por James Stirling(1730).

Cmo probarlo?
Empezamos con una simple observacin: La funcin log(x) es una funcin
montona creciente, y por lo tanto tenemos


Sumando k=1,2,, n; obtenemos


o

(4-40)

La doble desigualdad en (4-40) sugiere claramente que registro n! est cerca de la media
aritmtica de los dos nmeros extremos all. Sin embargo, la
media aritmtica real es complicada y se trata de varios trminos. Puesto
que (n +1/2)*log(n)-n es muy cerca de la media aritmtica anterior, consideramos la
diferencia
1
.
(4-41)

Esto le da






1
2
! ~ 2
n
n
n n e t
+

2 / 0.9221, e t
2t
1
1
log log log .
k k
k k
x dx k x dx
+

< <
} }
1
0 1
log log ! log
n n
x dx n x dx
+
< <
} }
( )
log log xdx x x x =
}
log log ! ( 1) log( 1) . n n n n n n n < < + +
1
2
log ! ( ) log .
n
a n n n n + +
1 1
2 2
1 1
2 2
1
2 1
3
2
3 1
2 2
1 1 1
2 2
log ! ( ) log log( 1) !
( ) log( 1) ( 1)
log( 1) ( ) log ( ) log( 1) 1
( ) log 1 ( ) log 1.
n n
n
n
n
n
a a n n n n n
n n n
n n n n n
n n
+
+ +
+
+
= + + +
+ + + +
= + + + + +
= + = +
1
Segn W. Feller esta brillante idea de utilizar la media aproximada (n+1/2)*
log (n)-n se debe a H.E. Robbins, y conduce a una prueba elemental.

Por lo tanto
1











Por lo tanto {an} es una sucesin montona decreciente y sea c representacin de
su lmite, es decir,
(4-43)
A partir de (4-41), ya que esto es equivalente a

(4-44)

Para encontrar el trmino de la constante c (4-44), podemos hacer uso de
una frmula por Wallis (1655).

1
Por la expresin de las series de Taylor



La funcin conocida tiende a cero en adems, estos son los
nicos ceros de esta funcin. Tambin no tiene polos finitos. (Todos
los postes estn en el infinito). Como resultado podemos escribir



o [para una prueba de esta frmula, vase el captulo 4 de Dienes, La serie de Taylor]

Que con da a la frmula de Wallis




O


( )
1
2 1
1
2 1
1
1
2 1
1
1
2 3 5
2 4 6
1 1 1
2 1
3( 2 1) 5( 2 1)
1 1 1
3( 2 1) 5( 2 1) 7( 2 1)
( ) log( ) 1
2( ) 1
0
n
n
n n
n
n n
n n n
a a n
n
+
+
+
+

+
+ +
+ + +
= +
= + + + +
= + + + >
lim
n
n
a c

=
n
1
2
! ~ .
n
c n
n e n e
+

2 3 4 2 3 4
1
( 1 )
1 1 1 1 1 1
log(1 ) ; log
2 3 4 2 3 4
x
x x x x x x x x x

+ = + + = + + + +
sinc
sin
x
x
x
=
; x nt =
sin x
x
2 2 2
2 2 2 2
4
sin
(1 )(1 ) (1 )
x x x
n
x
x
t t t
=
2 2 2
2 2 2 2
4
sin (1 )(1 ) (1 ) ,
x x x
n
x x
t t t
=
/ 2 x t =
2 2 2 2 2 2 2
( 2 1) ( 2 1)
1 3 3 5 5 7 1 1 1
2 4 ( 2 ) 2 4 6 ( 2 ) 2 2
1 (1 )(1 ) (1 ) ( )( )( ) ( )
n n
n n
t t
+

= =
2
2 2 2 2
( 2 )
4 6 2 4
( 2 1)( 2 1) 1 3 3 5 5 7 ( 2 1) ( 2 1)
1
2 2 4 6 2
1
1 3 5 ( 2 1) 2 1
( )( )( ) ( )
2
( ) .
n
n
n n n n
n
n
n n
t

+ +
=

+
= =
=
[
Por lo tanto, dado que dicha







As como
(4-45)

Pero a partir de (4-41) y (4-43)
(4-46)

y por lo tanto dejamos en (4-45) y haciendo uso de (4-46) obtenemos


lo que da
(4-47)
Con (4-47) en (4-44) obtenemos (4-39), y lo demuestra la frmula de Stirling.


Lmites superior e inferior
Es posible obtener razonablemente buena y superior cotas inferiores para n! por un
razonamiento elemental tambin. Para ver esta nota, que a partir de (4-42) obtenemos







de modo que {an - 1/12n} es una secuencia montona creciente cuyo lmite es c. Por lo
tanto para cualquier n finito.


y junto con (4-41) y (4-47) da a este

(4-48)
Del mismo modo a partir de (4-42) tambin han



de modo que {an-1 /(12n +1)} es una sucesin montona decreciente lmite que tambin es
igual a c. Por lo tanto

o


Junto con (4-48) - (4-49) obtenemos
, n
2 2
2
1
1
2
1 1
.
1 1
2 2
2 4 6 2
1 3 5 ( 2 1)
( 2 4 6 2 ) ( !)
( 2 )! ( 2 )!
2
n
n
n n
n
n
n n
n n
t
+
+ +



=
= =
, n
1
2
1
2
log 2 log 2 2 log ! log(2 )! log( ) n n n n t = + +
1
2
lim log ! lim {( ) log }
n n
n c n n n

= + +
, n
1
2
1 1 1
2 2 2
log log 2 lim log(1 ) log 2
n
n
c c t

= + =
2 .
c
e t =
1
2
1 1
2 4
( 2 1) ( 2 1)
1
3
1 1 1 1
12 12 ( 1) 12( 1)
3[( 2 1) 1]
n n
n n
n n n n
n
a a
+
| |
| +
|
+ +
\ .
+ +
+
<
= = =
1 1
12 12
n n
n n
a c a c < < +
( ) 2
1
1
12 2
1
! 2
n
n
n
n n e t

+
<
2 1
0
1 1 1
12 1 12( 1) 1
3( 2 1)
n n
n n
n
a a
+
>
+ + +
+
> >
1 1
12 1 12 1
n n
n n
a c a c >
+ +
> +
1
1
12 ( 1)
2
(1 )
! 2 .
n n
n
n
n n e t
+

+
>


Frmula de Stirling tambin de la asinttica la expansin de la funcin Gamma propuesta
por:



Junto con la expansin por encima de puede
se utiliza para calcular los valores numricos reales de x. Para una derivacin de (4-
51), se puede ver en el captulo 2
del texto clsico de Whittaker y Watson (Anlisis Moderno).

Podemos utilizar la frmula de Stirling para obtener otra aproximacin a la masa
de probabilidad de la funcin binomial. Desde


(4-52)


con (4-50) en el lado derecho de (4-52) obtenemos




y




donde



y



Tenga en cuenta que las constantes c1 y c2 son bastante estrecha
el uno al otro.











{ }
1
2
2 3 4
139 1 1 1
12
286 51840
( ) 2 1 ( )
x
x
x
x x x
x e x o t

I = + + +
1 1 1 1
12 1 12 2 2
2 ! 2 .
n n
n n
n n
n e e n n e e t t
+
+ +

< <
( 1) ( ), x x x I + = I
!
,
( ) ! !
k n k k n k
n
n
p q p q
n k k k

| |
=
|

\ .
( ) ( )
1 2 ( )
k n k
k n k np nq
n
n k k k n k
n
p q c
k
t


| |
>
|
\ .
( ) ( )
2 2 ( )
k n k
k n k np nq
n
n k k k n k
n
p q c
k
t


| |
<
|
\ .
{ }
1 1 1
12 1 12 ( ) 12
1
n n k k
c e
+

=
{ }
1 1 1
12 12 ( ) 1 12 1
2
.
n n k k
c e
+ +

=
LECT5A
5. FUNCIONES DE VARIABLES ALEATORIAS


Sea X una va definida sobre el modelo ), , , ( P F O y supongo g (x) es una funcin de
la variable x. Definir
). ( X g Y = (5-1)
Y es necesariamente un r.v? Si es as Qu es pdf o PDF?

Es evidente que si Y es una va, entonces para todo conjunto B de Borel, el conjunto de
la B Y e ) ( que deben pertenecer a F. Teniendo en cuenta que X es una
va, esto es seguro si es tambin un conjunto de Borel, es decir, si g (x) es una Funcin
de Borel. En ese caso, si X es una va, por lo que es Y, y por cada conjunto B de Borel.

)). ( ( ) (
1
B g X P B Y P

e = e (5-2)
En particular,
( ) ( ). ] , ( ) ( )) ( ( ) ) ( ( ) (
1
y g X P y X g P y Y P y F
Y
s = s = s =

(5-3)

As, la funcin de distribucin as como de la funcin de densidad de Y se puede
determinar en trminos de la de X. Para obtener la funcin de distribucin de Y, se debe
determinar el conjunto de Borel en el eje x tal que ) ( ) (
1
y g X

s para todo
y dado, y la probabilidad de ese conjunto. En este punto, vamos a considerar algunas
de las siguientes funciones para ilustrar los detalles tcnicos.



Ejemplo 5.1: b aX Y + = (5-4)

Solucin: Supongamos . 0 > a
( ) ( ) . ) ( ) ( ) ( ) ( |
.
|

\
|
= |
.
|

\
|
s = s + = s =
a
b y
F
a
b y
X P y b aX P y Y P y F
X Y
(5-5)
Y
.
1
) ( |
.
|

\
|
=
a
b y
f
a
y f
X Y
(5-6)

Por otro lado, si , 0 < a entonces
( ) ( )
, 1
) ( ) ( ) ( ) (
|
.
|

\
|
=
|
.
|

\
|
> = s + = s =
a
b y
F
a
b y
X P y b aX P y Y P y F
X
Y

(5-7)

y por lo tanto
.
1
) ( |
.
|

\
|
=
a
b y
f
a
y f
X Y
(5-8)

A partir de (5-6) y (5-8), se obtiene (para todos los a)
.
| |
1
) ( |
.
|

\
|
=
a
b y
f
a
y f
X Y
(5-9)

Ejemplo 5.2: .
2
X Y = (5-10)
( ) ( ). ) ( ) ( ) (
2
y X P y Y P y F
Y
s = s = (5-11)

Si , 0 < y entonces el evento { } , ) (
2
| = s y X y por lo tanto,
. 0 , 0 ) ( < = y y F
Y
(5-12)

Para , 0 > y la figura. 5.1, el evento } ) ( { } ) ( {
2
y X y Y s = s es equivalente a
}. ) ( {
2 1
x X x s <

Por lo tanto
( )
. 0 ), ( ) (
) ( ) ( ) ( ) (
1 2 2 1
> =
= s < =
y y F y F
x F x F x X x P y F
X X
X X Y

(5-13)

Por derivacin directa, obtenemos
( )

. otherwise , 0
, 0 , ) ( ) (
2
1
) (

> +
=
y y f y f
y
y f
X X
Y
(5-14)

Si ) ( x f
X
representa a una funcin par, entonces (5.14) se reduce a
( ) ). (
1
) ( y U y f
y
y f
X Y
= (5-15)

En particular, si ), 1 , 0 ( N X para que
,
2
1
) (
2 /
2
x
X
e x f

=
t
(5-16)

y sustituyendo esto en (5-14) o (5-15), obtenemos el pdf
2
X Y = a
). (
2
1
) (
2 /
y U e
y
y f
y
Y

=
t
(5-17)

Al comparar esto con (3-36), nos damos cuenta de que (5-17) representa una variable
aleatoria chi-cuadrado con n = 1, entonces . ) 2 / 1 ( t = I Por lo tanto, si X es una
variable aleatoria gaussiana con , 0 = entonces
2
X Y = representa una variable
aleatoria Chi-cuadrada con un grado de libertad (n = 1).

Ejemplo 5.3: Sea

s +
s <
>
= =
. ,
, , 0
, ,
) (
c X c X
c X c
c X c X
X g Y

En este caso,
). ( ) ( ) ) ( ( ) 0 ( c F c F c X c P Y P
X X
= s < = = (5-18)

Para , 0 > y tenemos , c x > y c X Y = ) ( ) ( por lo que
( )
( ) . 0 ), ( ) (
) ) ( ( ) ( ) (
> + = + s =
s = s =
y c y F c y X P
y c X P y Y P y F
X
Y


(5-19)

Del mismo modo , 0 < y si , c x < y c X Y + = ) ( ) ( por lo que
( )
( ) . 0 ), ( ) (
) ) ( ( ) ( ) (
< = s =
s + = s =
y c y F c y X P
y c X P y Y P y F
X
Y


(5-20)
Por lo tanto


(5-21)




Ejemplo 5.4: Rectificador de media onda

s
>
= =
. 0 , 0
, 0 ,
) ( ); (
x
x x
x g X g Y (5-22)
( ), 0,
( ) [ ( ) ( )] ( ),
( ), 0.
X
Y X X
X
f y c y
f y F c F c y
f y c y
o
+ >

<


En este caso,
). 0 ( ) 0 ) ( ( ) 0 (
X
F X P Y P = s = = (5-23)
y , 0 > y desde , X Y =
( ) ( ) ). ( ) ( ) ( ) ( y F y X P y Y P y F
X Y
= s = s = (5-24)
Por lo tanto

(5-25)



Nota: Como criterio general, dada ), ( X g Y = primer boceto de la grfica ), ( x g y = y
determinado el espacio del rango de y. Supongamos que b y a < < es el espacio gama de
). ( x g y = Entonces claramente para , 0 ) ( , = < y F a y
Y
y para , 1 ) ( , = > y F b y
Y
de manera
que ) ( y F
Y
puede ser distinto de cero slo en . b y a < < A continuacin, determine si
existen discontinuidades en el espacio rango de y. Si es as evaluar en ( )
i
y Y P = ) (
estas discontinuidades. En la regin continua de y, usar el enfoque bsico
( ) y X g P y F
Y
s = )) ( ( ) (

y determinar los eventos adecuados en trminos de la rv X para cada y. Por ltimo, hay
que tener ) ( y F
Y
para, y obtener



Sin embargo, si ) ( X g Y = es una funcin continua, es fcil de establecer
un procedimiento particular de obtener ). ( y f
Y
Una funcin continua g(x) con g`(x)
distinto de cero, sino un nmero finito de puntos, tiene slo un nmero finito
de mximos y mnimos, y con el tiempo se vuelve montona como . | | x Considere
una y especfica sobre el eje, y un incremento positivo, como se muestra en
la figura. 5.4


) ( y f
Y
para ), ( X g Y = donde ) ( g es de tipo continua.

Usando (3-28) podemos escribir
{ } . ) ( ) ( ) ( y y f du u f y y Y y P
y y
y
Y Y
A ~ = A + s <
}
A +
(5-26)

( ), 0,
( ) (0) ( ) 0, ( ) ( ) (0) ( ).
0, 0,
X
Y X X X
f y y
f y F y y f y U y F y
y
o o
>

= = = +

<

( )
( ) in .

Y
Y
dF y
f y a y b
dy
= < <
, y < < +
Pero el evento { } y y Y y A + s < ) ( se puede expresar en trminos de tambin ) ( X . Para
ver esto, refirindose de nuevo a la figura. 5.4, nos damos cuenta de que la ecuacin
) ( x g y = tiene tres soluciones
3 2 1
, , x x x (para l y especfico elegido all). Como
resultado, cuando { }, ) ( y y Y y A + s < el v.a. X podra estar en cualquiera de los tres
intervalos mutuamente excluyentes

. } ) ( { or } ) ( { }, ) ( {
3 3 3 2 2 2 1 1 1
x x X x x X x x x x X x A + s < s < A + A + s <

Por lo tanto la probabilidad del evento en (5-26) es la suma de la probabilidad de que
estos tres eventos, es decir,

{ }
. } ) ( { } ) ( {
} ) ( { ) (
3 3 3 2 2 2
1 1 1
x x X x P x X x x P
x x X x P y y Y y P
A + s < + s < A + +
A + s < = A + s <




Para una pequea , ,
i
x y A A usamos la aproximacin en (5-26), obtenemos
. ) ( ) )( ( ) ( ) (
3 3 2 2 1 1
x x f x x f x x f y y f
X X X Y
A + A + A = A (5-28)

En este caso, 0 , 0
2 1
< A > A x x y , 0
3
> Ax para que (5.28) se puede reescribir como
) (
/
1 | |
) ( ) (
i X
i i i
i
i X Y
x f
x y y
x
x f y f

A A
=
A
A
= (5-29)

y como , 0 Ay (5-29) se puede expresar como

'
= =
i
i X
i
i X
i
x
Y
x f
x g
x f
dx dy
y f
i
). (
) (
1
) (
/
1
) ( (5-30)

El ndice i suma en (5-30) depende de y, y para todos y la ecuacin ) (
i
x g y = debe
resolverse para obtener el nmero total de soluciones en cada y, y las soluciones reales
, ,
2 1
x x todo en trminos de y.

Por ejemplo, si ,
2
X Y = entonces, para todos y x y = >
1
, 0 y y x + =
2
representan
las dos soluciones para cada y. Tenga en cuenta que las soluciones
i
x estn en trminos
de y para que el lado derecho de (5-30) es slo una funcin de y. Volviendo al ejemplo
2
X Y = (Ejemplo 5.2) aqu para cada uno hay dos soluciones dadas por y x =
1
y
.
2
y x + = ( 0 ) ( = y f
Y
para 0 < y ). Por otra parte
y
dx
dy
x
dx
dy
i
x x
2 that so 2 = =
=

y el uso de (5-30) obtenemos



(5-31)
( )

> +
=
, otherwise , 0
, 0 , ) ( ) (
2
1
) (
y y f y f
y
y f
X X
Y

que est de acuerdo con (5-14).

Ejemplo 5.5: .
1
X
Y = Buscar ). ( y f
Y
(5-32)

Solucin: Aqu para todo y, y x / 1
1
= es la nica solucin, y
,
/ 1
1
that so
1
2
2 2
1
y
y dx
dy
x dx
dy
x x
= = =
=


y sustituyendo esto en (5-30), obtenemos
.
1 1
) (
2 |
|
.
|

\
|
=
y
f
y
y f
X Y
(5-33)

En particular, supongamos que X es una variable aleatoria de Cauchy como en (3-39) con
el parmetro o para que
. ,
/
) (
2 2
+ < <
+
= x
x
x f
X
o
t o
(5-34)

En este caso, a partir de (5-33), X Y / 1 = tiene el p.d.f.
. ,
) / 1 (
/ ) / 1 (
) / 1 (
/ 1
) (
2 2 2 2 2
+ < <
+
=
+
= y
y y y
y f
Y
o
t o
o
t o
(5-35)

Pero (5-35) representa el p.d.f. de una variable aleatoria de Cauchy con parmetros
. / 1 o As si ), ( o C X entonces ). / 1 ( / 1 o C X

Ejemplo 5.6: Supongamos , 0 , / 2 ) (
2
t t < < = x x x f
X
y . sin X Y =
Determinar ). ( y f
Y


Solucin: Puesto que X tiene cero probabilidades de caer fuera del intervalo
x y sin ), , 0 ( = t tiene cero probabilidades de caer fuera del intervalo ). 1 , 0 ( Es
evidente que 0 ) ( = y f
Y
est fuera de este intervalo. Para cualquier , 1 0 < < y de
Fig.5.6 (b), la ecuacin x y sin = tiene un nmero infinito de soluciones
, , , , ,
3 2 1
x x x donde y x
1
1
sin

= es la solucin principal. Por otra parte, utilizando
la simetra tambin se da
1 2
x x = t , etc. Adems,
2 2
1 sin 1 cos y x x
dx
dy
= = =
de manera que
. 1
2
y
dx
dy
i
x x
=
=





Usando (5-30), obtenemos para , 1 0 < < y

(5-36)


Pero a partir de la figura. 5.6 (a), en este caso 0 ) ( ) ( ) (
4 3 1
= = = =

x f x f x f
X X X
.
(Excepto ) (
1
x f
X
y ) (
2
x f
X
el resto son todos los ceros).

De este modo (Fig. 5.7)

( )

< <

+
=
|
.
|

\
|
+

= +

=
otherwise. , 0
, 1 0 ,
1
2
1
) ( 2

2 2
1
1
) ( ) (
1
1
) (
2
2 2
1 1
2
2
2
1
2
2 1
2
y
y
y
x x
x x
y
x f x f
y
y f
X X Y
t
t
t
t t
(5-37)


Ejemplo 5.7: Sea X Y tan = donde ( ) . 2 / , 2 / t t U X
Determinar ). ( y f
Y


Solucin: A medida que x se mueve de ( ) , 2 / , 2 / t t y de ( ) . , + De la Fig.5.8 (b),
la funcin X Y tan = es uno a uno para . 2 / 2 / t t < < x Para cualquier y, y x
1
1
tan

=
es la solucin principal. Adems
2 2 2
1 tan 1 sec

tan
y x x
dx
x d
dx
dy
+ = + = = =

por lo que usando (5-30)
, ,
1
/ 1
) (
| / |
1
) (
2 1
1
+ < <
+
= =
=
y
y
x f
dx dy
y f
X
x x
Y
t
(5-38)

2
0
1
( ) ( ).
1
Y X i
i
i
f y f x
y
+
=
=
=

lo que representa una funcin de densidad de Cauchy con el parmetro igual a la unidad
(Fig. 5.9).



Funciones de un v.a. de tipo discretos

Supongamos que X es un v.a. de tipo discreto con
, , , , , ) (
2 1 i i i
x x x x p x X P = = = (5-39)
y ). ( X g Y = Es evidente que Y tambin es de tipo discreto, y cuando ), ( ,
i i i
x g y x x = =
y para los
i
y .
, , , , , ) ( ) (
2 1 i i i i
y y y y p x X P y Y P = = = = = (5-40)

Ejemplo 5.8: Supongamos ), ( P X para que
, 2 , 1 , 0 ,
!
) ( = = =

k
k
e k X P
k

(5-41)

Definir . 1
2
+ = X Y Encuentra las p.m.f. de Y.
Solucin: X toma los valores , , , 2 , 1 , 0 k por lo que Y slo tiene el valor
y
) ( ) 1 (
2
k X P k Y P = = + =

de modo que para 1
2
+ = k j
(5-43)










2
1, 2, 5, , 1, k +
( )
1
2
( ) 1 , 1, 2, 5, , 1, .
( 1) !
j
P Y j P X j e j k
j

= = = = = +

LECT6A

6. LA MEDIA, VARIANZA, MOMENTOS Y FUNCIONES CARACTERSTICAS

Para una variable aleatoria X, su p.d.f. ) ( x f
X
representa la informacin completa al
respecto, y para cualquier conjunto de Borel B en el eje "x".

( )
}
= e
B
X
dx x f B X P . ) ( ) ( (6-1)

Tenga en cuenta que ) ( x f
X
representa informacin muy detallada, y muy a menudo es
deseable para caracterizar la rv en cuanto a su comportamiento medio. En este contexto,
vamos a introducir dos parmetros - la media y la varianza - que se utiliza
universalmente para representar las propiedades generales de la v.a. y su pdf.

Media o el valor esperado de una variable aleatoria X se define como

}
+

= = =


. ) ( ) ( dx x f x X E X
X X
q (6-2)

Si X es una v.a. de tipo discreto, a continuacin utilizando (3-25) obtenemos

. ) (
) ( ) ( ) (
1

} }

= = =
= = = =
i
i i
i
i i
i
i i i
i
i i X
x X P x p x
dx x x p x dx x x p x X E X

o o q
(6-3)

La media representa el promedio (media) el valor de la v.a. en un gran nmero de
ensayos. Por ejemplo, si ), , ( b a U X a continuacin, utilizando (3-31),

}
+
=

=
b
a
b
a
b a
a b
a b x
a b
dx
a b
x
X E
2 ) ( 2 2
1
) (
2 2 2
(6-4)

es el punto medio del intervalo (a, b).

Por otra parte, si X es exponencial con el parmetro como en (3-32), entonces,
} }

= = =

0
/
0
, ) (


dy ye dx e
x
X E
y x
(6-5)

lo que implica que el parmetro en (3-32) representa el valor medio de la v.a.
exponencial.
Del mismo modo, si X es Poisson con parmetro como en (3-45), utilizando (6-3),
obtenemos
.
! )! 1 (

! !
) ( ) (
0 1
1 0 0




= = =

=
= = = =

=


e e
i
e
k
e
k
k e
k
ke k X kP X E
i
i
k
k
k
k
k
k
k
(6-6)

As, el parmetro en (3-45) tambin representa la media de la v.a. Poisson.

De manera similar, si X es binomial como en (3-44), entonces su media est dada por
. ) (
! )! 1 (
)! 1 (
)! 1 ( )! (
!

! )! (
!
) ( ) (
1 1
1
0 1
1 0 0
np q p np q p
i i n
n
np q p
k k n
n
q p
k k n
n
k q p
k
n
k k X kP X E
n i n i
n
i
k n k
n
k
k n k
n
k
k n k
n
k
n
k
= + =


=

=

=
|
|
.
|

\
|
= = =

= =



(6-7)

Por lo tanto np representa la media de la v.a. binomial en (3-44).

Para el v.a. normal en (3-29),
.
2
1
2
1

) (
2
1
2
1
) (
1


2 /
2
0


2 /
2


2 /
2


2 / ) (
2
2 2 2 2
2 2 2 2

to

to

to to
o o
o o
= + =
+ = =
} }
} }
+

+




dy e dy ye
dy e y dx xe X E
y y
y x

(6-8)

As, el primer parmetro ) , (
2
o N X es de hecho la media de la v.a gaussiana X. Dado
), ( x f X
X
suponemos ) ( X g Y = que define una nueva v.a. con pdf ). ( y f
Y
Luego de la
discusin anterior, la nueva v.a. Y tiene una media
Y
dada por (ver (2.6))
}
+

= =


. ) ( ) ( dy y f y Y E
Y Y
(6-9)

A partir de (6-9), parece que para determinar ), (Y E tenemos que determinar ). ( y f
Y
Sin
embargo, este no es el caso si slo ) (Y E es la cantidad de inters. Recuerde que para
cualquier y, 0 > Ay
( ) ( ) ,

A + s < = A + s <
i
i i i
x x X x P y y Y y P (6-10)

donde
i
x representan las mltiples soluciones de la ecuacin ). (
i
x g y = Pero (6-10) se
puede reescribir como
, ) ( ) (
i
i
i X Y
x x f y y f A = A

(6-11)
donde trminos de la forma ( )
i i i
x x x A + , no se superponen los intervalos.Por lo tanto
, ) ( ) ( ) ( ) (
i
i
i X i i
i
i X Y
x x f x g x x f y y y f y A = A = A

(6-12)

y por lo tanto como A y cubre todo el eje y, la correspondiente A x son no se
superponen, y abarcan todo el eje "x". Por lo tanto, en el lmite , 0 Ay la
integracin de ambos lados de (6-12), obtenemos la frmula til

( )
} }
+

+

= = =




. ) ( ) ( ) ( ) ( ) ( dx x f x g dy y f y X g E Y E
X Y
(6-13)

En el caso discreto, (6-13) se reduce a
). ( ) ( ) (
i
i
i
x X P x g Y E = =

(6-14)

De (6-13) - (6-14), no se requiere evaluar ) (Y E de ). ( X g Y = Podemos utilizar (6-14)
para determinar la media de ,
2
X Y = donde X es una distribucin de la v.a. Poisson.
Usando (3-45)
( ) .
! )! 1 (

! ! !

!
) 1 (
)! 1 (

2
0
1
1
1 0 0
0
1
1






+ = + =
|
|
.
|

\
|
+ =
|
|
.
|

\
|
+

=
|
|
.
|

\
|
+ =
|
|
.
|

\
|
+ =
+ =

=
+

=
+




e e e
e
m
e e
i
e
e
i
i e
i i
i e
i
i e
k
k e
m
m
i
i
i
i
i i
i i
i
i
k
k
(6-15)


En general ( )
k
X E , se conoce como el momento en k-simo de la v.a. X. As, si
, ) ( P X su segundo momento viene dado por (6-15).

La media por s sola no ser capaz de representar verdaderamente el pdf de cualquier rv
Para ilustrar esto, consideremos el siguiente escenario: Consideremos dos r.vs Gauss
(0,1)
1
N X y (0,10).
2
N X . Ambos tienen la misma media . 0 = Sin embargo, como la
figura. 6.1 muestra, su p.d.fs son muy diferentes. Uno est ms concentrado alrededor de
la media, mientras que el otro ) (
2
X tiene una extensin ms amplia. Claramente,
necesitamos un parmetro adicional para medir esta extensin alrededor de la media!



Para una variable aleatoria X con media X , representa la desviacin de la RV de
su media. Puesto que esta desviacin puede ser positiva o negativa, tenga en cuenta la
cantidad ( ) ,
2
X y su valor medio ( ) ] [
2
X E representa el promedio de desviacin
media cuadrada de X alrededor de su media. Definir.

( ) . 0 ] [
2 2
> = o X E
X
(6-16)

Con
2
) ( ) ( = X X g y utilizando (6-13) obtenemos
. 0 ) ( ) (

2 2
> =
}
+

dx x f x
X
X
o (6-16)


2
X
o se conoce como la varianza de la v.a. X, y su raz cuadrada
2
) ( o = X E
X
es
conocida como la desviacin estndar de la X. Note que la desviacin estndar representa
la raz cuadrada media de propagacin de la rv X alrededor de su media .

Expandiendo (6-17) y el uso de la linealidad de las integrales, obtenemos

( )
( ) ( ) | | . ) (
) ( 2 ) (
) ( 2 ) (
2 2
___
2 2 2 2
2

2


2 2 2
X X X E X E X E
dx x f x dx x f x
dx x f x x X Var
X X
X X
= = =
+ =
+ = =
} }
}
+

+

+


o
(6-18)

Alternativamente, podemos utilizar (6-18) para calcular .
2
X
o

As, por ejemplo, volviendo de nuevo a la v.a. de Poisson en (3-45), con (6-6) y (6-15),
obtenemos
( ) .
2 2
___
2 2
2
o = + = = X X
X
(6-19)
As, para una variable aleatoria de Poisson, la media y la varianza son iguales a su
parmetro .

Para determinar la varianza de la v.a. normal ), , (
2
o N podemos utilizar (6-16). As, a
partir de (3-29)
( ) .
2
1
] ) [( ) (


2 / ) (
2
2 2
2 2
}
+


= = dx e x X E X Var
x o
to
(6-20)

Para simplificar (6-20), podemos hacer uso de la identidad
} }
+


+

= =


2 / ) (
2


1
2
1
) (
2 2
dx e dx x f
x
X
o
to


para un normal p.d.f. Esto le da
}
+


=

2 / ) (
. 2
2 2
o t
o
dx e
x
(6-21)

Diferenciando ambos lados de (6-21) con respecto a , o obtenemos
}
+


=


2 / ) (
3
2
2
) ( 2 2
t
o

o
dx e
x
x

o
( ) ,
2
1
2

2 / ) (
2
2
2 2
o
to

o
=
}
+


dx e x
x
(6-22)

lo que representa ) ( X Var en la (6-20). As, para un v.a.normal como en (3-29)

) ( X Var (6-23)

y el segundo parmetro en ) , (
2
o N ,de hecho, representa la varianza de la RV gaussiano
Como la figura. 6.1 muestra la ms grande cuanto mayor sea el de la propagacin de la
pdf alrededor de su media. As como la varianza de una variable aleatoria tiende a cero,
que empezar a concentrarse ms y ms alrededor de la media en ltima instancia,
comportndose como una constante.

Momentos: Como se sealaba anteriormente, en general,
1 ), (
___
> = = n X E X
n n
n
(6-24)
se conocen como los momentos de la v.a. X, y
] ) [(
n
n
X E = (6-25)
se conocen como los momentos centrales de X. Es evidente que la media ,
1
m = y la
varianza .
2
2
o = es fcil de relacionar
n
m y .
n
, de hecho,

( ) . ) ( ) (
) ( ] ) [(
0 0
0
k n
k
n
k
k n k
n
k
k n k
n
k
n
n
m
k
n
X E
k
n
X
k
n
E X E

|
|
.
|

\
|
=
|
|
.
|

\
|
=
|
|
.
|

\
|

|
|
.
|

\
|
= =



(6-26)

En general, las cantidades
] ) [(
n
a X E (6-27)

se conocen como los momentos generalizado de X sobre una, y

] | [|
n
X E (6-28)
se conocen como los momentos de absoluta X.

Por ejemplo, si ), , 0 (
2
o N X entonces se puede demostrar que


=
even. , ) 1 ( 3 1
odd, , 0
) (
n n
n
X E
n
n
o
(6-29)

+ =

=
+
odd. ), 1 2 ( , / 2 ! 2
even, , ) 1 ( 3 1
) | (|
1 2
k n k
n n
X E
k k
n
n
t o
o
(6-30)

El empleo directo de (6-2), (6-13) o (6-14) a menudo es un procedimiento tedioso
calcular la media y la varianza, y en este contexto, la nocin de la funcin
caracterstica puede ser muy til.


Caracterstica de funcin
La funcin caracterstica de una variable aleatoria X se define como

( )
}
+

= = u . ) ( ) ( dx x f e e E
X
jx jX
X
e e
e (6-31)

Por lo tanto , 1 ) 0 ( = u
X
, y 1 ) ( s u e
X
para todos . e
Para r.vs discreta la funcin caracterstica se reduce a

= = u
k
jk
X
k X P e ). ( ) (
e
e (6-31)

As, por ejemplo, si ) ( P X como en (3-45), entonces su funcin caracterstica viene
dada por

.
!
) (
!
) (
) 1 (
0 0

=

= = = = u

e e

e
e

e
j j
e e
k k
k j k
jk
X
e e e
k
e
e
k
e e
(6-33)


Del mismo modo, si X es una variable aleatoria binomial como en (3-44), su funcin
caracterstica viene dada por

. ) ( ) ( ) (
0 0
n j
n
k
k n k j
n
k
k n k jk
X
q pe q pe
k
n
q p
k
n
e + =
|
|
.
|

\
|
=
|
|
.
|

\
|
= u

=

=
e e e
e
(6-34)

Para ilustrar la utilidad de la funcin caracterstica de una va en el cmputo de sus
momentos, en primer lugar es necesario para obtener la relacin entre ellos. Con este, a
partir de (6-31)

( )
.
!
) (
! 2
) (
) ( 1
!
) (
!
) (
) (
2
2
2
0 0
+ + + + + =
=
(

= = u


=

=
k
k
k
k
k
k
k
k
k
jX
X
k
X E
j
X E
j X jE
k
X E
j
k
X j
E e E
e e e
e
e
e
e
(6-35)

Tomando la primera derivada de (6-35) con respecto a, y dejar que sea igual a cero,
obtenemos

.
) ( 1
) ( or ) (
) (
0 0 = =
c
u c
= =
c
u c
e e
e
e
e
e
X X
j
X E X jE
(6-36)

Del mismo modo, la segunda derivada de (6-35) da

,
) ( 1
) (
0
2
2
2
2
=
c
u c
=
e
e
e
X
j
X E
(6-37)

repitiendo este procedimiento veces k, obtenemos el momento k-simo de X que se
. 1 ,
) ( 1
) (
0
>
c
u c
=
=
k
j
X E
k
X
k
k
k
e
e
e
(6-38)
Podemos utilizar (6-36) - (6-38) para calcular la media, varianza y otros momentos de
orden superior de cualquier v.a. X. Por ejemplo, si ), ( P X entonces, a partir de (6-
33)

,
) (
e

e
e
e
j e
X
je e e
j

=
c
u c
(6-39)
de modo que de (6-36)
, ) ( = X E (6-40)
que est de acuerdo con (6-6). Diferenciando (6-39) una vez ms, nos da

( ), ) (
) (
2 2
2
2
e e

e
e
e e
j e j e
X
e j e je e e
j j
+ =
c
u c

(6-41)

de manera que a partir de (6-37)
, ) (
2 2
+ = X E (6-42)

que de nuevo est de acuerdo con (6-15). Tenga en cuenta que en comparacin con los
clculos tediosos (6-6) y (6-15), los esfuerzos que participan en (6-39) y (6-41) son
muy mnima.

Podemos utilizar la funcin caracterstica de la v.a. binomial B (n,p) en (6-34) para
obtener su varianza. Diferenciacin directa de (6-34) da

1
) (
) (

+ =
c
u c
n j j
X
q pe jnpe
e e
e
e
(6-43)

de modo que de (6-36), np X E = ) ( como en (6-7)

Una diferenciacin ms de (6-43) se obtiene

( )
2 2 1 2
2
2
) ( ) 1 ( ) (
) (

+ + + =
c
u c
n j j n j j
X
q pe pe n q pe e np j
e e e e
e
e
(6-44)

y el uso de (6-37), se obtiene el segundo momento de la v.a. binomial que es

( ) . ) 1 ( 1 ) (
2 2 2
npq p n p n np X E + = + = (6-45)

Junto con (6-7), (6-18) y (6-45), obtenemos la varianza de la v.a. binomial que es
| | . ) ( ) (
2 2 2 2 2 2 2
npq p n npq p n X E X E
X
= + = = o (6-46)

Para obtener la funcin caracterstica de la RV de Gauss, podemos hacer uso de (6-31).
As, si ), , (
2
o N X entonces

.
2
1

2
1

) that so (Let

2
1
2
1

) (Let
2
1
) (
) 2 / (

2 /
2
2 /


2 / ) )( (
2
2 2


) 2 ( 2 /
2


2 /
2


2 / ) (
2
2 2 2 2 2 2
2 2 2
2 2 2 2
2 2
e o e o e o e
o e o e o e
e o o e o e e
o e
to
to
e o e o
to to

to
e

+


+

+
+


+

+


= =
=
+ = =
= =
= = u
}
}
} }
}
j u j
j u j u j
j y y j y y j j
x x j
X
e du e e e
du e e
j u y u j y
dy e e dy e e e
y x dx e e
(6-47)
Tenga en cuenta que la funcin caracterstica de una variable aleatoria gaussiana se
tiene la "Gauss" forma de campana. As, si ), , 0 (
2
o N X tenemos,
,
2
1
) (
2 2
2 /
2
o
to
x
X
e x f

=
(6-48)
y
. ) (
2 /
2 2
e o
e

= u e
X
(6-49)

De la figura. 6.2, invirtiendo las reglas de
2
o en ) ( x f
X
y ) (e
X
u son dignos de
mencin . )
1
vs (
2
2
o
o

En algunos casos, la media y la varianza no puede existir. Por ejemplo, considere la
v.a. Cauchy se define en (3-39). Con

} }
+

+

=
|
|
.
|

\
|
+
=
+
=


2 2
2


2 2
2
2
, 1 ) ( dx
x
dx
x
x
X E
o
o
t
o
o t
o
(6-50)

claramente diverge a infinito. Del mismo modo

. ) (


2 2 }
+

+
= dx
x
x
X E
o t
o
(6-51)
Para calcular (6-51), vamos a examinar uno de los factores de su lado .
0
2 2 }
+
+
dx
x
x
o
Con
u o tan = x




(6-52)

lo que indica que la integral doble cara en (6-51) no converge y no est definido. A
partir de (6-50) - (6-52), la media y la varianza de una variable aleatoria de Cauchy no
estn definidos.
Concluimos esta seccin con un salto que las estimaciones de la dispersin de la rv ms
all de un cierto intervalo en torno a su media. Dado que
2
o las medidas de la
dispersin de la v.a. X en torno a su media , esperamos que est obligado a depender
tambin
2
o .


Desigualdad de Chebychev
Considere la posibilidad de un intervalo de ancho 2 c simtricamente en torno a su media
como en la figura. 6.3. Cul es la probabilidad de que X cae fuera de este intervalo?
Necesitamos

/ 2 / 2
2
2 2 2 2
0 0 0
/ 2
/ 2
0
0
tan sin
sec
sec cos
(cos )
log cos log cos ,
cos 2
x
dx d d
x
d
t t
t
t
o u u
o u u u
o o u u
u t
u
u
+
= =
+
= = = =
} } }
}
( ) ? | | c > X P (6-53)



Para calcular esta probabilidad, podemos empezar con la definicin de .
2
o

| |
( ) . | | ) ( ) (
) ( ) ( ) ( ) ( ) (
2
| |
2
| |
2
| |
2

2 2 2
c c c c
o
c c
c
> > > >
> = =
} }
} }
> >
>
+

X P dx x f dx x f
dx x f x dx x f x X E
x
X
x
X
x
X X
(6-54)

A partir de (6-54), se obtiene la probabilidad de que se desea
( ) , | |
2
2
c
o
c s > X P (6-55)
y (6-55) se conoce como la desigualdad Chebychev.
Curiosamente, para calcular la probabilidad por encima de obligado conocimiento de que
) ( x f
X
no es necesario. Lo nico que necesitamos ,
2
o la varianza de la r.v. En
particular, con o c k = en (6-55) obtenemos

( ) .
1
| |
2
k
k X P s > o (6-56)

As con , 3 = k se obtiene la probabilidad de que X es fuera del intervalo de 3o
alrededor de su media a 0.111 para cualquier v.a. Obviamente esto no puede ser un
apretado obligado, ya que incluye todos los v.as. Por ejemplo, en el caso de una
variable aleatoria gaussiana, a partir de la Tabla 4.1 ) 1 , 0 ( = = o

( ) . 0027 . 0 3 | | = > o X P (6-57)
que es mucho ms estricta que la dada por (6-56). La desigualdad Chebychev siempre
subestima la probabilidad exacta.


Momento las identidades:
Supongamos que X es una variable aleatoria discreta que toma
slo valores enteros no negativos. es decir,

, 2 , 1 , 0 , 0 ) ( = > = = k p k X P
k

A continuacin,

+ =

=
= = =
= = = = >
0
0 0 1
1
0 1
) ( ) (
1 ) ( ) ( ) (
i
k k k i
i
k i
X E i X P i
i X P i X P k X P
(6-58)

de manera similar
2
)} 1 ( {
) (
2
) 1 (
) ( ) (
1
1
0 1 0

= =

= = = >


=

=
X X E
i X P
i i
k i X P k X P k
i
i
k i k


lo que da
. ) ( ) 1 2 ( ) ( ) (
1 0
2 2

=
> + = = =
i k
k X P k i X P i X E
(6-59)

Las ecuaciones (6-58) - (6-59) son a veces muy til en
simplificar los clculos. Por ejemplo, refirindose a la
Problema del cumpleaos de emparejamiento [Ejemplo 2-20., texto], sea X
representan el nmero mnimo de personas en un grupo de
un par de cumpleaos a ocurrir. La probabilidad de que "la primera
n personas seleccionadas de ese grupo tienen diferentes
cumpleaos "est dado por [P (B) en la pgina 39, del texto]

. ) 1 (
2 / ) 1 (
1
1
N n n
n
k
n
e
N
k
p

=
~ [ =


Pero el caso de que "la gente n primeros seleccionados cumpleaos diferente "es el mismo
que el evento" X>n." Por lo tanto


Usando (6-58), esto le da el valor medio de X que se
(6-60)

Del mismo modo con (6-59) obtenemos
( 1) / 2
( ) .
n n N
P X n e

> ~
{ }
2
2 2



( 1) / 2 ( 1 / 4 ) / 2
1 / 2
0 0
1 / 2
(1 / 8 ) / 2 (1 / 8 ) / 2
1 / 2 0
1
2
( ) ( )
2
1
/ 2 24.44.
2
n n N x N
n n
N x N N x N
E X P X n e e dx
e e dx e N e dx
N
t
t


= =

= > ~ ~
= = +
~ + =

}
} }

Por lo tanto
82 . 181 )) ( ( ) ( ) (
2 2
= = X E X E X Var
lo que da
. 48 . 13 ~
X
o

Dado que la desviacin estndar es bastante alta en comparacin con el
valor medio, el nmero real de personas necesarias para una
coincidencia de cumpleaos podra ser entre 25 y 40.

Identidades similares a (6-58) - (6-59) se puede derivar en la
caso de variables aleatorias continuas as. Por ejemplo,
si X es una variable aleatoria no negativa con funcin de densidad
fx(x) y funcin de distribucin Fx(x), luego,







(6-61)
Donde

Del mismo modo





2
2 2 2


2
0
( 1) / 2 ( 1 / 4 ) / 2

0
1 / 2
1 / 2
(1 / 8 ) / 2 / 2 ( 1 / 4 ) / 2
0 0 1 / 2
( ) ( 2 1) ( )
( 2 1) 2 ( 1)
2 2
2 2 1
2 2 ( )
2 8
1 5
2 2 1 2 2
4 4
779.139.
n
n n N x N
n
N x N x N x N
E X n P X n
n e x e dx
e xe dx xe dx e dx
N
N E X
N N N N
t
t
t t

= + >
= + = +

= + +
`
)

= + +
`
)
= + + + = + +
=

}
} } }
( )
( )


0 0 0

0 0 0

0 0
{ } ( ) ( )
( ) ( ) ( )
{1 ( )} ( ) ,
X X
X
X
x
y
E X x f x dx dy f x dx
f x dx dy P X y dy P X x dx
F x dx R x dx



= =
= = > = >
= =
} } }
} } } }
} }
( ) 1 ( ) 0, 0.
X
R x F x x = > >
( )
( )


2 2
0 0 0

0

0
.
{ } ( ) 2 ( )
2 ( )
2 ( )
X X
X
x
y
E X x f x dx ydy f x dx
f x dx ydy
x R x dx

= =
} } }
=
} }
=
}
Momento las identidades:
Supongamos que X es una variable aleatoria discreta que toma
slo valores enteros no negativos. es decir,

, 2 , 1 , 0 , 0 ) ( = > = = k p k X P
k

Luego,

+ =

=
= = =
= = = = >
0
0 0 1
1
0 1
) ( ) (
1 ) ( ) ( ) (
i
k k k i
i
k i
X E i X P i
i X P i X P k X P
(6-58)
de manera similar
2
)} 1 ( {
) (
2
) 1 (
) ( ) (
1
1
0 1 0

= =

= = = >


=

=
X X E
i X P
i i
k i X P k X P k
i
i
k i k

lo que da
. ) ( ) 1 2 ( ) ( ) (
1 0
2 2

=
> + = = =
i k
k X P k i X P i X E (6-59)

Las ecuaciones (6-58) - (6-59) son a veces muy til en simplificar los clculos. Por
ejemplo, refirindose al Problema de emparejamiento del cumpleaos [Ejemplo 2-20.,
texto], sea X representan el nmero mnimo de personas en un grupo de
un par de cumpleaos a ocurrir. La probabilidad de que "la primera n personas
seleccionadas de ese grupo tienen diferentes cumpleaos "est dado por [P (B) en la
pgina 39, del texto]
. ) 1 (
2 / ) 1 (
1
1
N n n
n
k
n
e
N
k
p

=
~ [ =


Pero el caso de que "las primeras n gente seleccionados tenemos cumpleaos diferente "es
el mismo que el evento" X> n. "
Por lo tanto


Usando (6-58), esto le da el valor medio de X que se

Del mismo modo con (6-59) obtenemos
( 1) / 2
( ) .
n n N
P X n e

> ~
{ }
2
2 2



( 1) / 2 ( 1 / 4 ) / 2
1 / 2
0 0
1 / 2
(1 / 8 ) / 2 (1 / 8 ) / 2
1 / 2 0
1
2
( ) ( )
2
1
/ 2 24.44.
2
n n N x N
n n
N x N N x N
E X P X n e e dx
e e dx e N e dx
N
t
t


= =

= > ~ ~
= = +
~ + =

}
} }

Por lo tanto
82 . 181 )) ( ( ) ( ) (
2 2
= = X E X E X Var

lo que da
. 48 . 13 ~
X
o

Dado que la desviacin estndar es bastante alta en comparacin con el valor medio, el
nmero real de personas necesarias para una coincidencia de cumpleaos podra ser entre
25 y 40.

Identidades similares a (6-58) - (6-59) se puede derivar en la
caso de variables aleatorias continuas as. Por ejemplo,
si X es una variable aleatoria no negativa con funcin de densidad
fX(x) y funcin de distribucin FX(X), entonces


(6-61)






Donde

Del mismo modo







2
2 2 2


2
0
( 1) / 2 ( 1 / 4 ) / 2

0
1 / 2
1 / 2
(1 / 8 ) / 2 / 2 ( 1 / 4 ) / 2
0 0 1 / 2
( ) ( 2 1) ( )
( 2 1) 2 ( 1)
2 2
2 2 1
2 2 ( )
2 8
1 5
2 2 1 2 2
4 4
779.139.
n
n n N x N
n
N x N x N x N
E X n P X n
n e x e dx
e xe dx xe dx e dx
N
N E X
N N N N
t
t
t t

= + >
= + = +

= + +
`
)

= + +
`
)
= + + + = + +
=

}
} } }
( )
( )


0 0 0

0 0 0

0 0
{ } ( ) ( )
( ) ( ) ( )
{1 ( )} ( ) ,
X X
X
X
x
y
E X x f x dx dy f x dx
f x dx dy P X y dy P X x dx
F x dx R x dx



= =
= = > = >
= =
} } }
} } } }
} }
( ) 1 ( ) 0, 0.
X
R x F x x = > >
( )
( )


2 2
0 0 0

0

0
.
{ } ( ) 2 ( )
2 ( )
2 ( )
X X
X
x
y
E X x f x dx ydy f x dx
f x dx ydy
x R x dx

= =
} } }
=
} }
=
}
LECT7A
7. DOS VARIABLES ALEATORIAS

En muchos experimentos, las observaciones no son expresables como una sola cantidad,
sino como una familia de cantidades. Por ejemplo, para registrar la altura y el peso de
cada persona en una comunidad o el nmero de personas y el total de ingresos en una
familia, necesitamos dos nmeros.
Sean X e Y denotan dos variables aleatorias (va), basado en un modelo de probabilidad
(O, F, P). A continuacin
( )
}
= = s <
2
1
, ) ( ) ( ) ( ) (
1 2 2 1
x
x
X X X
dx x f x F x F x X x P
Y
( ) . ) ( ) ( ) ( ) (
2
1
1 2 2 1
}
= = s <
y
y
Y Y Y
dy y f y F y F y Y y P
Qu pasa con la probabilidad de que el par de r.vs (X,Y) pertenece a una regin
arbitraria D? En otras palabras, cmo se puede estimar, por ejemplo,
| | ? ) ) ( ( ) ) ( (
2 1 2 1
= s < s < y Y y x X x P . Con este, se define la funcin de distribucin
de probabilidad conjunta de X e Y se

| |
0 ) , (
) ) ( ( ) ) ( ( ) , (
> s s =
s s =
y Y x X P
y Y x X P y x F
XY

(7-1)

donde x e y son nmeros reales arbitrarios.

Propiedades
(i) . 1 ) , ( , 0 ) , ( ) , ( = + + = =
XY XY XY
F x F y F (7-2)

ya que ( ) ( ) , ) ( ) ( , ) ( s c s s X y Y X nos da ( ) . 0 ) ( ) , ( = s s X P y F
XY
Del
mismo modo ( ) , ) ( , ) ( O = + s + s Y X obtenemos . 1 ) ( ) , ( = O = P F
XY


(ii) ( ) ). , ( ) , ( ) ( , ) (
1 2 2 1
y x F y x F y Y x X x P
XY XY
= s s < (7-3)
( ) ). , ( ) , ( ) ( , ) (
1 2 2 1
y x F y x F y Y y x X P
XY XY
= s < s (7-4)

Para probar (7-3), observamos que para ,
1 2
x x >

( ) ( ) ( ) y Y x X x y Y x X y Y x X s s < s s = s s ) ( , ) ( ) ( , ) ( ) ( , ) (
2 1 1 2


y la propiedad se excluyen mutuamente de los hechos en el lado derecho da

( ) ( ) ( ) y Y x X x P y Y x X P y Y x X P s s < + s s = s s ) ( , ) ( ) ( , ) ( ) ( , ) (
2 1 1 2


lo que demuestra (7-3). Del mismo modo (7-4) a continuacin.
(iii)
( )
). , ( ) , (
) , ( ) , ( ) ( , ) (
1 1 2 1
1 2 2 2 2 1 2 1
y x F y x F
y x F y x F y Y y x X x P
XY XY
XY XY
+
= s < s <
(7-5)

Esta es la probabilidad de que (X, Y) pertenece al rectngulo
0
R de la figura 7.1. Para
demostrar (5.7), podemos hacer uso de la siguiente identidad implican mutuamente eventos
exclusivos en el lado derecho.

( ) ( ) ( ). ) ( , ) ( ) ( , ) ( ) ( , ) (
2 1 2 1 1 2 1 2 2 1
y Y y x X x y Y x X x y Y x X x s < s < s s < = s s <


Esto le da
( ) ( ) ( )
2 1 2 1 1 2 1 2 2 1
) ( , ) ( ) ( , ) ( ) ( , ) ( y Y y x X x P y Y x X x P y Y x X x P s < s < + s s < = s s <

y el resultado deseado en (7-5) sigue haciendo uso de (7-3) con
2
y y = y
1
y
respectivamente.

Probabilidad conjunta funcin de densidad (p.d.f Mixto)
Por definicin, la fdp conjunta de X e Y viene dada por
.

) , (
) , (
2
y x
y x F
y x f
XY
XY
c c
c
= (7-6)

y por lo tanto se obtiene la frmula til
. ) , ( ) , (




dudv v u f y x F
x y
XY XY
} }

= (7-7)

Usando (7-2), tambin se recibe
. 1 ) , (



=
} }
+

+

dxdy y x f
XY
(7-8)
Para encontrar la probabilidad de que (X, Y) pertenece a una regin arbitraria D,
podemos hacer uso de (7-5) y (7-7). A partir de (7-5) y (7-7)

( )
. ) , ( ) , (
) , ( ) , ( ) , (
) , ( ) ( , ) (




y x y x f dudv v u f
y x F y x x F y y x F
y y x x F y y Y y x x X x P
XY
x x
x
y y
y
XY
XY XY XY
XY
A A = =
+ A + A +
A + A + = A + s < A + s <
} }
A + A +

(7-9)
As, la probabilidad de que (X, Y) pertenece a un rectngulo diferencial Ay,Ax y es
igual a , ) , ( y x y x f
XY
A A y repetir este procedimiento en la unin de los rectngulos no
diferenciado se superponen en D, obtenemos el resultado tiles



( )
} }
e
= e
D y x
XY
dxdy y x f D Y X P
) , (
. ) , ( ) , ( (7-10)

(iv) Las estadsticas marginales
En el contexto de r.vs varias, las estadsticas de cada uno de los individuales se
llaman estadsticas marginales. As ) ( x F
X
es la funcin de distribucin de
probabilidad marginal de X, y ) ( x f
X
es el pdf marginal de X. Es interesante observar
que todos los marginales se pueden obtener de la pdf conjunta De hecho

. ) , ( ) ( ), , ( ) ( y F y F x F x F
XY Y XY X
+ = + = (7-11)
Tambin
. ) , ( ) ( , ) , ( ) (
} }
+

+

= = dx y x f y f dy y x f x f
XY Y XY X
(7-12)

Para demostrar (7.11), podemos hacer uso de la identidad

) ( ) ( ) ( + s s = s Y x X x X

De modo que ( ) ( ) ). , ( , ) ( + = s s = s = x F Y x X P x X P x F
XY X

Para demostrar (7-12), podemos hacer uso de (7-7) y (7-11), lo que da

dudy y u f x F x F
x
XY XY X
) , ( ) , ( ) (




} }

+

= + = (7-13)

y teniendo derivada con respecto a x en (7-13), obtenemos
. ) , ( ) (


}
+

= dy y x f x f
XY X
(7-14)

En este punto, es til saber la frmula para la diferenciacin en virtud de las
integrales. Vamos a
. ) , ( ) (
) (
) (
}
=
x b
x a
dy y x h x H (7-15)
Entonces su derivada respecto de x viene dado por

(7-16)

Obviamente el uso de (7-16) en (7-13) da (7-14).

Si X e Y son discretas r.vs, entonces ) , (
j i ij
y Y x X P p = = = , representa su pdf
( )
( )
( ) ( ) ( ) ( , )
( , ) ( , ) .

b x
a x
dH x db x da x h x y
h x b h x a dy
dx dx dx x
c
= +
c
}
conjunta, y sus respectivos archivos pdfs marginales estn dados por

= = = = =
j j
ij j i i
p y Y x X P x X P ) , ( ) ( (7-17)
y

= = = = =
i i
ij j i j
p y Y x X P y Y P ) , ( ) ( (7-18)

Suponiendo que ) , (
j i
y Y x X P = = se escribe en forma de una matriz rectangular, para
obtener ), (
i
x X P = a partir de (7-17), una necesidad de sumar todas las entradas de la
fila i-sima.

Lo que sola ser una prctica rutinaria para las
compaas de seguros a garabatear a cabo estos valores
suma de los mrgenes izquierdo y superior, lo que
sugiere el nombre de densidades marginales! (Figura
7.3).


A partir de (7-11) y (7-12), la articulacin PDF y / o el pdf conjunto representan
informacin completa sobre el r.vs, y sus pdfs marginales puede evaluarse a partir de la
fdp conjunta Sin embargo, los marginales dado, (ms a menudo), no ser posible calcular
la fdp conjunta Consideremos el siguiente ejemplo:

Ejemplo 7.1: Dada.

< < <


=
. otherwise 0,
, 1 0 constant,
) , (
y x
y x f
XY
(7-19)

Obtener los archivos pdfs marginales ) ( x f
X
y ). ( y f
Y

Solucin: Est dado que la pdf conjunta ) , ( y x f
XY
es una constante en la regin
sombreada en la figura. 7.4. Podemos utilizar (7-8) para determinar la constante c. A
partir de (7-8)

. 1
2 2
) , (
1
0
2
1
0




1
0

0
= = = = |
.
|

\
|
=
} } } } }
=
+

+
= =
c cy
cydy dy dx c dxdy y x f
y y
y
x
XY
(7-20)
Por lo tanto c = 2. Adems de (7-14)
, 1 0 ), 1 ( 2 2 ) , ( ) (
1



} }
=
+

< < = = =
x y
XY X
x x dy dy y x f x f (7-21)

y del mismo modo
. 1 0 , 2 2 ) , ( ) (

0


} }
=
+

< < = = =
y
x
XY Y
y y dx dx y x f y f (7-22)

Es evidente que, en este caso concreto ) ( x f
X
y ) ( x f
X
, como en (7-21)-(7-22), no ser
posible obtener el pdf original conjunto en (7-19).

Ejemplo 7.2: X e Y se dice que son conjuntamente normal (gaussiana), distribuidos, si su
pdf conjunta tiene la siguiente forma:

. 1 | | , ,
,
1 2
1
) , (
2
2
2
2
2
) (

) )( ( 2

) (
) 1 ( 2
1
2
< + < < + < <

=
|
|
.
|

\
|

+

o to
o

o o

o

y x
e y x f
Y
Y
Y X
Y X
X
X
y y x x
Y X
XY

(7-23)
Mediante la integracin directa, con (7-14) y completar el cuadrado en (7-23), se puede
demostrar que

), , (
2
1
) , ( ) (
2 2 / ) (
2


2 2
X X
x
X
XY X
N e dy y x f x f
X X
o
to
o
+

= =
}
(7-24)

y del mismo modo
), , (
2
1
) , ( ) (
2 2 / ) (
2


2 2
Y Y
y
Y
XY Y
N e dx y x f y f
Y Y
o
to
o
+

= =
}
(7-25)

Siguiendo la notacin anterior, denotaremos (7-23) como ). , , , , (
2 2
o o
Y X Y X
N Una vez
ms, a sabiendas de los marginales en (7-24) y (7-25) por s sola no nos dice todo
acerca de la pdf conjunta en (7-23).

Como se muestra a continuacin, la nica situacin en la pdfs marginales se puede
utilizar para recuperar la pdf conjunta es cuando las variables aleatorias son
estadsticamente independientes.

Independencia de r.vs
Definicin: Las variables aleatorias X e Y se dice que son estadsticamente
independientes si los hechos { } A X e ) ( y } ) ( { B Y e son eventos independientes de
cualquier Borel dos conjuntos A y B en los ejes x y y respectivamente. La aplicacin de
la definicin anterior a los acontecimientos { } x X s ) ( y { }, ) ( y Y s llegamos a la
conclusin de que, si el r.vs X e Y son independientes,

( ) ) ) ( ( ) ) ( ( ) ) ( ( ) ) ( ( y Y P x X P y Y x X P s s = s s (7-26)
es decir,
) ( ) ( ) , ( y F x F y x F
Y X XY
= (7-27)

o equivalente, si X e Y son independientes, entonces debemos tener
). ( ) ( ) , ( y f x f y x f
Y X XY
= (7-28)

Si X e Y son r.vs discreto a continuacin, escriba su independencia implica,

. , all for ) ( ) ( ) , ( j i y Y P x X P y Y x X P
j i j i
= = = = = (7-29)

Las ecuaciones (7.26) - (7-29) nos da el procedimiento para probar la independencia.
Teniendo en cuenta ), , ( y x f
XY
obtener los pdfs marginales ) ( x f
X
y ) ( y f
Y
y examinar si
(7-28) o (7-29) es vlida. Si es as, el r.vs son independientes, de lo contrario, son
dependientes. Volviendo de nuevo al ejemplo 7.1, a partir de (7-19) - (7.22), se observa
que mediante la verificacin directa ). ( ) ( ) , ( y f x f y x f
Y X XY
= Por lo tanto X e Y son r.vs
dependiente en ese caso. Es fcil ver que tal es el caso, en el caso del ejemplo 7.2
tambin, a menos que . 0 = En otras palabras, dos r.vs conjuntamente gaussianas como en
(7-23) son independientes si y slo si el quinto parmetro . 0 =

Ejemplo 7.3: Dado

otherwise. , 0
, 1 0 , 0 ,
) , (
2

< < < <


=

x y e xy
y x f
y
XY
(7-30)
Determine si X e Y son independientes. Solucin:
. 1 0 , 2 2 2
) , ( ) (

0 0

0
2
0
< < = |
.
|

\
|
+ =
= =
}
} }


+
x x dy ye ye x
dy e y x dy y x f x f
y y
y
XY X
(7-31)
Del mismo modo
. 0 ,
2
) , ( ) (
2
1
0
< < = =

}
y e
y
dx y x f y f
y
XY Y
(7-32)
En este caso
), ( ) ( ) , ( y f x f y x f
Y X XY
=

y por lo tanto, X e Y son variables aleatorias independientes.


















LECT8A
8. UNA FUNCIN DE DOS VARIABLES ALEATORIAS

Dadas dos variables aleatorias X e Y y una funcin g (x, y), que forman una nueva
variable aleatoria Z
). , ( Y X g Z = (8-1)

Dada la pdf conjunta ), , ( y x f
XY
cmo se obtienen ), ( z f
Z
el pdf de Z? Problemas de este
tipo son de inters desde un punto de vista prctico. Por ejemplo, una seal de salida
del receptor por lo general consiste de la seal deseada enterradas en el ruido y la
formulacin anterior, en ese caso se reduce a Z = X + Y.

Es importante conocer las estadsticas de la seal de entrada para el diseo del
receptor adecuado. En este contexto, vamos a analizar los problemas del tipo siguiente:
(8-2)


Refirindose de nuevo a (8-1), para empezar

( ) ( ) | |
} }
e
=
e = s = s =
z
D y x
XY
z Z
dxdy y x f
D Y X P z Y X g P z Z P z F
,
, ) , (
) , ( ) , ( ) ( ) (
(8-3)

donde
z
D en el plano XY representa la regin z y x g s ) , ( , que est satisfecho. Tenga en
cuenta que
z
D no tiene que ser simplemente conexa (Fig. 8.1). A partir de (8-3), para
determinar ) ( z F
Z
que es suficiente para encontrar la regin
z
D para cada z, y luego
evaluar la integral all.

Vamos a ilustrar este mtodo a travs de varios ejemplos.










Ejemplo 8.1: Z = X + Y. Buscar ). ( z f
Z

Solucin:
( )
} }
+
=

=
= s + =




, ) , ( ) (
y
y z
x
XY Z
dxdy y x f z Y X P z F (8-4)

ya que la regin
z
D del plano xy donde z y x s + es el rea sombreada en la figura. 8.2
a la izquierda de la lnea . z y x = + La integracin en la franja horizontal a lo largo
del eje "x" en primer lugar (integral interior), seguido de deslizamiento que tira a lo
largo del eje yde a + (integral externa) que cubren toda el rea sombreada.

Podemos encontrar ) ( z f
Z
diferenciando directamente ) ( z F
Z
. En este contexto, es til
recordar la regla de diferenciacin en (7-15) - (7-16) debido a Leibniz.
Supongamos
}
=
) (
) (
. ) , ( ) (
z b
z a
dx z x h z H (8-5)
Entonces
( ) ( )
}
c
c
+ =
) (
) (
.
) , (
), (
) (
), (
) ( ) (
z b
z a
dx
z
z x h
z z a h
dz
z da
z z b h
dz
z db
dz
z dH
(8-6)

Usando (8-6) en (8-4), obtenemos




(8-7)

Por otra parte, la integracin en (8-4) se puede realizar, en primer lugar a lo largo
del eje Y seguida por el eje X como en la figura. 8.3.

En este caso
} }
+
=

=
=




, ) , ( ) (
x
x z
y
XY Z
dxdy y x f z F (8-8)

Y la diferenciacin de (8-8), nos da
}
} }
+
=
+
=

=
=
|
.
|

\
|
c
c
= =






. ) , (
) , (
) (
) (
x
XY
x
x z
y
XY
Z
Z
dx x z x f
dx dy y x f
z dz
z dF
z f
(8-9)

Si X y Y son independientes, entonces




( , )
( ) ( , ) ( , ) 0
( , ) .
z y z y
XY
Z XY XY
XY
f x y
f z f x y dx dy f z y y dy
z z
f z y y dy
+ +

+

c c | | | |
= = +
| |
c c
\ . \ .
=
} } } }
}
) ( ) ( ) , ( y f x f y x f
Y X XY
= (8-10)

e insertando (8-10) en (8-8) y (8-9), obtenemos

. ) ( ) ( ) ( ) ( ) (




} }
+
=
+
=
= =
x
Y X
y
Y X Z
dx x z f x f dy y f y z f z f (8-11)

La integral anterior es la convolucin de las funciones estndar ) ( z f
X
y ) ( z f
Y

expresando dos formas diferentes. As llegamos a la siguiente conclusin: Si dos r.vs
son independientes, entonces la densidad de su suma es igual a la convolucin de las
funciones de su densidad.

Como caso especial, supongo que 0 ) ( = x f
X
para 0 < x y 0 ) ( = y f
Y
para , 0 < y entonces,
podemos hacer uso de la figura. 8.4 para determinar los nuevos lmites de .
z
D

En este caso
} }
=

=
=
z
y
y z
x
XY Z
dxdy y x f z F

0

0
) , ( ) (
O

s
>
=
|
.
|

\
|
c
c
=
}
} }
=

=
. 0 , 0
, 0 , ) , (
) , ( ) (

0
0

0
z
z dy y y z f
dy dx y x f
z
z f
z
XY
z
y
y z
x
XY Z
(8-12)
Por otra parte, considerando primero franjas verticales en la figura. 8.4, obtenemos
} }
=

=
=
z
x
x z
y
XY Z
dydx y x f z F

0

0
) , ( ) (
O

s
>
= =
}
}
=
=
, 0 , 0
, 0 , ) ( ) (
) , ( ) (

0
0
z
z dx x z f x f
dx x z x f z f
z
y
Y X
z
x
XY Z

si X y Y son variables aleatorias independientes.

Ejemplo 8.2: Supongamos que X e Y son r.vs independientes exponenciales con parmetro
comn , y dado Z = X + Y. Determine ). ( z f
Z

Solucin: Tenemos ), ( ) ( ), ( ) ( y U e y f x U e x f
y
Y
x
X



= = (8-14)
y podemos hacer uso de (13) para obtener el pdf de Z = X + Y.

). ( ) (
2
0
2
0
) ( 2
z U e z dx e dx e e z f
z
z
z
z
x z x
Z



= = =
} }
(8-15)

Como muestra el ejemplo siguiente, se debe tener cuidado en el uso de la frmula de
convolucin para r.vs con rango finito.


Ejemplo 8.3: X e Y son r.vs independientes uniformes en el intervalo comn (0,1).
Determinar ), ( z f
Z
donde Z = X + Y.
Solucin: Es evidente que 2 0 < < + = z Y X Z aqu, y como la figura. 8.5 muestra que
hay dos casos de z para los que las reas sombreadas son muy diferentes en forma y que
debe considerarse por separado.

Para , 1 0 < s z
. 1 0 ,
2
) ( 1 ) (
2

0

0

0
< s = = =
} } }
= =

=
z
z
dy y z dxdy z F
z
y
z
y
y z
x
Z
(8-16)

Para , 2 1 < s z note que es fcil de tratar con la regin sin sombra. En ese caso
( )
. 2 1 ,
2
) 2 (
1 ) 1 ( 1
1 1 1 ) (
2
1
1 z
1
1
1

< s

= + =
= > =
}
} }
=
= =
z
z
dy y z
dxdy z Z P z F
y
z y y z x
Z
(8-17)

Utilizando (8-16) - (8-17), obtenemos

< s
< s
= =
. 2 1 , 2
, 1 0
) (
) (
z z
z z
dz
z dF
z f
Z
Z
(8-18)
Por convolucin directa ) ( x f
X
y ), ( y f
Y
se obtiene el mismo resultado que el anterior.
De hecho, para 1 0 < s z (Fig. 8.6 (a))
. 1 ) ( ) ( ) (

0
z dx dx x f x z f z f
z
Y X Z
= = =
} }
(8-19)

y para 2 1 < s z (Fig. 8.6 (b))

. 2 1 ) (
1
1
z dx z f
z
Z
= =
}

(8-20)
Fig. 8.6 (c) muestra que est de acuerdo con la convolucin de dos formas de onda
rectangulares tambin.



Ejemplo 8.3 (4): Dados . Y X Z = Determinar su pdf ). ( z f
Z

Solucin: A partir de (8-3) y la figura. 8.7

( )
} }
+
=
+
=
= s =




) , ( ) (
y
y z
x
XY Z
dxdy y x f z Y X P z F
y por lo tanto



Si X e Y son independientes, entonces la frmula anterior se reduce a



que representa la convolucin de ) ( z f
X
con ). ( z f
Y


Como caso especial, supongamos
. 0 , 0 ) ( and , 0 , 0 ) ( < = < = y y f x x f
Y X

En este caso, Z puede ser negativo y positivo, y que da lugar a
dos situaciones que deben ser analizados por separado, ya que
la regin de integracin 0 > z y 0 < z son muy diferentes. Para
0 < z la figura. 8.8 (a)



( )
( ) ( , ) ( , ) .
z y
Z
Z XY XY
y x
dF z
f z f x y dx dy f y z y dy
dz z
+ + +
= =
c
| |
= = = +
|
c
\ .
} } }


( ) ( ) ( ) ( ) ( ),
Z X Y X Y
f z f z y f y dy f z f y
+

= + =
}
} }
+
=
+
=
=

0

0
) , ( ) (
y
y z
x
XY Z
dxdy y x f z F
y para , 0 < z de la figura 8.8 (b)
} }
+
=
+
=
=



0
) , ( ) (
z y
y z
x
XY Z
dxdy y x f z F

Despus de la diferenciacin, esto da

< +
> +
=
}
}
+

+
. 0 , ) , (
, 0 , ) , (
) (



0
z dy y y z f
z dy y y z f
z f
z
XY
XY
Z
(8-23)


Ejemplo 8.4: Habida cuenta de Z = X / Y, obtener su funcin de densidad.
Solucin: Tenemos ( ) . / ) ( z Y X P z F
Z
s = (8-24)
La desigualdad z Y X s / se puede escribir como Yz X s si , 0 > Y y Yz X > si . 0 < Y Por
lo tanto el evento ( ) z Y X s / en (8-24) tienen que estar condicionados por el evento
( ) 0 > = Y A y su complemento .
__
A Dado que por el teorema de particin,
tenemos

{ } { } { } { } A z Y X A z Y X A A z Y X z Y X s s = s = s ) / ( ) / ( ) ( ) / ( /

y por lo tanto por la propiedad mutuamente excluyentes de dos eventos

( ) ( ) ( )
( ) ( ) . 0 , 0 ,
0 , / 0 , / /
< > + > s =
< s + > s = s
Y Yz X P Y Yz X P
Y z Y X P Y z Y X P z Y X P
(8-25)

Fig. 8.9 (a) muestra la zona correspondiente a la primera parte, y la figura. 8.9 (b)
muestra que corresponde al segundo trmino de (8-25).

La integracin en estas dos regiones, nos da

. ) , ( ) , ( ) (
0




0


} } } }
=

=
+
= =
+ =
y yz x
XY
y
yz
x
XY Z
dxdy y x f dxdy y x f z F (8-26)

La diferenciacin con respecto a z, da

. , ) , ( | |
) , ( ) ( ) , ( ) (


0


0
+ < < =
+ =
}
} }
+


+
z dy y yz f y
dy y yz f y dy y yz yf z f
XY
XY XY Z
(8-27)
__
, A A = O

Tenga en cuenta que si X e Y son variables aleatorias no negativas, entonces el rea de
la integracin se reduce a la que se muestra en la figura. 8.10.

Esto da
} }

= =
=

0

0
) , ( ) (
y
yz
x
XY Z
dxdy y x f z F
O

>
=
}
+
otherwise. , 0
, 0 , ) , (
) (

0
z dy y yz f y
z f
XY
Z
(8-28)

Ejemplo 8.5: X e Y son variables aleatorias conjuntamente normal con media cero, por lo
que .
1 2
1
) , (
2
2
2
2 1
2
1
2
2
2
) 1 ( 2
1
2
2 1
|
|
.
|

\
|
+

=
o o o o
o to
y rxy x
r
XY
e
r
y x f (8-29)

Demostrar que la relacin Z = X / Y tiene una funcin de densidad de Cauchy centrada en
. /
2 1
o o r
Solucin: Insertando (8-29) en (8-27) y usando el hecho de que ), , ( ) , ( y x f y x f
XY XY
=
obtenemos
,
1
) (
1 2
2
) (
2
2 1
2
0
0
2 /
2
2 1
2
0
2
r
z
dy ye
r
z f
y
Z

=
}


o to
o
o to
o

Donde
.
1 2
1
) (
2
2 2 1
2
1
2
2
2
0
o o o o
o
+

=
rz z
r
z
Por lo tanto
,
) 1 ( ) / (
/ 1
) (
2 2
1
2
2 1
2
2
2
2 1
r r z
r
z f
Z
+

=
o o o o
t o o
(8-30)

lo que representa un r.v Cauchy centrada en . /
2 1
o o r . La integracin de (8-30) a partir
de para z, se obtiene la funcin de distribucin que corresponde a

.
1
arctan
1
2
1
) (
2
1
1 2
r
r z
z F
Z

+ =
o
o o
t
(8-31)

Ejemplo 8.6: .
2 2
Y X Z + = Obtener ). ( z f
Z

Solucin: Tenemos ( ) . ) , ( ) (
2 2
2 2
} }
s +
= s + =
z Y X
XY Z
dxdy y x f z Y X P z F (8-23)
Sin embargo, z Y X s +
2 2
representa el rea de un crculo de radio , z y por lo tanto
de la figura. 8.11,
. ) , ( ) (




2
2
} }
=

=
=
z
z y
y z
y z x
XY Z
dxdy y x f z F
(8-33)

Esto da despus de la diferenciacin repetida
( ) . ) , ( ) , (
2
1
) (


2 2
2
}
=
+

=
z
z y
XY XY Z
dy y y z f y y z f
y z
z f (8-34)

Como ejemplo, consideremos el siguiente ejemplo.



Ejemplo 8.7: X e Y son independientes r.vs normal con cero
Media y la varianza comn .
2
o Determinar ) ( z f
Z
para .
2 2
Y X Z + =
Solucin: Sustitucin directa de (29.08) con o o o = = =
2 1
, 0 r
En (8-34) da





(8-35)


donde hemos utilizado la sustitucin . sin u z y = A partir de (8-35)
tenemos el siguiente resultado: Si X e Y son independientes cero
significa r.vs Gaussiano con varianza comn ,
2
o entonces,
2 2
Y X + es un r.vs
exponencial con el parmetro . 2
2
o


Ejemplo 8.8: Dado .
2 2
Y X Z + = Buscar ). ( z f
Z

Solucin: De la figura. 8.11, el presente caso corresponde a una
crculo de radio .
2
z Por lo tanto
2
2 2 2
2
2
/ 2

( ) / 2
2 2
2 2 0
/ 2
/2
/ 2
2 2
0
1 1 1
( ) 2
2
2
cos 1
( ),
2
cos
z
z z
z y y
Z
y z
z
z
e
f z e dy dy
z y z y
e z
d e U z
z
o
o
o
t
o
to to
u
u
to o
u

+
=

| |
= =
|
\ .

= =
} }
}
. ) , ( ) (




2 2
2 2 } }
=

=
=
z
z y
y z
y z x
XY Z
dxdy y x f z F

Y por la diferenciacin repetida, se obtiene.
( ) . ) , ( ) , ( ) (


2 2 2 2
2 2
}

=
z
z
XY XY Z
dy y y z f y y z f
y z
z
z f (8-36)

Ahora supongamos que X e Y son independientes de Gauss como en el ejemplo 8.7. En ese
caso, (8-36) se simplifica a

), (
cos
cos 2


1 2
2
1
2 ) (
2 2 2 2
2 2 2 2 2 2
2 /
2
/2
0
2 /
2

0 2 2
2 /
2

0
2 / ) (
2
2 2
z U e
z
d
z
z
e
z
dy
y z
e
z
dy e
y z
z
z f
z z
z
z
z
y y z
Z
o
t
o
o o
o
u
u
u
to
to to

+
= =

=
}
} }

(8-37)

lo que representa una distribucin de Rayleigh. Por lo tanto, si , iY X W + = donde X e
Y son r.vs real, independiente normal con media cero y varianza iguales, entonces la rv
2 2
Y X W + = tiene una densidad de Rayleigh. W se dice que es una variable aleatoria
gaussiana de media cero complejo, cuyas partes real e imaginaria son independientes
r.vs. A partir de (8-37), hemos visto que su magnitud tiene una distribucin de
Rayleigh.
Qu pasa con la fase ? tan
1
|
.
|

\
|
=

Y
X
u (8-38)

Es evidente que el principal valor de u se encuentra en el intervalo ). 2 / , 2 / ( t t Si
dejamos que a continuacin del ejemplo 8.5, U tiene una distribucin
de Cauchy con (ver (8-30) con 0 ,
2 1
= = r o o ).

. ,
1
/ 1
) (
2
< <
+
= u
u
u f
U
t
(8-39)

Como resultado

< <
=
+
= =
. otherwise , 0
, 2 / 2 / , / 1
1 tan
/ 1
) sec / 1 (
1
) (tan
| / |
1
) (
2 2
t u t t
u
t
u
u
u
u
u U
f
du d
f (8-40)

En resumen, la magnitud y la fase de una media cero RV gaussiano complejo dispone de
Rayleigh y la distribucin uniforme, respectivamente. Curiosamente, como demostraremos
ms adelante, estos dos r.vs derivados tambin son independientes el uno del otro!

Vamos a reconsiderar ejemplo 8.8, donde X e Y tienen medios
X
y
Y
distinto de cero,
respectivamente. Entonces
2 2
Y X Z + = se dice que una v.a. Rician Esta escena se
tan / , U X Y u = =
presenta en la situacin de desvanecimiento multitrayecto donde hay un componente
constante dominante (media), adems de una media cero rv gaussiana El componente
constante puede ser la lnea de la seal de la vista y el cero: la porcin rv Gauss
podra deberse al azar componentes mltiples sumando incoherentemente (ver el diagrama
abajo). La dotacin de esta seal se dice que tiene un pdf Rician.


Ejemplo 8.9: ejemplo Rehacer 8.8, donde X e Y tienen medios
X
y
Y
distinto de cero,
respectivamente. Solucin: Desde
,
2
1
) , (
2 2 2
2 / ] ) ( ) [(
2
o
to
Y X
y x
XY
e y x f
+
=

sustituyendo esto en (8-36) y dejando



tenemos la funcin de densidad de probabilidad Rician ser

( )
,
2


2


2
) (
2
0
2
2 / ) (
/2 3
/2
/ ) cos(
/2
/2
/ ) cos(
2
2 / ) (
/2
/2
/ ) cos( / ) cos(
2
2 / ) (
2 2 2
2 2
2 2 2
2 2
2 2 2
|
.
|

\
|
=
|
.
|

\
|
+ =
+ =
+

+
+
} }
}
o

to
u u
to
u
to
o
t
t
o | u
t
t
o | u
o
t
t
o | u o | u
o
z
I
ze
d e d e
ze
d e e
ze
z f
z
z z
z
z z
z
Z

(8-41)
Donde
} }
= =

t
u q
t
| u q
u
t
u
t
q

0
cos
2
0
) cos(
0
1
2
1
) ( d e d e I (8-42)

es la funcin Bessel modificada de primera especie y orden cero.


Ejemplo 8.10: ). , min( ), , max( Y X W Y X Z = = Determinar ). ( z f
Z

Solucin: El mximo y mnimo son funciones no lineales operadores y representan casos
especiales de las estadsticas de orden ms general. En general, dado cualquier n-tupla
, , , ,
2 1 n
X X X podemos colocarlos en un orden creciente de tal magnitud que
,
) ( ) 2 ( ) 1 ( n
X X X s s s (8-43)

dnde ( ) , , , , min
2 1 ) 1 ( n
X X X X = y
) 2 (
X el valor ms pequeo es el segundo lugar entre
, , , ,
2 1 n
X X X y finalmente ( ) . , , , max
2 1 ) ( n n
X X X X = Si
n
X X X , , ,
2 1
representan
r.vs, la funcin
) ( k
X asume el valor
) ( k
x de cada posible secuencia ( )
n
x x x , , ,
2 1
, se
conoce como el estadstico de orden k-simo ,
representan el conjunto de estadsticas de orden entre n variables aleatorias. En este
(1) ( 2 ) ( )
( , , , )
n
X X X
2 2
cos , sin , , cos , sin ,
X Y X Y
x z y z u u | | = = = + = =
contexto

) 1 ( ) (
X X R
n
= (8-44)
representa el rango, y cuando n = 2, tenemos las estadsticas de mximo y mnimo.
Volviendo de nuevo a ese problema, ya que

s
>
= =
, ,
, ,
) , max(
Y X Y
Y X X
Y X Z (8-45)
tenemos (vase tambin (8-25))

( ) ( ) ( ) | |
( ) ( ), , ,
, , ) , max( ) (
Y X z Y P Y X z X P
Y X z Y Y X z X P z Y X P z F
Z
s s + > s =
s s > s = s =


desde entonces (X>Y)y (X=<Y) son mutuamente exclusivos conjuntos que forman una
particin. Las figuras 8.12 (a) - (b) muestran las regiones satisfacer las desigualdades
correspondientes en cada perodo anterior.


Fig. 8.12 (c) representa el total de la regin, y desde all

( ) ). , ( , ) ( z z F z Y z X P z F
XY Z
= s s = (8-46)

Si X e Y son independientes,
) ( ) ( ) ( y F x F z F
Y X Z
=
y por lo tanto
). ( ) ( ) ( ) ( ) ( z F z f z f z F z f
Y X Y X Z
+ = (8-47)
Del mismo modo

s
>
= =
. ,
, ,
) , min(
Y X X
Y X Y
Y X W (8-48)
Por lo tanto
( ) ( ) ( ) | |. , , ) , min( ) ( Y X w X Y X w Y P w Y X P w F
W
s s > s = s =

Una vez ms, las reas sombreadas en la figura. 8.13 (a) - (b) muestran las regiones por
encima de satisfacer las desigualdades y la figura 8.13 (c) muestra la regin en
general.

De la figura. 8.13 (c),
( ) ( )
, ) , ( ) ( ) (
, 1 1 ) (
w w F w F w F
w Y w X P w W P w F
XY Y X
W
+ =
> > = > =
(8-49)

donde el uso que hemos hecho de (7-5) y (7-12) con ,
2 2
+ = = y x y .
1 1
w y x = =

Ejemplo 8.11: Sean X e Y son independientes r.vs exponencial con parmetro comn .
Definido ). , min( Y X W = Buscar ? ) ( w f
W

Solucin: A partir de (8-49)
) ( ) ( ) ( ) ( ) ( w F w F w F w F w F
Y X Y X W
+ =
y por lo tanto
). ( ) ( ) ( ) ( ) ( ) ( ) ( w f w F w F w f w f w f w f
Y X Y X Y X W
+ =

Pero , ) ( ) (
w
Y X
e w f w f


= = y , 1 ) ( ) (
w
Y X
e w F w F

= = para que

). ( 2 ) 1 ( 2 2 ) (
2
w U e e e e w f
w w w w
W



= = (8-50)

As, min (X, Y) tambin es exponencial con parmetro 2 .


Ejemplo 8.12: Supongamos que X e Y son como dar en el ejemplo anterior. Definido
| |. ) , max( / ) , min( Y X Y X Z = Determinar ). ( z f
Z

Solucin: Aunque ) max( / ) min( representa una funcin complicada, dividiendo todo el
espacio que antes, es posible simplificar esta funcin. De hecho

>
s
=
. , /
, , /
Y X X Y
Y X Y X
Z (8-50)
Al igual que antes, esto le da

(8-52)

Puesto que X e Y son dos variables positivas al azar en este caso, que tenemos . 1 0 < < z
Las regiones sombreadas en las figuras 8.14 (a) - (b) representan los dos trminos en la
suma anterior.
( ) ( ) ( )
( ) ( )
( ) / , / ,
, , .
Z
F z P Z z P X Y z X Y P Y X z X Y
P X Yz X Y P Y Xz X Y
= s = s s + s >
= s s + s >

De la figura. 8.14

. ) , ( ) , ( ) (

0
z
0

0

0
} } } }

=

=
+ =
x
y
XY
yz
x
XY Z
dydx y x f dxdy y x f z F (8-53)

Por lo tanto
{ }
{ }

< <
+
=
+
= = + =
+ = + =
} } }
} } }

+ +

. otherwise , 0
, 1 0 ,
) 1 (
2

) 1 (
2
2
) , ( ) , ( ) , ( ) , ( ) (
2

0
2

0
) 1 ( 2
0
) ( ) ( 2

0

0

0
z
z
dy ue
z
dy ye dy e e y
dy yz y f y yz f y dx xz x f x dy y yz f y z f
u y z yz y y yz
XY XY XY XY Z


(8-54)






Ejemplo 8.13 (caso discreto): Sean X e Y son independientes las variables aleatorias de
Poisson con parmetros
1
y
2
, respectivamente. Sea . Y X Z + = Determinar el p.m.f de
Z.
Solucin: Puesto que X e Y ambos toman valores enteros { }, , 2 , 1 , 0 lo mismo es cierto
para la Z. Para cualquier n Y X n = + = , , 2 , 1 , 0 da slo un nmero finito de opciones
para X e Y. De hecho, si X = 0, entonces Y debe ser n, si X = 1, entonces Y debe ser n-
1, etc As, el evento } { n Y X = + es la unin de (n + 1) eventos mutuamente excluyentes
k
A propuestos por

. , , 2 , 1 , 0 n k = (8-55)
Como resultado da
( )
. ) , (
, ) ( ) (
0
0

=
=
= = =
|
|
.
|

\
|
= = = = + = =
n
k
n
k
k n Y k X P
k n Y k X P n Y X P n Z P

(8-56)
Si X e Y son independientes,
{ } , ,
k
A X k Y n k = = =

( ) ) ( ) ( , k n Y P k X P k n Y k X P = = = = =
y por lo tanto
. , , 2 , 1 , 0 ,
!
) (

)! ( !
!
! )! ( !

) , ( ) (
2 1 ) (
0
2 1
) (
2
0
1
0
2 1
2 1
2 1
=
+
=

=
= = = =
+
=

n
n
e
k n k
n
n
e
k n
e
k
e
k n Y k X P n Z P
n
n
k
k n k
k n n
k
k
n
k






(8-57)
Por lo tanto Z representa una variable aleatoria de Poisson con parmetro ,
2 1
+ que
indica que la suma de variables independientes aleatoria de Poisson es tambin una
variable aleatoria de Poisson cuyo parmetro es la suma de los parmetros de las
variables aleatorias originales.

Como el ltimo ejemplo ilustra el procedimiento anterior para la determinacin del pmf
de funciones de variables aleatorias discretas es algo tedioso. Como veremos en la clase
10, la funcin caracterstica conjunta se pueden utilizar en este contexto para resolver
los problemas de este tipo de una manera ms fcil.





























LECT-9A
9. DOS FUNCIONES DE DOS VARIABLES ALEATORIAS

En la esencia de la lectura anterior, echemos un vistazo a una generalizacin inmediata:
Supongamos que X e Y son dos variables aleatorias con pdf conjunta ). , ( y x f
XY
Dadas dos
funciones ) , ( y x g y ), , ( y x h definir las nuevas variables aleatorias
). , (
) , (
Y X h W
Y X g Z
=
=
(9-1) (9-2)

Cmo se determina su pdf conjunta ? ) , ( w z f
ZW
Obviamente, con ) , ( w z f
ZW
en mano, los
pdfs marginales ) ( z f
Z
y ) ( w f
W
pueden ser fcilmente determinadas.

El procedimiento es el mismo que en (8-3). De hecho, para dado z y w,

( ) ( )
( )
} }
e
= e =
s s = s s =
w z
D y x
XY w z
ZW
dxdy y x f D Y X P
w Y X h z Y X g P w W z Z P w z F
,
) , (
,
, ) , ( ) , (
) , ( , ) , ( ) ( , ) ( ) , (
(9-3)

dnde
w z
D
,
es la regin en el plano xy tal que las desigualdades z y x g s ) , ( y
w y x h s ) , ( simultneamente satisfecho.

Se ilustra esta tcnica en el siguiente ejemplo.



Ejemplo 9.1: Supongamos que X e Y son independientes distribuidas uniformemente
variables aleatorias en el intervalo ). , 0 ( u Definido ). , max( ), , min( Y X W Y X Z = =
Determinar ). , ( w z f
ZW

Solucin: Es evidente que tanto w y z varan en el intervalo ). , 0 ( u
Por lo tanto. . 0 or 0 if , 0 ) , ( < < = w z w z F
ZW
(9-4)
( ) ( ) . ) , max( , ) , min( , ) , ( w Y X z Y X P w W z Z P w z F
ZW
s s = s s = (9-5)

Debemos considerar dos casos: z w > y , z w < puesto que dan lugar a diferentes regiones
para
w z
D
,
(vanse las figuras 9.2(a)-(b)).




Para , z w > a partir de la figura. 9.2 (a), la regin
w z
D
,
est representada por el
rea sombreada por partida doble. As

, , ) , ( ) , ( ) , ( ) , ( z w z z F z w F w z F w z F
XY XY XY ZW
> + = (9-6)

y para , z w < a partir de la figura. 9.2 (b), obtenemos

. , ) , ( ) , ( z w w w F w z F
XY ZW
< = (9-7)
Con
, ) ( ) ( ) , (
2
u u u
xy y x
y F x F y x F
Y X XY
= = = (9-8)

obtenemos

(9-9)

As

< < <


=
. otherwise , 0
, 0 , / 2
) , (
2
u u w z
w z f
ZW
(9-10)

A partir de (9-10), tambin obtenemos

, 0 , 1
2
) , ( ) (


u
u u
u
< < |
.
|

\
|
= =
}
z
z
dw w z f z f
z
ZW Z
(9-11)
Y
. 0 ,
2
) , ( ) (

0
2
u
u
< < = =
}
w
w
dz w z f w f
w
ZW W
(9-12)

Si ) , ( y x g y ) , ( y x h son funciones continuas y diferenciables, entonces, como en el caso
de una variable aleatoria (ver (5.30)), es posible desarrollar una frmula para obtener
el conjunto pdf ) , ( w z f
ZW
directamente. Con este, tenga en cuenta las ecuaciones
. ) , ( , ) , ( w y x h z y x g = = (9-13)

Por un momento dado (z, w), la ecuacin (9-13) puede tener muchas soluciones. Digamos
), , ( , ), , ( ), , (
2 2 1 1 n n
y x y x y x
representan las mltiples soluciones como (vase la Fig. 9.3)









2
2 2
(2 ) / , 0 ,
( , )
/ , 0 .
ZW
w z z z w
F z w
w w z
u u
u u
< < <
=

< < <

Considerando el problema de evaluacin, la probabilidad



( )
( ) . ) , ( , ) , (
,
w w Y X h w z z Y X g z P
w w W w z z Z z P
A + s < A + s < =
A + s < A + s <
(9-15)

Usando (7.9) podemos reescribir (9.15) como

( ) . ) , ( , w z w z f w w W w z z Z z P
ZW
A A = A + s < A + s < (9-16)

Pero traducir esta probabilidad en trminos de ), , ( y x f
XY
tenemos que evaluar la regin
equivalente w z A A en el plano xy. Con este se refiere a la figura. 9.4, se observa que
el punto A de coordenadas (z, w) se proyecta sobre el punto Ade coordenadas ) , (
i i
y x
(as como a otros puntos como en la fig. 9.3 (b)). Como z cambia para z z A + en el
punto B en la figura. 9.4 (a), da Brepresenta su imagen en el plano xy. Del mismo modo
como w w A + para C, da Cque representa su imagen en el plano xy.


Por ltimo desarrollo se destina a , D' y D C B A ' ' ' '
representa el paralelogramo
equivalente en el plano XY con el rea .
i
A Volviendo a la figura. 9.3, la probabilidad
de (9-16) puede ser expresada como alternativa

( ) . ) , ( ) , (

A = A e
i
i i i XY
i
i
y x f Y X P (9-17)

Igualando (9-16) y (9-17) obtenemos

. ) , ( ) , (

A A
A
=
i
i
i i XY ZW
w z
y x f w z f (9-18)

Para simplificar (9-18), tenemos que evaluar el rea
i
A de los paralelogramos de la
figura. 9.3 (b) en trminos de . w zA A Con esto,
1
g y
1
h denotan que la transformacin
inversa de (9-14), de modo que

). , ( ), , (
1 1
w z h y w z g x
i i
= = (9-19)

Como el punto (z, w) va a , ) , ( A y x
i i
' el punto , ) , ( B w z z ' A + el punto
, ) , ( C w w z ' A + y el punto . ) , ( D w w z z ' A + A + Por lo tanto, las coordenadas
respectivas x y y de B' estn dadas por

, ) , ( ) , (
1 1
1 1
z
z
g
x z
z
g
w z g w z z g
i
A
c
c
+ = A
c
c
+ = A + (9-20)
Y
. ) , ( ) , (
1 1
1 1
z
z
h
y z
z
h
w z h w z z h
i
A
c
c
+ = A
c
c
+ = A + (9-21)

Del mismo modo los de C ' estn dadas por

. ,
1 1
w
w
h
y w
w
g
x
i i
A
c
c
+ A
c
c
+ (9-22)

El rea del paralelogramo D C B A ' ' ' '
de la figura. 9.4 (b) est dada por

( ) ( )
( ) ( ) ( ) ( ) . cos sin sin cos
) sin(
u u
u
C A B A C A B A
C A B A
i
' ' ' ' ' ' ' ' =
' ' ' ' = A
(9-23)

Pero a partir de la figura. 9.4 (b) y (9-20) - (9-22)

. cos , sin
, sin , cos
1 1
1 1
w
w
g
C A z
z
h
B A
w
w
h
C A z
z
g
B A
A
c
c
= ' ' A
c
c
= ' '
A
c
c
= ' ' A
c
c
= ' '
u
u
(9-24)

de modo que
w z
z
h
w
g
w
h
z
g
i
A A |
.
|

\
|
c
c
c
c

c
c
c
c
= A
1 1 1 1
(9-26)


Y
|
|
|
|
|
.
|

\
|
c
c
c
c
c
c
c
c
= |
.
|

\
|
c
c
c
c

c
c
c
c
=
A A
A
w
h
z
h
w
g
z
g
z
h
w
g
w
h
z
g
w z
i
1 1
1 1
1 1 1 1
det (9-27)

El lado derecho de (9-27) representa el jacobiano de la transformacin
en (9-19). As


(9-28)


( , ) J z w
1 1
1 1
( , ) det .
g g
z w
J z w
h h
z w
c c
| |
|
c c
|
=
|
|
c c
|
c c \ .


Sustituyendo (9.27) - (9.28) en (9.18), obtenemos

, ) , (
| ) , ( |
1
) , ( | ) , ( | ) , (

= =
i
i i XY
i i i
i i XY ZW
y x f
y x J
y x f w z J w z f (9-29)
Desde
| ) , ( |
1
| ) , ( |
i i
y x J
w z J = (9-30)

donde representa el jacobiano de la transformacin original en (9-13) dada por
. det ) , (
,
i i
y y x x
i i
y
h
x
h
y
g
x
g
y x J
= =
|
|
|
|
|
.
|

\
|
c
c
c
c
c
c
c
c
= (9-31)

A continuacin vamos a ilustrar la utilidad de la frmula (9-29) a travs de varios
ejemplos:

Ejemplo 9.2: Supongamos que X e Y son independientes de media cero r.vs Gaussiana con
varianza comn .
2
o Definido ), / ( tan ,
1 2 2
X Y W Y X Z

= + = donde . 2 / | | t s w Obtener
). , ( w z f
ZW

Solucin: Aqu.
.
2
1
) , (
2 2 2
2 / ) (
2
o
to
y x
XY
e y x f
+
= (9-32)
Desde
, 2 / | | ), / ( tan ) , ( ; ) , (
1 2 2
t s = = + = =

w x y y x h w y x y x g z (9-33)
si ) , (
1 1
y x es un par solucin tambin lo es ). , (
1 1
y x A partir de (9-33)

. tan or , tan w x y w
x
y
= = (9-34)

Sustituyendo en z, obtenemos

. cos or , sec tan 1
2 2 2
w z x w x w x y x z = = + = + = (9-35)
Y
. sin tan w z w x y = = (9-36)

As, hay dos conjuntos de soluciones

. sin , cos , sin , cos
2 2 1 1
w z y w z x w z y w z x = = = = (9-37)
( , )
i i
J x y
Podemos usar (9-35) - (9-37) para obtener ). , ( w z J A partir de (9-28)
,
cos sin
sin cos
) , ( z
w z w
w z w
w
y
z
y
w
x
z
x
w z J =

=
c
c
c
c
c
c
c
c
= (9-38)
de modo que
. | ) , ( | z w z J = (9-39)

Tambin podemos calcular ) , ( y x J con (9-31). A partir de (9-33),
.
1 1
) , (
2 2
2 2 2 2
2 2 2 2
z
y x
y x
x
y x
y
y x
y
y x
x
y x J =
+
=
+ +

+ +
= (9-40)

Tenga en cuenta que |, ) , ( | / 1 | ) , ( |
i i
y x J w z J = de acuerdo con (9-30). Sustituyendo (9-37)
y (9-39) o (9-40) en (9-29), obtenemos

( )
.
2
| | , 0 ,
) , ( ) , ( ) , (
2 2
2 /
2
2 2 1 1
t
to
o
< < < =
+ =

w z e
z
y x f y x f z w z f
z
XY XY ZW
(9-41)

As

, 0 , ) , ( ) (
2 2
2 /
2
2 /
2 /
< < = =

}
z e
z
dw w z f z f
z
ZW Z
o
t
t
o
(9-42)

lo que representa una variable aleatoria de Rayleigh con parmetro ,
2
o y

,
2
| | ,
1
) , ( ) (

0
t
t
< = =
}

w dz w z f w f
ZW W
(9-43)

lo que representa una variable aleatoria uniforme en el intervalo ). 2 / , 2 / ( t t Por otra
parte por clculo directo

) ( ) ( ) , ( w f z f w z f
W Z ZW
= (9-44)

lo que implica que Z y W son independientes. Resumimos estos resultados en la siguiente
declaracin: Si X e Y son iguales a cero significa que las variables aleatorias
independientes gaussiana con varianza comn,
2 2
Y X + tiene una distribucin de
Rayleigh y ) / ( tan
1
X Y

tiene una distribucin uniforme. Adems, estas dos r.vs


derivados son estadsticamente independientes. Por otra parte, con X e Y independientes
r.vs cero significa que en (9-32), X + jY representa un complejo de Gauss rv pero

,
jW
Ze jY X = + (9-45)

donde Z y W son como en (9-33), excepto que para (9-45) a buen agarre en todo el plano
complejo que debemos tener , t t < < W y por lo tanto se deduce que la magnitud y la
fase de un complejo de Gauss rv son independientes con las distribuciones uniformes y
Rayleigh, respectivamente. La independencia estadstica de estos
r.vs derivados es una observacin interesante.

Ejemplo 9.3: Sean X e Y son independientes las variables aleatoria exponencial con
parmetro comn. . Definir U = X + Y, V = X - Y. Buscar el pdf conjunta y marginal de
la U y V.
Solucin: Estando dado
. 0 , 0 ,
1
) , (
/ ) (
2
> > =
+
y x e y x f
y x
XY

(9-46)

Ahora bien, como u = x + y, v = x - y, siempre , | | u v < y slo hay una solucin dada para

.
2
,
2
v u
y
v u
x

=
+
= (9-47)

Adems, el jacobiano de la transformacin est dada por

2
1 1
1 1
) , ( =

= y x J

y por lo tanto
, | | 0 ,
2
1
) , (
/
2
< < < =

u v e v u f
u
UV

(9-48)

representa el p.d.f conjunta de U y V. Esto nos da

, 0 ,
2
1
) , ( ) (
/
2


/
2


< < = = =

} }
u e
u
dv e dv v u f u f
u
u
u
u
u
u
UV U


(9-49)
y

(9-50)


Tenga en cuenta que en este caso la U y V r.vs no son independientes.

Como se muestra a continuacin, la frmula de transformacin general en (9-29) haciendo
uso de dos funciones pueden ser de utilidad incluso cuando slo hay una funcin
especfica.

( ) ) , ( t t U

/ | |/
2
| | | |
1 1
( ) ( , ) , .
2 2
u v
V UV
v v
f v f u v du e du e v




= = = < <
} }
Variables auxiliares:
Suponer
), , ( Y X g Z = (9-51)

donde X e Y son dos variables aleatorias. Para determinar ) ( z f
Z
, haciendo uso de la
formulacin anterior en (9-29), podemos definir una variable auxiliar

Y W X W = = or (9-52)

y el pdf de Z se puede obtener a partir de ) , ( w z f
ZW
por adecuada integracin.
Ejemplo 9.4: Supongamos que Z = X + Y y sea W = Y para que la transformacin es uno a
uno y la solucin est dada por . ,
1 1
w z x w y = =

El jacobiano de la transformacin est dada por

1
1 0
1 1
) , ( = = y x J
y por lo tanto
) , ( ) , ( ) , (
1 1
w w z f y x f y x f
XY XY ZW
= =
O
} }
+

= =


, ) , ( ) , ( ) ( dw w w z f dw w z f z f
XY ZW Z


lo que concuerda con (8,7). Tenga en cuenta que (9-53) se reduce a la convolucin de
) ( z f
X
y ) ( z f
Y
si X e Y son variables aleatorias independientes. A continuacin, se
considera un ejemplo menos trivial.


Ejemplo 9.5: Sean ) 1 , 0 ( U X y ) 1 , 0 ( U Y independientes. Definir
( ) ). 2 cos( ln 2
2 / 1
Y X Z t = (9-54)
Encontrar la funcin de densidad de Z.
Solucin: Podemos hacer uso de la variable auxiliar W = Y en este caso. Esto le da la
nica solucin que es
( )
,
,
1
2 / ) 2 sec(
1
2
w y
e x
w z
=
=
t
(9-55)-(9-56)
y el uso de (9-28)

( )
( )
. ) 2 ( sec
1 0
) 2 ( sec
) , (
2 / ) 2 sec( 2
1 2 / ) 2 sec( 2
1 1
1 1
2
2
w z
w z
e w z
w
x
e w z
w
y
z
y
w
x
z
x
w z J
t
t
t
t

=
c
c

=
c
c
c
c
c
c
c
c
=
(9-57)

Sustituyendo (9-55) - (9-57) en (9-29), obtenemos

(9-58)



Y

(9-59)

Vamos a fin de que Observe que cuando w
vara de 0 a 1, u vara de a . + Usando en (9-59), obtenemos

, ,
2
1
2

2
1
) (
2 /
1


2 / 2 /
2 2 2
< < = =

+


}
z e
du
e e z f
z u z
Z
t t t

(9-60)

lo que representa un cero rv significa Gaussiana con varianza unidad. Por lo tanto
). 1 , 0 ( N Z La ecuacin (9-54) se puede utilizar como un procedimiento prctico para
generar variables aleatorias gaussianas de dos independientes distribuidas uniformemente
secuencias aleatorias.


Ejemplo 9.6: Sean X e Y independientes e idnticamente distribuciones
Geomtricas de variables aleatorias con

. , 2 , 1 , 0 , ) ( ) ( = = = = = k pq K Y P k X P
k


(a) Demostrar que min (X, Y) y X - Y son variables aleatorias independientes.
(b) Demostrar que min (X, Y) y max (X, Y) - min (X, Y) son tambin variables aleatorias
independientes.

Solucin: (a) Sea
Z = min (X, Y), y W = X Y. (9-61)

Tenga en cuenta que Z toma slo valores no negativos }, , 2 1, 0, { mientras que W tiene
valores positivos, cero y negativos }. , 2 1, 0, { Tenemos
P (Z = m, W = n) = P {min (X, Y) = m, X - Y = n}. Sin embargo,

= <
= >
= =
negative. is
e nonnegativ is
) , min(
Y X W Y X X
Y X W Y X Y
Y X Z
As
) , , ) , (min(
) , , ) , (min(
)} ( , , ) , {min( ) , (
Y X n Y X m Y X P
Y X n Y X m Y X P
Y X Y X n Y X m Y X P n W m Z P
< = = +
> = = =
< > = = = = =
(9-62)
( )
2
sec( 2 ) / 2 2
( , ) sec ( 2 ) ,
, 0 1,
z w
ZW
f z w z w e
z w
t
t

=
< < + < <
( )
2
2 1 1
tan( 2 ) / 2
/ 2 2
0 0
( ) ( , ) sec (2 ) .
z w
z
Z ZW
f z f z w dw e z w e dw
t
t

= =
} }
tan(2 ) u z w t =
2
2 sec (2 ) . du z w dw t t =

, 2 , 1 , 0 , 2 , 1 , 0 ,
0 , 0 , ) ( ) (
0 , 0 , ) ( ) (

) , , (
) , , ( ) , (
| | 2 2
= = =

< > = = =
> > = = + =
=
< = = +
> + = = = = =
+

+
n m q p
n m pq pq n m Y P m X P
n m pq pq m Y P n m X P
Y X n m Y m X P
Y X n m X m Y P n W m Z P
n m
n m m
m n m
(9-63)

representa la funcin de masa de probabilidad conjunta de las variables aleatorias
Z y W. Tambin
. , 2 , 1 , 0 , ) 1 (
) 1 ( ) 1 (
) 2 2 1 (
) , ( ) (
2
2 2 2
2 2 2
| | 2 2
1
2

= + =
+ = + =
+ + + =
= = = = =


m q q p
q pq q p
q q q p
q q p n W m Z P m Z P
m
m m
m
n n
n m
q
q
(9-64)

Por lo tanto Z representa una variable aleatoria Geomtrica, ya que ), 1 ( 1
2
q p q + = y





(9-65)


Note que
), ( ) ( ) , ( n W P m Z P n W m Z P = = = = = (9-66)

establece la independencia de las variables aleatorias Z y W.
La independencia de X - Y y min (X, Y) cuando X e Y son variables aleatorias independientes
geomtrica es una observacin interesante.

(b) Sea
Z = min (X, Y), R = max (X, Y) - min (X, Y). (9-67)

En este caso, Z y R tienen valores entero no negativos . , 2 1, 0,
Procediendo como en (9-62) - (9-63) obtenemos

2 2 | |
0 0
2 | | 2 4 2 | |
1
2
| |
1
1
( ) ( , )
(1 )
, 0, 1, 2, .
m n
m m
n n
n
q
p
q
P W n P Z m W n p q q
p q q q p q
q n

= =

+
= = = = =
= + + + =
= =

= =
= =
=

= =
= = +
=
< + = = + > = + = =
< + = = + > + = = =
< = = +
> = = = = =
+
+
+ +
. 0 , , 2 , 1 , 0 ,
, 2 , 1 , , 2 , 1 , 0 , 2

0 , , 2 , 1 , 0 ,
, 2 , 1 , , 2 , 1 , 0 ,

} , , ( ) , , {
} , , ( ) , , {
} , ) , min( ) , max( , ) , {min(
} , ) , min( ) , max( , ) , {min( } , {
2 2
2 2
n m q p
n m q p
n m pq pq
n m pq pq pq pq
Y X n m Y m X P Y X m Y n m X P
Y X n m Y m X P Y X n m X m Y P
Y X n Y X Y X m Y X P
Y X n Y X Y X m Y X P n R m Z P
m
n m
m n m
n m m m n m


(9-68)

La ecuacin. (9-68) representa la funcin de masa de probabilidad conjunta de Z y R
en (9-67). A partir de (9-68),

, 2 , 1 , 0 , ) 1 (
1 ) 2 1 ( } , { ) (
2
0
2 2
1
2 2
2
= + =
|
|
.
|

\
|
+ = + = = = = =

=
m q q p
q p q q p n R m Z P m Z P
m
n
m
n
n m
p
q
(9-69)
Y

=
=
= = = = =
+
+

=
. , 2 , 1 ,
0 ,
} , { ) (
1
2
1
0
n q
n
n R m Z P n R P
n
m
q
p
q
p
(9-70)

A partir de (9-68) - (9-70), obtenemos

) ( ) ( ) , ( n R P m Z P n R m Z P = = = = = (9-71)

lo que demuestra la independencia de las variables aleatorias Z y R
definidos en (9-67) tambin.














LECTR 10A
10. MOMENTOS CONJUNTAS Y FUNCIONES CARACTERSTICAS CONJUNTAS

Despus de la seccin 6, en esta seccin vamos a introducir varios parmetros para
representar de forma compacta la informacin contenida en el pdf conjunta de dos r.vs.
Dadas dos r.vs X e Y y una funcin ), , ( y x g definir la rv

) , ( Y X g Z = (10-1)

Usando (2-6), podemos definir la media de Z

. ) ( ) (


}
+

= = dz z f z Z E
Z Z
(10-2)

Sin embargo, la situacin aqu es similar a la de (6-13), y es posible expresar la media
) , ( Y X g Z = en trminos ) , ( y x f
XY
de computacin sin ). ( z f
Z
Para ver esto, recordamos
a partir de (5-26) y (7-10)

( ) ( )

A
e
A A =
A + s < = A = A + s <
z
D y x
XY
Z
y x y x f
z z Y X g z P z z f z z Z z P
) , (
) , (
) , ( ) (
(10-3)

Dnde est la regin en el plano xy que satisfacen la desigualdad anterior. A partir de
(10-3), obtenemos

(10-4)


Como las cubiertas de todo el eje z, las regiones correspondientes
z
D
A
que no se
superponen y cubren el plano xy todo.

Mediante la integracin de (4.10), obtenemos la frmula til

(10-5)

O

(10-6)

Si X e Y son discretas de tipo r.vs, a continuacin,

(10-7)

Dado que las expectativas es un operador lineal, tambin se da

(10-8)


( , )
( ) ( , ) ( , ) .
z
Z XY
x y D
z f z z g x y f x y x y
A
e
A = A A



( ) ( ) ( , ) ( , ) .
Z XY
E Z z f z dz g x y f x y dxdy
+ + +

= =
} } }


[ ( , )] ( , ) ( , ) .
XY
E g X Y g x y f x y dxdy
+ +

=
} }
[ ( , )] ( , ) ( , ).
i j i j
i j
E g X Y g x y P X x Y y = = =

( , ) [ ( , )].
k k k k
k k
E a g X Y a E g X Y
| |
=
|
\ .

Si X e Y son independientes r.vs, es fcil ver qu ) ( X g Z = y ) (Y h W = siempre son
independientes el uno del otro. En este caso, utilizando (10.7), obtenemos el resultado
de inters
)]. ( [ )] ( [ ) ( ) ( ) ( ) (
) ( ) ( ) ( ) ( )] ( ) ( [








Y h E X g E dy y f y h dx x f x g
dxdy y f x f y h x g Y h X g E
Y X
Y X
= =
=
} }
} }
+

+

+

+

(10-9)

Sin embargo (10-9) en general no es cierto (si X e Y no son independientes).

En el caso de una variable aleatoria (ver (10 - 6)), que define los parmetros de la
media y la varianza para representar a su comportamiento normal. Cmo se puede
representar paramtricamente transversal similar comportamiento entre dos variables
aleatorias? Con este, podemos generalizar la definicin de varianza dada en (6-16), como
se muestra a continuacin:

Covarianza: Dados dos r.vs X e Y, definir

| |. ) ( ) ( ) , (
Y X
Y X E Y X Cov = (10-10)

Al ampliar y simplificar el lado derecho de (10-10), tambin se

.
) ( ) ( ) ( ) ( ) , (
__ __ ____
Y X XY
Y E X E XY E XY E Y X Cov
Y X
=
= =
(10-11)

Es fcil ver que
. ) ( ) ( ) , ( Y Var X Var Y X Cov s (10-12)

Para ver (10-12), , Y aX U + = que a fin de que

{ } | |
. 0 ) ( ) , ( 2 ) (
) ( ) ( ) (
2
2
> + + =
+ =
Y Var Y X Cov a X Var a
Y X a E U Var
Y X

(10-13)

El lado derecho de (10-13) representa una ecuacin cuadrtica en la variable a que no
tiene races reales distintas (Fig. 10.1). As, las races son imaginarias (o doble) y
por lo tanto, el discriminante

| | ) ( ) ( ) , (
2
Y Var X Var Y X Cov

no debe ser positivo, y que da (10-12). Usando (10-12), podemos definir el parmetro
normalizado
, 1 1 ,
) , (
) ( ) (
) , (
s s = =
XY
Y X
XY
Y X Cov
Y Var X Var
Y X Cov

o o
(10-14)
O
Y X XY
Y X Cov o o = ) , ( (10-15)
y representa el coeficiente de correlacin entre X e Y.

R.vs no correlacionadas: Si , 0 =
XY
entonces X e Y se dice que estn correlacionadas
r.vs. De (11), si X e Y estn correlacionadas, entonces

). ( ) ( ) ( Y E X E XY E = (10-16)

Ortogonalidad: X e Y se dice que son ortogonales si

). ( ) ( ) ( Y E X E XY E = (10-17)

De (10-16) - (10-17), si X o Y tiene una media de cero, entonces ortogonalidad implica
uncorrelatedness tambin y viceversa.
Supongamos que X e Y son independientes r.vs. Entonces, de (10-9) con
, ) ( , ) ( Y Y h X X g = = obtenemos
), ( ) ( ) ( Y E X E XY E =
y junto con (10-16), podemos concluir que las variables aleatorias no estn
correlacionados, lo que justifica la definicin original (10-10). As, la independencia
implica uncorrelatedness.

Naturalmente, si dos variables aleatorias son estadsticamente independientes, entonces
no puede haber ninguna relacin entre ellos ). 0 ( =
XY
Sin embargo, lo contrario es, en
general, no es cierto. Como muestra el siguiente ejemplo, las variables aleatorias
pueden ser correlacionadas sin ser independientes.


Ejemplo 10.1: Sea ), 1 , 0 ( U X ). 1 , 0 ( U Y Supongamos que X e Y son independientes.
Definir Z = X + Y, W = X - Y. Demuestre que Z y W son dependientes, pero no
correlacionadas r.vs.
Solucin: y x w y x z = + = , ofrece la nica solucin fija para ser
.
2
,
2
w z
y
w z
x

=
+
=
Por otra parte | | , 2 , 2 , 1 1 , 2 0 w z w z w z w z > s s + < < < < y . 2 / 1 | ) , ( | = w z J

< s s + < < < <


=
, otherwise , 0
, | | , 2 , 2 , 1 1 , 2 0 , 2 / 1
) , (
z w w z w z w z
w z f
ZW
(10-18)

De este modo (vase la regin sombreada de la figura 10-2)


y por lo tanto

< < =
< < =
= =
}
}
}

, 2 1 , 2
2
1
, 1 0 ,
2
1
) , ( ) (
2
2


z z dw
z z dw
dw w z f z f
-z
z-
z
z
ZW Z

o por clculo directo (Z = X + Y).

< <
< <
= =
, otherwise , 0
, 2 1 , 2
, 1 0 ,
) ( ) ( ) ( z z
z z
z f z f z f
Y X Z
(10-19)
Y

< <
= = =
} }

. otherwise , 0
, 1 1 |, | 1

2
1
) , ( ) (
| | 2

w w
dz dz w z f w f
w
|w|
ZW W
(10-20)

Claramente ). ( ) ( ) , ( w f z f w z f
W Z ZW
= As, Z y W no son independientes. Sin embargo

| | , 0 ) ( ) ( ) )( ( ) (
2 2
= = + = Y E X E Y X Y X E ZW E (10-21)
Y
, 0 ) ( ) ( = = Y X E W E
y por lo tanto
0 ) ( ) ( ) ( ) , ( = = W E Z E ZW E W Z Cov (10-22)

lo que implica que Z y W son variables aleatorias no correlacionadas.


Ejemplo 10.2: Partiendo de . bY aX Z + = Determinar la variacin de Z en trminos de
Y X
o o , y
Y X
o o , .
Solucin:

y usando (10-15)


(10-23)




En particular, si X e Y son independientes, entonces , 0 =
XY
y (10-23) se reduce a

.
2 2 2 2 2
Y X Z
b a o o o + = (10-24)

As, la varianza de la suma de r.vs independientes es la suma de sus varianzas
). 1 ( = = b a
( ) ( )
Z X Y
E Z E aX bY a b = = + = +
( )
( )
2
2 2
2 2 2 2
2 2 2 2
( ) ( ) ( ) ( )
( ) 2 ( )( ) ( )
2 .
Z Z X Y
X X Y Y
X XY X Y Y
Var Z E Z E a X b Y
a E X abE X Y b E Y
a ab b
o

o o o o
(
( = = = +


= + +
= + +
Momentos:
, ) , ( ] [




} }
+

+

= dy dx y x f y x Y X E
XY
m k m k
(10-25)
representa el momento conjunta de orden (k, m) de X e Y.

Tras el caso de una variable aleatoria, podemos definir la funcin
caracterstica conjunta entre dos variables aleatorias que resultan ser tiles
para los clculos de momento.

Funciones caractersticas conjuntas:
La funcin de las articulaciones caracterstica entre X e Y se define como

(10-26)

Note que

Es fcil demostrar que
.
) , ( 1
) (
0 , 0
2
2
= =
c c
u c
=
v u
XY
v u
v u
j
XY E (10-27)

Si X e Y son independientes r.vs, entonces de (10-26), obtenemos

(10-28)

tambin
(10-29)

Ms informacin sobre r.vs Gauss:
De la lectura 7, X e Y se dice que en forma conjunta gaussiana como si
), , , , , (
2 2
o o
Y X Y X
N su pdf conjunto tiene la forma de (7-23). En ese caso, por
sustitucin directa y simplificacin, se obtiene la funcin de las articulaciones
caracterstica de los dos conjuntamente r.vs gaussiana que es

. ) ( ) , (
) 2 (
2
1
) (
) (
2 2 2 2
v uv u v u j
Yv Xu j
XY
Y Y X X Y X
e e E v u
o o o o + + +
+
= = u (10-30)

La ecuacin (10-14) se puede utilizar para llegar a conclusiones diferentes. Partiendo
de 0 = v en (10-30), obtenemos
, ) 0 , ( ) (
2 2
2
1
u u j
XY X
X X
e u u
o
= u = u (10-31)

y est de acuerdo con (6-47).

A partir de (7-23) por clculo directo utilizando (10-11), es fcil demostrar que para
dos variables aleatorias conjuntas gaussianas
. ) , (
Y X
Y X Cov o o =
( )

( ) ( )

( , ) ( , ) .
j Xu Yv j Xu Yv
XY XY
u v E e e f x y dxdy
+ +
+ +

u = =
} }
. 1 ) 0 , 0 ( ) , ( = u s u
XY XY
v u
). ( ) ( ) ( ) ( ) , ( v u e E e E v u
Y X
jvY juX
XY
u u = = u
( ) ( , 0), ( ) (0, ).
X XY Y XY
u u v v u = u u = u
Por lo tanto, a partir de (10-14), en ) , , , , (
2 2
o o
Y X Y X
N representa el coeficiente de
correlacin real de los dos conjuntamente r.vs gaussiana en (7-23). Tenga en cuenta que
0 = implica ). ( ) ( ) , ( y f x f Y X f
Y X XY
=

As, si X e Y son funciones conjuntas gaussianas, uncorrelatedness implica la
independencia entre las dos variables aleatorias. Caso de Gauss es la nica excepcin
donde los dos conceptos se implican mutuamente.


Ejemplo 10.3: Sean X e Y se r.vs conjuntamente con los parmetros de Gauss
). , , , , (
2 2
o o
Y X Y X
N Definido . bY aX Z + = Determinar ). ( z f
Z

Solucin: En este caso podemos hacer uso de la funcin caracterstica para resolver este
problema.
). , (
) ( ) ( ) ( ) (
) (
bu au
e E e E e E u
XY
jbuY jauX u bY aX j jZu
Z
u =
= = = u
+ +
(10-32)

De (10-30) con u y v reemplazado por au y bu respectivamente obtenemos

, ) (
2 2 2 2 2 2 2
2
1
) 2 (
2
1
) ( u u j u b ab a u b a j
Z
Z Z Y Y X X Y X
e e u
o o o o o + + +
= = u (10-33)
Donde
. 2
,
2 2 2 2 2
Y Y X X Z
Y X Z
b ab a
b a
o o o o o

+ + =
+ =
(10-34) - (10-35)

Tenga en cuenta que (10-33) tiene la misma forma (10-31), y por lo tanto se concluye que
bY aX Z + = tambin es gaussiana con media y la varianza como en (10-34) - (10-35),
que tambin est de acuerdo con (10 -23).

En el ejemplo anterior, podemos concluir que cualquier combinacin lineal de r.vs
conjuntas gaussianas generan una variable aleatoria gaussiana.

En otras palabras, la linealidad conserva Gaussianidad. Podemos utilizar la relacin de
funcin caracterstica a la conclusin de un resultado an ms general.


Ejemplo 10.4: Supongamos que X e Y son r.vs conjunta gaussiana como en el ejemplo
anterior. Definidas dos combinaciones lineales

. , dY cX W bY aX Z + = + = (10-36)

Qu podemos decir acerca de su distribucin en comn?
Solucin: La funcin caracterstica de Z y W est dada por

). , ( ) (
) ( ) ( ) , (
) ( ) (
) ( ) ( ) (
dv bu cv au e E
e E e E v u
XY
dv bu jY cv au jX
v dY cX j u bY aX j Wv Zu j
ZW
+ + u = =
= = u
+ + +
+ + + +
(10-37)
Como antes de la sustitucin (10-30) en (10-37) con u y v reemplazado por au + cv y bu +
dv, respectivamente, obtenemos
, ) , (
) 2 (
2
1
) (
2 2 2 2
v uv u v u j
ZW
W Y X ZW Z W Z
e v u
o o o o + + +
= u
(10-38)
Donde
,
Y X Z
b a + = (10-39)
,
Y X W
d c + = (10-40)
, 2
2 2 2 2 2
Y Y X X Z
b ab a o o o o o + + = (10-41)
, 2
2 2 2 2 2
Y Y X X W
d cd c o o o o o + + = (10-42)
Y
.
) (
2 2
W Z
Y Y X X
ZW
bd bc ad ac
o o
o o o o

+ + +
= (10-43)

A partir de (10-38), se concluye que Z y W son distribuidos en forma conjunta r.vs
gaussiana con medias, varianzas y coeficiente de correlacin como en (10-39) - (10-43).

En resumen, cualquiera de las dos combinaciones lineales de variables aleatorias
conjuntamente gaussianas (independientes o dependientes) son tambin de manera conjunta
gaussiana r.vs.

Por supuesto, podramos haber llegado a la misma conclusin mediante la derivacin de la
pdf conjunta ) , ( w z f
ZW
con la tcnica desarrollada en la seccin 9 (vase (7-29)).

Las variables aleatorias gaussianas tambin son interesantes debido a los siguientes
resultados:

Teorema Central Del Lmite: Supongamos que
n
X X X , , ,
2 1
son un conjunto de media cero
independientes, idnticamente distribuido (iid) variables aleatorias con una
distribucin comn. Consideran que su suma a escala

.
2 1
n
X X X
Y
n
+ + +
=

(10-44)
Luego asintticamente (como n )

). , 0 (
2
o N Y (10-45)

Prueba: Aunque el teorema es cierto en condiciones an ms general, lo vamos a demostrar
aqu, bajo el supuesto de independencia. Vamos a
2
o representar a su varianza comn.
Desde
, 0 ) ( =
i
X E (10-46)
Tenemos
. ) ( ) (
2 2
o = =
i i
X E X Var (10-47)
Considerar
( )
[
[
=
=
+ + +
u =
= = = u
n
i
X
n
i
n u jX n u X X X j jYu
Y
n u
e E e E e E u
i
i n
1
1
/ / ) (
) / (
) ( ) ( ) (
2 1

(10-48)

donde hemos hecho uso de la independencia de la r.vs. . , , ,
2 1 n
X X X Pero

,
1
2
1
! 3 ! 2
1 ) (
2 / 3
2 2
2 / 3
3 3 3 2 2 2
/
|
.
|

\
|
+ =
|
|
.
|

\
|
+ + + =
n
o
n
u
n
u X j
n
u X j
n
u jX
E e E
i i i n u jX
i
o
(10-49)

donde hemos hecho uso de (10-46) - (10-47). Sustituyendo (10-49) a (10-48), obtenemos

(10-50)

y como
(10-51)

Desde
. 1 lim
x
n
n
e
n
x


|
.
|

\
|
(10-52)

[Tenga en cuenta que los trminos en (10-50) ms rpido que la decadencia
Sin embargo, (10 a 51) representa la funcin caracterstica de un cero rv
promedio normal con varianza
2
o y sigue (10-45).

El centro de los estados lmite teorema de que una gran cantidad de variables aleatorias
independientes, cada uno con varianza finita tiende a comportarse como una variable
aleatoria normal. As, los archivos PDF individuales se convierten en importancia de
analizar el comportamiento de suma colectiva. Si vamos a modelar el fenmeno del ruido
como la suma de un gran nmero de variables aleatorias independientes (por ejemplo:
movimiento de los electrones en los componentes de la resistencia), entonces este
teorema nos permite concluir que el ruido se comporta como una variable aleatoria
gaussiana.

Se puede observar que el supuesto de varianza finita es necesario que el teorema de
mantener buenas. Para demostrar su importancia, considerar la r.vs que se distribuyen de
Cauchy, y que
.
2 1
n
X X X
Y
n
+ + +
=

(10-53)

donde cada uno ). ( o C X
i
Entonces, ya que
, ) (
| |u
X
e u
i
o
= u (10-54)
Sustituyendo en (10-48), obtenemos
(10-55)
,
1
2
1 ) (

2 / 3
2 2
n
Y
n
o
n
u
u
(

|
.
|

\
|
+ = u
o
2 2
/ 2
lim ( ) ,
u
Y
n
u e
o

u
3 / 2
(1 / ) o n
3 / 2
1 / ]. n
( )
n
| |/
1
( ) ( / ) ~ ( ),
n
u n
Y X
i
u u n e C n
o
o

=
u = u =
[
. n o

Y lo que demuestra que sigue siendo de Cauchy con parmetros En otras palabras,
el teorema central del lmite no es vlida para un conjunto de r.vs Cauchy como sus
variaciones no estn definidas.

Las funciones caractersticas conjuntas son tiles para determinar el pdf de
combinaciones lineales de r.vs. Por ejemplo, con X e Y independientes Poisson r.vs con
los parmetros
1
y
2
, respectivamente, que

. Y X Z + = (10-56)
Entonces
). ( ) ( ) ( u u u
Y X Z
u u = u (10-57)

Pero a partir de (6-33)

) 1 ( ) 1 (
2 1
) ( , ) (

= u = u
ju ju
e
Y
e
X
e u e u

(10-58)
de modo que
) ( ) (
2 1
) 1 )( (
2 1


+ = u
+
P e u
ju
e
Z
(10-59)

es decir, la suma de Poisson de las r.vs independientes es tambin una variable
aleatoria de Poisson

You might also like