You are on page 1of 21

17

SEGUNDA UNIDAD. PRUEBAS DE BONDAD DE AJUSTE Y NUMEROS


PSEUDOALEATORIOS.

2.1 PRUEBAS DE BONDAD DE AJUSTE

2.1.1 Distribuciones de probabilidad.

Al modelar un sistema, se debe diferenciar entre dos tipos de datos los primeros
permanecen sin cambio a través del tiempo y se conocen como “parámetros”; los segundos
presentan cambios a través del tiempo y se conocen como “variables”. Por ejemplo, el
modelado de un sistema mediante simulación es útil cuando la información del sistema
tiene carácter de dinámico y probabilístico, debido principalmente a que la interacción de
esa información es, por lo general, difícil de analizar.

La variabilidad que presenta el segundo tipo de datos debe modelarse de acuerdo con
ciertas ecuaciones matemáticas que son capaces de reproducirla; en la mayoría de los casos
dicha variabilidad puede clasificarse dentro de alguna distribución de probabilidad. Así
pues, uno de los pasos más importantes de todo el proceso de modelado estocástico es la
búsqueda de información y su análisis estadístico posterior basado principalmente en la
clasificación de cada serie de datos dentro de alguna distribución de probabilidad. Algunas
de las distribuciones más comunes se analizan a continuación.

2.1.1.1 Distribuciones continuas.

Este tipo de distribuciones se utilizan para modelar la aleatoriedad en aquellas actividades o


eventos en los cuales los valores de las variables pueden estar dentro de un rango de valores
reales. A continuación se describen algunas de las funciones continuas más utilizadas.

Uniforme U(a, b)
Función de densidad 1
f ( x) = si a ≤ x ≤ b
b−a
Distribución acumulada x−a
F ( x) = si a ≤ x ≤ b
b−a
Parámetros A y b son números reales con a < b; a es un
parámetro de ubicación; b-a es un parámetro
de escala
Rango [a, b]
Media a+b
2
18

Variancia (b − a )2
12

Figura 2.1. Distribución de probabilidad Uniforme continua.

Exponencial Expo(λ)
Función de densidad 1 −xλ
f ( x) = e si x ≥ 0
λ
Distribución acumulada −x
F ( x) = 1 − e λ si x ≥ 0
Parámetros Parámetro de escala λ > 0
Rango [0, ∞ )
Media λ
Variancia λ2

Figura 2.2. Distribución de probabilidad Exponencial.

Weibull Weib(α, β)
Función de densidad −( x )
α

αβ −α x α −1e β si x > 0
f (x) =
0 de otra manera
Distribución acumulada − ( x β )α
1− e si x > 0
F (x) =
0 de otra manera
19

Parámetros Parámetro de escala β > 0


Parámetro de forma α > 0
Rango [0, ∞ ) [0, ∞ )
Media β 1
Γ
α α
Variancia 2
β2 2 1 1
2Γ − Γ
α α α α

Figura 2.3. Distribución de probabilidad Weibull.

Triangular TR(a,b,c)
Función de densidad 2( x − a )
si a ≤ x ≤ b
(c − a )(c − b )
f (x) =
2(c − x )
si b ≤ x ≤ c
(c − a )(c − b )
Distribución acumulada ( x − a )2 si a ≤ x ≤ b
(c − a )(b − a )
F (x ) =

1−
(c − x)
2
si b ≤ x ≤ c
(c − a )(c − b )
Parámetros Parámetro de localización: µ
Parámetro de escala: α
Rango a, b
Media a+b+c
3
Variancia a + b 2 + c 2 + ac − ab − bc
2

18
20

Figura 2.4. Distribución de probabilidad Triangular.

Normal N(µ, σ)
Función de densidad 1 x−µ
2

1 −
f ( x) = e 2 σ −∞ ≤ x ≤ ∞
σ 2π
Distribución acumulada No existe ecuación
Parámetros Parámetro de localización: µ
Parámetro de escala: σ
Rango (− ∞, ∞ )
Media µ
Variancia σ2

Figura 2.5. Distribución de probabilidad Normal.

Lognormal LOGN(µ, σ)
Función de densidad 1
− (ln x − µ )2
2σ 2
exp si x > 0
x 2πσ 2

f ( x) =
0 de otra manera
Distribución acumulada No existe ecuación
Parámetros Parámetro de escala: µ
Parámetro de forma: σ
Rango [0, ∞ )
21

Media e −µ+
σ
2

Variancia 2
(
e 2 µ +σ e −σ − 1
2
)

Figura 2.6. Distribución de probabilidad Lognormal.

2.1.1.2 Distribuciones discretas.

Este tipo de distribuciones sirven para modelar la aleatoriedad de una variable que sólo
puede tomar valores enteros. Las siguientes distribuciones son algunas de las más utilizadas
en el modelado de sistemas estocásticos.

Bernoulli Be(t, p)
Distribución de probabilidad 1− p si x = 0
p (x) =
p si x =1
Distribución acumulada 0 si x≤0
F ( x) = 1− p si 0 ≤ x ≤1
1 si x ≤1
Rango {0,1}
Media p
Variancia p(1 − p )

Figura 2.7. Distribución de probabilidad de Bernoulli.


22

Uniforme discreta UD(i, j)


Distribución de probabilidad 1
p( x) = si x ∈ {i, i + 1, , j}
j − i +1
Distribución acumulada 0 si x ≤ i
x − i +1
F (x) = si i ≤ x ≤ j
j − i +1
1 si j ≤ x
Rango {i, i + 1, , j}
Media i+ j
2
Variancia ( j − i + 1)2 − 1
12

Figura 2.8. Distribución de probabilidad. Uniforme discreta.

Binomial BI(n, p)
Distribución de probabilidad n x
p (1 − p ) ∀x ∈ {0,1, , n}
n− x

x
p( x) =
0 de otra manera
Distrubución acumulada 0 si x < 0
x n i
p (1 − p )
i
F ( x) = x si 0 ≤ x ≤ n
i =0 j
1 si x > n
Rango {0,1, , n}
Media np
Variancia np(1 − p )
23

Figura 2.9. Distribución de probabilidad Binomial.

Poisson PS(λ)
Distribución de probabilidad e λ −λ x
si x ∈ {0,1, }
x!
p( x) =
0 de otra manera
Distribución acumulada x
λ i
F ( x ) = e −λ si x ≥ 0
i =0 i!
Rango λ > 0, x entero
Media λ
Variancia λ

Figura 2.10. Distribución de probabilidad Poisson.

Geométrica GE(p)
Distribución de probabilidad p(1 − p ) si x ∈ (0,1, )
x

f ( x) =
0 de otra manera
1 − (1 − p )
Distribución acumulada [ x ]+1
si x ≥ 0
F ( x) =
0 de otra manera
Rango {0,1, , n}
Media 1− p
p
24

Variancia 1− p
p2

Figura 2.11. Distribución de probabilidad Geométrica

2.1.2 Determinación del tipo de distribución.

En la mayor parte de los sistemas, al analizar la información, ésta se encuentra disponible


en forma de series a través del tiempo.

Está información, tabulada en dicho formato no es de utilidad cuando se trata de obtener un


comportamiento basado en variabilidad con cierto comportamiento probabilistico. Así pues,
si el analista desea conocer el comportamiento, es necesario modificar la forma de
presentación de datos y presentarla como tablas de frecuencia, con la finalidad de realizar
cualquiera de las siguiente pruebas:

• Prueba de bondad de ajuste χ 2 .


• Prueba de Kolgomorov – Smirnov.

2.1.2.1 Prueba de bondad de ajuste χ 2 .

Como ya se menciono, esta prueba se utiliza para encontrar la distribución de probabilidad


de una serie de datos. La metodología de la prueba χ 2 es la siguiente:

1. Se colocan los n datos históricos (al menos 30 datos) en una tabla de frecuencias de
m = n intervalos. Se obtiene la frecuencia observada en cada intervalo i, (FOi). Se
calcula la media y la variancia de los datos.
2. Se propone una distribución de probabilidad de acuerdo con la forma de la tabla de
frecuencias obtenida en el paso 1.
3. Con la distribución propuesta, se calcula la frecuencia esperada para cada uno de los
intervalos (FEi) mediante la integración de la distribución propuesta y su posterior
multiplicación por el número total de datos.
4. Se calcula el estimador:
m
(FEi − FOi )2
C=
i =1 FEi
25

5. Si el estimador C es menor o igual al valor correspondiente χ 2 con m − k − 1 grados de


libertad ( k = número de parámetros estimados de la distribución) y a un nivel de
confiabilidad de 1 − α , entonces no se puede rechazar la hipótesis de que la
información histórica sigue la distribución propuesta en el punto 2.

Ejemplo:
Se desea obtener la distribución de probabilidad ideal, conque se reciben llamadas para
consulta en un servicio de biblioteca. La información histórica se resume en el siguiente
cuadro, en el cual se menciona la cantidad de llamadas que se recibieron en el intervalo de
una hora, esto es, el total de horas que se tomaron para información, fue de 509.

No. de llamadas Frecuencia observada


0 315
1 142
2 40
3 9
4 2
5 1
509

Tabla de frecuencias: Ya esta dada con la información. Así como la frecuencia observada.

Media y variancia de los datos.


Marca de clase x f fx x2 fx2
0 315 0 0 0
1 142 142 1 142
2 40 80 4 160
3 9 27 9 81
4 2 8 16 32
5 1 5 25 25
Sumatoria 509 262 440
fx 262 fx 2 440
− (x ) = − (0.5147 ) = 0.5995
2 2
x= = = 0.5147 s =
2

n 509 n 509

Se propone una distribución de probabilidad.

400
315
300
FO

200 142
100 40
0 1 2 3 9 4 2 5 1
0
1 2 3 4 5 6
Llamadas

Figura 2.12. Histgráma del sistema de llamadas a la biblioteca


26

Como se puede observar en la gráfica anterior, la distribución de datos se asemeja a una


distribución de probabilidad Poisson. Del cuadro anterior de la distribución de probabilidad
discreta Poisson, nos muestra que esta distribución tiene un solo parámetro λ y que la
media y la variancia son iguales, es decir, el valor de λ. Pero en nuestro caso tenemos dos
valores, uno para la media, 0.5147 y otro para la variancia, 0.5995. Entonces para hacer
estos dos valores uno solo, se procede de la siguiente manera:

0.5147 + 0.5995
λ= = 0.5571
2

Por lo tanto se propone Poisson con media λ = 0.5571

Cálculo de la frecuencia esperada.


Del mismo cuadro de la distribución Poisson, se tiene que la fórmula para calcular la
distribución de probabilidad es:
e −λ λx
p( x) =
x!
−0.5571
(0.5571) 0 e 0
p ( 0) = = 0.5729
0!
−0.5571
(0.5571)1 e 0
p (1) = = 0.3191
1!
−0.5571
(0.5571) 2 e 0
p (2) = = 0.0889
2!
−0.5571
(0.5571) 3 e 0
p (3) = = 0.0165
3!
−0.5571
(0.5571) 4 e 0
p (4) = = 0.0023
4!
−0.5571
(0.5571) 5 e 0
p(5) = = 0.0003
5!

Multiplicación por el número total de datos.


No. de FO PO PE FE
llamadas
0 315 0.6189 0.5729 291.6061
1 142 0.2790 0.3191 162.4219
2 40 0.0786 0.0889 45.2501
3 9 0.0177 0.0165 8.3985
4 2 0.0039 0.0023 1.1707
5 1 0.0020 0.0003 0.1527
Sumatoria 509 1.0000 1 509.0000

Se calcula el estimador:
27

m
(FEi − FOi )2
C=
i =1 FEi

No. de FO PO PE FE (FE-FO)2/FE
llamadas
0 315 0.6189 0.5729 291.6061 1.8768
1 142 0.2790 0.3191 162.4219 2.5677
2 40 0.0786 0.0889 45.2501 0.6091
3 9 0.0177 0.0165 8.3985 0.0431
4 2 0.0039 0.0023 1.1707 0.5875
5 1 0.0020 0.0003 0.1527 4.7015
Sumatoria 509 1.0000 1 509.0000

No. de PO
llamadas
3 0.0177
4 0.0039
5 0.002
Sumatoria 0.0236

Como la suma de los intervalos para 3, 4 y 5 llamadas (0.0236 o 2.36%), no es


representativo para la muestra, es necesario agruparlos en un solo bloque, ya que
tratándolos por separado acarrearía un grave error. Por lo tanto se recomienda agruparlos,
quedando el cálculo como se muestra en el siguiente cuadro.

No. de FO FE (FE- FO FE (FE-


llamadas FO)2/FE FO)2/FE
0 315 291.6061 1.8768 315 291.6061 1.8768
1 142 162.4219 2.5677 142 162.4219 2.5677
2 40 45.2501 0.6091 40 45.2501 0.6091
3 9 8.3985 0.0431 Agrupando Agrupando Agrupando
4 2 1.1707 0.5875 3, 4 y 5 3, 4 y 5 3, 4 y 5
5 1 0.1527 4.7015 12 9.7219 0.5338
Sumatoria 509 509.0000 509 509.0000 5.5874

C = 5.5874

Cálculo del estimador de tablas χ m2 − k −1,α .


m = número de intervalos, en este caso, cuatro, ya que de seis originales, se agruparon tres
en uno.
k = 1, la distribución de probabilidad Poisson, solo tiene un parámetro.
Coeficiente de error de α = 0.05.
Entonces:
χ 42−1−1, 0.05 = χ 22,0.05 = 5.99
28

5.5874 < 5.99. Entonces no se puede rechazar la hipótesis de que la información histórica
sigue una distribución Poisson con media = 0.5571 con un 95% de confianza.

2.1.2.2 Prueba de bondad de ajuste de Kolmogorov Smirnov

Si el objetivo es encontrar el tipo de distribución de probabilidad de una serie de datos, es


posible utilizar la prueba de bondad de ajuste de Kolgomorov Smirnov, la cual,
comparandola con la de χ 2 , es más eficiente en varios aspectos ya que trabaja con la
distribución de probabilidad acumulada. La metodología es la siguiente:

1. Se colocan los n datos históricos en una tabla de frecuencias con m = n intervalos.


Para cada intervalo se tendrá la frecuencia observada i (FOi). Se calcula media y la
variancia de los datos.
2. Se divide la frecuencia observada de cada intervalo por el número total de datos, para
obtener la probabilidad observada i (POi).
3. Se calcula la probabilidad acumulada observada de cada intervalo (PAOi) del paso 2.
4. Se propone una distribución de probabilidad de acuerdo con la forma de la tabla de
frecuencias obtenidas en 1.
5. Con la distribución propuesta se calcula la probabilidad esperada para cada uno de los
intervalos (PEi) mediante la integración de la distribución propuesta.
6. Se calcula la probabilidad acumulada esperada (PAEi) para cada intervalo de clase.
7. Se calcula el valor absoluto entre PAO y PEO para cada intervalo y se selecciona la
máxima diferencia, llamándola DM.
8. El estimador DM se compara con un valor límite correspondiente a la tabla 6 en el
apéndice B del libro de texto, con n datos a un nivel de confiabilidad de 1 - α. Si el
estimador DM es menor o igual al valor límite de la tabla 6, entonces no se puede
rechazar que la información histórica sigue la distribución propuesta en el paso 4.

Ejemplo. Mediante la prueba de Kolgomorov Smirnov determine el tipo de distribución de


probabilidad que siguen los datos del ejemplo anterior, con un nivel de confianza del 95%.

Los primeros pasos ya se resolvieron en el ejemplo anterior y los últimos pueden resumirse
con la elaboración del siguiente cuadro.

No. de FO PO PAO PE PAE Abs(PAO-


llamadas PAE)
0 315 0.6189 0.6189 0.5729 0.5729 0.0460
1 142 0.2790 0.8978 0.3191 0.8920 0.0058
2 40 0.0786 0.9764 0.0889 0.9809 0.0045
3 9 0.0177 0.9941 0.0165 0.9974 0.0033
4 2 0.0039 0.9980 0.0023 0.9997 0.0017
5 1 0.0020 1.0000 0.0003 1.0000 0.0000
Sumatoria 509 1.0000 1

DM = 0.0460
29

Límite correspondiente a la tabla con 509 datos y un nivel de confianza de 95%, igual a:
1.36 1.36
= = 0.0603
n 509

Como el estimador DM = 0.0460 es menor al valor límite de la tabla D0.05 = 0.0603, no se


puede rechazar que la información histórica sigue una distribución Pisson con λ = 0.5571.

2.2 NUMEROS PSEUDOALEATORIOS.

Son números con la misma probabilidad de ocurrencia. Serie de números cuya secuencia no
puede predecirse.
Generación de aleatorios entre 0 y 1.

U (0, 1)

Utilidad.
Se utilizan para generar el comportamiento de la información de entrada.

2.2.1 Métodos de generación de números pseudoaleatorios U(0, 1).

Existen un gran número de métodos para generar los números aleatorios entre 0 y 1. El
método a utilizar, en sí mismo, no tiene importancia; la importancia radica en los números
que genera, ya que estos números deben cumplir ciertas caractrísticas para que sean
válidos. Dichas características son:

1. Uniformemente distribuidos.
2. Estadísticamente independientes.
1
3. Su media debe ser estrictamente igual a .
2
1
4. Su variancia debe ser estadísticamente igual a .
12
5. Su período o ciclo de vida debe ser largo.

f(x) = Función de densidad

1 x
Figura 2.13. Función de densidad de probabilidad para el conjunto de los números
pseudoaleatorios
30

1 1
f ( x)dx = dx
0 0

1
2
µ=
1
xf ( x)dx =
x =
1
0 2
2 0
2 2
1 1 1 1 1
σ = 2
x− f ( x)dx = x− dx = 0.0833 =
0 2 0 2 12

Métodos congruenciales.
ri +1 = [(a ∗ c) + ri ]
donde:
r0 = semilla del generador
a, c.m = constantes

Ejemplo. Genere números con los siguientes datos:


r0 = semilla 5
a = Cte 7
c = Cte 3
m = Cte 9

r0 = 5
r1 = (7 * 5 + 3) mod 9 = 2
r2 = (7 * 2 + 3) mod 9 = 8
r3 = (7 * 8 + 3) mod 9 = 5

Generar 5 números pseudoaleatorios con el generador congruencial multiplicativo siguiente


con la semilla r0 = 47, a = 441, c = 13, m = 767 .
ri +1 = (a + cri ) mod m

ri +1 = (441 + 13r j ) mod 767


r1 = (441 + 13(47)) mod 767 = 285
r2 = (441 + 13(285)) mod 767 = 311
r3 = (441 + 13(311)) mod 767 = 649
r4 = (441 + 13(649)) mod 767 = 441
r5 = (441 + 13(441)) mod 767 = 38
Dividiendo por m − 1 = 766 , los números aleatorios son:
31

r1 = 0.3721
r2 = 0.4060
r3 = 0.8473
r4 = 0.5757
r5 = 0.0496

Existen reglas para la selección de las constantes, algunas de ellas son:

• c debe ser un entero impar, no divisible ni por 3 ni por 5.


• a usualmente puede ser cualquier constante. Sin embargo para asegurar buenos
resultados, seleccione a de tal forma que (a ) mod 8 = 5 para una computadora binaria o
(a ) mod 200 = 2 para una computadora decimal.
• m debe ser el número entero más grande que la computadora acepte.

De acuerdo con Holl y Dovell, los mejores resultados para un generador congruencial
mixto en una computadora binaria son:

• a = 8*c ± 3
• c = cualquier entero.
• r0 = cualquier entero impar.
• m = 2 b donde b >2 y que m sea aceptado por la computadora.

Existen generadores de números aleatorios entre 0 y 1 integrados a la mayoría de los


sistemas, que pueden ser llamados como funciones, algunos ejemplos son:

Método de cuadrados medios.

El procedimiento de obtención de números con este tipo de generadores es el siguiente:

• Generar una semilla.


• Elevarla al cuadrado.
• Tomar de la parte central un conjunto de k dígitos que formarán el número aleatorio.
• Los k dígitos pasarán a ser la nueva semilla con el fin de repetir el proceso n ocasiones.

Ejemplo. Generar 3 números de cuatro dígitos a partir de un generador de cuadrados


medios utilizando la semilla 445.
(445)2 = 198025 =1 9802 5 → 0.9802
(9802)2 = 96079204 = 96 0792 04 → 0.0792
(792)2 = 627264= 6 2726 4 → 0.2726
32

2.2.2 Pruebas estadísticas para aleatorios.

Una vez que se ha creado o se puede usar un generador es importante verificar sí los
números generados poseen las características mencionadas. La comprobación de tales
características se realiza mediante ciertas pruebas estadísticas, que son las siguientes:

Prueba de medias

Consiste en verificar que los números generados tengan una media estadísticamente igual a
2 , de esta manera, se analiza la siguiente hipótesis
1

H0 : media = 0.5
H1 : media ≠ 0.5

Paso 1.
Calcular la media de los n números generados.
1 n
x= ri
n i =1
Paso 2.
Calcular los límites superior e inferior de aceptación:
1 1
ls x = + zα 2
2 12 n
1 1
li x = − zα 2
2 12 n
Paso 3.
Si el valor de x se encuentra entre li x y ls x , aceptamos que los números tienen una media
estadísticamente igual a 12 con un nivel de aceptación de 1 - α.

Ejemplo. Realice la prueba de medias a los primeros 30 números aleatorios entre 0 y 1 de


un generador congruencial mixto, con un nivel de confianza del 955. Los números
generados son los siguientes:

.03991 .10461 .93716 .16894 .98953 .73231


.25593 .34565 .02345 .67347 .10987 .25678
.71890 .61234 .86322 .94134 .99872 .27657
.82345 .12387 .05389 .82474 .59289 .36782
.72484 .48999 .50502 .39528 .36782 .90234

Se calcula la media de los 30 datos.


1 n
x= ri = 0.507
n i =1
Ahora se calcula los límites de aceptación para n = 30
33

1 1 1 1
ls x = + zα 2 = + 1.96 = 0.5298
2 12 n 2 12 30

1 1 1 1
li x = − zα 2 = − 1.96 = 0.4701
2 12 n 2 12 30

dado que el valor promedio se encuentra entre los límites, se acepta la hipótesis H0, es
decir, se puede afirmar que la media de los números es estadísticamente igual a 12 .

Prueba de Variancia.

Consiste en verificar si los números aleatorios generados tienen una variancia de 0.083, de
tal forma que la hipótesis queda expresada como:

H0 : Var = 1/12
H1 : Var ≠ 1/12

Paso 1.
Calcular la variancia de los n números generados V ( x) .
n
(r i − x)
2

V ( x) = i =1

n −1

Paso 2.
Calcular los límites superior e inferior de aceptación.
χ α2 ,n −1
ls v ( x ) = 2

12(n − 1)

χ 2α ,n −1

liv ( x ) = 2

12(n − 1)

Paso 3.
Si V ( x) se encuentra entre los valores de ls v ( x ) y liv ( x ) , aceptamos la hipótesis nula y los
números aleatorios tienen una variancia estadísticamente igual a 1
12 .

Ejemplo. Realice la prueba de variancia a los siguientes 30 números con un nivel de


confianza del 95%.

.72484 .48999 .50502 .39528 .36782 .90234


.71890 .61234 .86322 .94134 .99872 .27657
.34565 .02345 .67347 .10987 .25678 .25593
34

.82345 .12387 .05389 .82474 .59289 .36782


.03991 .10461 .93716 .16894 .98953 .73231

Al calcular V(x) se obtiene que es igual a 0.104. Al calcular los límites de aceptación para
muestras de tamaño 30.
χ α2 ,n −1 χ 02.025, 29 45.7
ls v ( x ) = 2
= = = 0.1313
12(n − 1) 12(n − 1) 12(29)
χ 2
−α
2 , n −1
χ 02.975, 29 16.04
liv ( x ) = = = = 0.046
12(n − 1) 12(n − 1) 12(29)

el valor se encuentra dentro de límites por lo que se acepta que la variancia de la muestra es
estadísticamente igual a 121 .

Prueba de Forma.

Para realizar esta prueba se utiliza la prueba de bondad de ajuste χ 2 , ya vista con
anterioridad. Esta prueba se empleará en el caso específico de los números aleatorios
uniformes entre 0 y 1, para probar que un conjunto de datos siga esta distribución. De esta
manera la hipótesis propuesta se resume como sigue

H0 : ri U ( 0,1 )
H1 : ri U ( 0,1 )

Ejemplo. Tomando los 30 números del ejemplo anterior, determine con un nivel de
confianza del 95% si pertenecen a una población uniforme.
Dividiendo el rango de 0 a 1 en 10 intervalos y clasificando los 30 números según su valor,
se obtiene la siguiente tabla.

Intervalo FO FE = 30/10 (FE-FO)2/FE


0.0 - 0.1 3 3 0.0000
0.1 - 0.2 4 3 0.3333
0.2 - 0.3 3 3 0.0000
0.3 - 0.4 4 3 0.3333
0.4 - 0.5 1 3 1.3333
0.5 - 0.6 2 3 0.3333
0.6 - 0.7 2 3 0.3333
0.7 - 0.8 3 3 0.0000
0.8 - 0.9 3 3 0.0000
0.9 - 1.0 5 3 1.3333
Sumatoria 4.0000

Se obtiene un valor de C = 4.0. Se compara con el valor de tablas χ 2 con 10 – 0 – 1 = 9


grados de libertad y un nivel de 5%, que es igual a 16.90 y la comparación indica que los
números generados siguen una distribución uniforme entre 0 y 1.
35

Pruebas de independencia.

Las pruebas de independencia consisten en demostrar que los números generados son
estadísticamente independientes entre sí, esto es, que no dependen uno de otro. Para esto se
propone la siguiente hipótesis:

H0: ri ∼ Independiente
H1: ri ∼ Dependiente

Para realizar esta prueba de hipótesis existen varios métodos, puede seleccionarse
cualquiera de la siguiente lista:

− Pruebas de póker
− Prueba de corridas arriba y abajo.
− Prueba de corridas arriba y abajo de la media.
− Prueba de la longitud de las corridas.
− Prueba de distancia.
− Pruebas de series.
− Prueba de huecos.

Prueba de Póker :

Paso 1.
Calcular las probabilidades esperadas para un juego de póker con cinco cartas numeradas
del 0 al 9 con remplazo, se tienen siete eventos o intervalos, con las siguientes
probabilidades:

p ( pachuca ) = 10/10 * 9/10 . . . 1/10 = 0.3024


p ( par ) = 10/10 * 9/10 * 8/10 * 7/10 * (5/2) = 0.504
p ( dos pares ) = 0.108
p ( tercia ) = 0.0720
p ( full ) = 0.0090
p ( poker ) = 0.0045
p ( quintilla) = 0.0001

Paso 2.
Calcular la frecuencia esperada de cada uno de los eventos (FEi) multiplicando la
probabilidad de cada evento por el total de números aleatorios generados.

Paso 3.
Para cada número aleatorio generado verificar (imaginando que es una mano de póker) si es
pachuca, un par, dos pares, etcétera, tomando los primeros cinco dígitos a la derecha del
punto decimal. Por ejemplo 0.03408 es un par, 0.44343 es un full, 0.00121 dos pares,
36

etcétera. Con estos resultados se genera una tabla de frecuencia de estos eventos. La
frecuencia observada de cada uno de los eventos se conoce como (FOi).

Paso 4.
Calcular el estadístico C de χ 2 con m = 7 .

Paso 5.
Si el valor de C es menor o igual al estadístico de tablas χ 2 con 6 grados de libertad y una
probabilidad de rechazo α, entonces se acepta que los datos son estadísticamente
independientes entre sí.

Ejemplo. Realice la prueba de póker a los siguientes 30 números con un nivel de confianza
del 95%.

.72484 .48999 .50502 .39528 .36782 .90234


.71890 .61234 .86322 .94134 .99872 .27657
.34565 .02345 .67347 .10987 .25678 .25593
.82345 .12387 .05389 .82474 .59289 .36782
.03991 .10461 .93716 .16894 .98953 .73231

Agrupando los números de acuerdo con sus dígitos, como si fuera una mano de póker se
obtiene la siguiente tabla de frecuencias:

Intervalo FO PE FE=(n * PE) (FE-FO)2/FE


Pachuca 15 0.3024 9.072 3.874
Un par 13 0.504 15.12 0.297
Dos pares 1 0.108 3.24 1.549
Una tercia 1 0.072 2.16 0.623
Full 0 0.009 0.27 0.270
Póker 0 0.0045 0.135 0.135
Quintilla 0 0.0001 0.003 0.003
Sumatoria 30 1 30 6.750

El cálculo de C es igual a 6.75 que comparado contra el valor de tablas χ 2 con 7-1 = 6
grados de libertad, y con un nivel de 5%, que es igual a 12.59, indica que los número
generados son estadísticamente independientes.

Prueba de corridas.

Paso 1.
Clasificar cada número aleatorio con respecto al anterior, de acuerdo con:
Si ri ≤ ri −1 ri = −
Si ri ≥ ri −1 ri = +

Paso 2.
37

Calcular el número de corridas observadas h . Una corrida se forma por un conjunto de


números aleatorios consecutivos del mismo signo.

0.2 0.4 0.6 0.3 0.1 0.8


+ + - - +

Paso 3.
Calcular E (h) y V (h) de acuerdo con:
2n − 1
E ( h) =
3
16n − 29
V ( h) =
90
donde n es el número de datos generados.

Paso 4.
Calcular el estadístico z =
(h − E (h) ) , si es menor que el valor crítico Z α 2 se acepta la
V ( h)
hipótesis de independencia.

Ejemplo. Determine si la siguiente secuencia de 20 números puede ser aceptada como


independiente con un nivel de confianza del 95%, usando la prueba de corridas.

0.75 (-) 0.21 (-) 0.01 (+) 0.92 (-) 0.74


(-) (-) (+) (-) (+)
0.58 0.17 0.55 0.12 0.42
(+) (+) (-) (+) (-)
0.63 0.74 0.11 0.95 0.38
(-) (+) (+) (-) (-)
0.37 0.63 0.72 0.17 0.04

Existen h = 11 corridas. Con n = 20 tenemos, E (h) = 13 corridas y V (h) = 3.23 .


(h − E (h)) 11 − 13
El valor de z= = = −1.112
V (h) 1.797
Que comparado contra Z 0.025 = −1.96 , de tal manera que la independencia de estos números
no puede ser rechazada.

You might also like