Professional Documents
Culture Documents
NACIONAL
DE COLOMBIA
Sede BogJtá
colección textos
J. HUMBERTO MAYORGA A.
Es estadístico con maestría en ciencias-estadística
Inferencia
estadística
© J. Humberto Mayorga A.
UNIBIBLOS
Director general
Francisco Montaña Ibáñez
Coordinaci6n editorial
Dora Inés Perilla Castillo
Revisi6n editorial
Fernando Carretero
Carátula
Camilo Umaña
ISBN 958-701-374-3
ISBN 958-701-138-4
(obra completa)
Prólogo vii
Introducción ix
1 Distribuciones Muestrales 1
1.1 La inferencia estadística como un soporte epistemológico. 2
1.2 Preliminares de la inferencia estadística . . . . . . . 5
1.3 Preliminares de convergencia de variables aleatorias 12
1.4 Características generales de algunas estadísticas. 17
1.5 Estadísticas de orden. . . . . . . . . . . . . . . . . . 25
1. 5.1 Distribución de las estadísticas de orden . . . 27
1.5.2 Distribución del rango, semirrango y mediana de
la muestra. . . . . . . . . . . . . . . . . . . . . 29
1.5.3 Distribución de la función de distribución de la
muestra . . . . . . . . . . . 30
1.6 Momentos de estadísticas de orden 31
1.7 Demostración de los teoremas 34
1.8 Ejercicios . . . . . . . . . . . . . . 57
III
iv CONTENIDO
Bibliografía 289
Prólogo
vii
VIll PRÓLOGO
ix
x INTRODUCCIÓN
Distribuciones Muestrales
1
2 CAPÍTULO 1. DISTRIBUCIONES MUESTRA LES
--
sustentan la posibilidad de inferir probabilidades desconocidas a partir
de frecuencias relativas. Sin embargo, según Popper, sustituir la exigen-
cia de verdad por la validez probabilística para las inferencias inductivas
no lo hace un procedimiento legítimo.
Durante las primeras décadas del siglo pasado, a raíz de los impor-
tantes avances de la ciencia ocurridos a finales del siglo XIX y a prin-
cipios del siglo XX, avances que no podían pasar inadvertidos para los
pensadores, obligaron a los filósofos a revisar muchas de las ideas de los
clásicos y es así como un grupo de hombres de ciencia, matemáticos y
filósofos, se organizan en 1922 en torno al físico Moritz Schlick, profesor
de filosofía de la ciencia de la Universidad de Viena, convirtiéndose en
un movimiento filosófico internacional, principal promotor del positivis-
mo lógico (también llamado neopositivismo, neo empirismo o empirismo
lógico), movimiento conocido como Círculo de Viena, conformado entre
otros, además de Schlick, por Hahn, Frank, Neurath, Kraft, Feigl, Wais-
mann, Cadel, y Carnap; Einstein, Russell y Wittgenstein eran conside-
rados miembros honoríficos y Ramsey y Reinchenbach como miembros
simpatizantes del mismo.
Este movimiento filosófico se dedicó a muchos y variados temas de
la filosofía de la ciencia, y por supuesto al problema de la inducción. En
síntesis, puede afirmarse que el hilo conductor de las ideas del Círculo
de Viena fue la defensa de una visión científica del mundo a través de
una ciencia unificada ligado al empleo del análisis lógico en el sentido de
Russell.
4 CAPÍTULO 1. DISTRIBUCIONES MUESTRA LES
3. ¿Cuáles son los principios que rigen este proceso tan particular de
inferencia?
6 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
tadísticas de las cuales se dispone de los valores Xl, X2, . .. ,Xn , corres-
pondientes a una variable denotada por X. En otros términos, el valor
Xi puede entenderse como una realización de la correspondiente variable
aleatoria Xi, i = 1,2, ... , n; por eso es habitual encontrar recurrente-
mente la expresión "sea Xl, X 2 , ... ,Xn una muestra aleatoria de una
población con función de densidad ... ". El contexto en el cual se en-
cuentre el vocablo población delimita la acepción en uso: un conjunto
o una variable aleatoria. Las constantes constitutivas del modelo pro-
babilístico elegido para representar una población, llamadas usualmente
parámetros, se disponen en un vector de k componentes, k = 1,2, ... ,
que puede denotarse como () al cual se le designa como parámetro del
modelo.
Definición 1.2.2. Sea Xl, X2, ... ,Xn , una muestra aleatoria de una
población cuya función de densidad o función de probabilidad depende
de un parámetro (), vector de k componentes, y sea además t una función
de dominio ~n y recorrido ~q con q :s; n, tal que t(X l , X 2 , ..• , X n ) es
un vector aleatorio de q componentes, q = 1,2, ... ,n, función que no de-
pende de ningún componente del vector (), ni de constantes desconocidas,
también llamadas parámetros que cuantifican rasgos generales en la po-
blación cuando no se asume un modelo específico. En estas condiciones,
el vector aleatorio t(X l , X2, ... ,Xn ) recibe el nombre de estadística.
• Xl + X 2 + ... + X n = X n
n
10 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
• (X n , S~)
• (X 1 ,X2 , ... ,Xn )
n-1
.-~~~_-_-_-_-_-] ~./ 1
100%¡,.,.,.,........
~u I I
~Q), I I
I I
o Calidad 100%
Definición 1.2.6. Sea Xl, X 2 , ... , X n una muestra aleatoria de una po-
blación con momentos ordinarios y centrales /-l~ y /-lr respectivamente.
Los momentos muestrales, ordinarios y centrales de orden r,
r = 1,2, ... , cumplen en la muestra funciones análogas a los momentos
poblacionales /-l~ y /-lr, se denotan y definen como
1 n
M: ,n = -
n~" Xi
i=l
1 n _
Mr,n =;; ¿(Xi - Xnf·
i=l
1 n
n _ 1 ¿(Xi - Xn)2.
t=l
P [lim X n
n-->oo
= c] = 1
esté siempre definido.
Se dice que la sucesión de variables aleatorias {Xn } converge casi
seguro a cero o converge a cero con probabilidad uno si:
P [lim X n =
n-->oo
o] = 1.
En efecto,
P [ lim X n
n-->oo
= O] = 1
puesto que P[Xn = O] = 1 - (!r·Como V [Xn ] = ar [1- (!rJ,
puede notarse el decrecimiento de dicha varianza en cuanto n se incre-
menta, es decir, X n va perdiendo el carácter de variable aleatoria porque
su varianza va tendiendo a cero, esto es, la variable va asumiendo rasgos
de una constante.
En segundo lugar, se dice que la suceSlOn de variables aleatorias
{Xn } converge en probabilidad a la variable aleatoria X, hecho
simbolizado como
14 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
Teorema 1.3.2. Siendo las variables aleatorias X~j) , Xj, j = 1,2, ... , k,
Y la función 9 : IR. k -----7 IR. continua, tal que tanto g(X~l), X~2), ... ,X~k))
como g(X1 , X2, . .. ,Xn ) sean variables aleatorias, entonces si X:.p ~ X j
implica que
1. X n + Wn ~X + W.
p
2. X n W n ---+ XW.
5. X~ ~ X2.
lim Mxn(t) =
n~oo
lim [1 - 7r (1 - et)t =
n~oo
lim
n~oo
[1 - ~n (1- et)]n
= eA(et-l) ,
lim
n~oo
(1 - 2t)
n
-~ lim
h~O
(1 - ht)-* = et siendo h
2
= -h .
Esto significa que Fx(x) es una función tal que Fx(x) = O para x < 1 Y
Fx(x) = 1 para x :2: 1; es decir, se trata de una constante igual a t. En
consecuencia, el teorema anterior permite concluir que Y n ~ 1.
Teorema 1.3.9. Estando las variables aleatorias Xl, X2, ... y la va-
riable particular X definidas sobre el mismo espacio de probabilidad
(D,A,P):
1.4. CARACTERÍSTICAS GENERALES DE ALGUNAS ESTADÍSTICAS 17
Convergencia
casi segura
, ~~---~-.,
Convergencia en
}
Convergencia en
probabilidad distribución
~~/
Convergencia en
valor esperado
Teorema 1.4.1. Si X l ,X2, ... ,Xn es una muestra aleatoria de una po-
blación representada por la variable aleatoria X con varianza a 2 y con
momento ordinario J-l~r' r = 1,2, ... , entonces el valor esperado y la
varianza del momento muestral ordinario son, respectivamente:
E[Mr,n
I l-
- J-lrI
= ~ [J-l~r - (J-l~)2] .
Corolario 1.4.2. Según las hipótesis del teorema 1.4.1,
E[Snl2= E [1 n_ 1~
~(Xi - X n) - 2] = a2
V[Snl 2 = -1 ( J-l4 - n -- a
- 3 4) ,n > 1.
n n-1
El tamaño de la muestra es un elemento sustancial tanto para las
disquisiciones en la teoría de la estadística como para la utilización de la
misma. La pregunta, por su magnitud, es quizá de las más inquietantes
para el investigador en la búsqueda de respaldo a la confiabilidad de su
investigación; el tamaño muestral es uno de los aspectos con los cuales
se certifican o descalifican estudios. Es, en definitiva, un punto obligado
para dilucidar.
1.4. CARACTERÍSTICAS GENERALES DE ALGUNAS ESTADÍSTICAS 19
y en consecuencia S~ E,. a 2 .
Con la denominación de teorema del límite central debe entenderse
más a un conjunto de teoremas concernientes a la convergencia en dis-
tribución de la suma de un número creciente de variables aleatorias al
modelo gaussiano, que a la más popular de sus versiones. Es un conjun-
to de teoremas fundamentales de la estadística, pues constituyen puntos
de apoyo sustanciales de la inferencia estadística y de las aplicaciones.
Dentro de la citada denominación de teorema del límite central se
incluyen variantes como la versión original conocida como la ley de los
1.4. CARACTERÍSTICAS GENERALES DE ALGUNAS ESTADÍSTICAS 21
_ X n - J.l
Zn - a
Vn
entonces la sucesión de variables aleatorias {Zn} converge en distribu-
ción a una variable aleatoria con distribución Normal estándar.
que su valor esperado JLi y su varianza (J"; son finitos, i = 1,2, ... y asu-
n
miendo que T~ 2: (J"'f ----+ 00 y además que max {~} ----+ O cuando
i=l l:Si:Sn n T
f: (Xi - ¡ti)
i=l
d
----+ Z ~ N(O, 1)
Tn
lim ~t
n-too T n i=l
(r J1X-J.Li I?ETn
(x - JLi)2 fi(X)dX) = O
b - n1f)
<I> ( Jn1f(l _ 1f) - <I>
(a - n1f )
Jn1f(l - 1f) .
b
Sin embargo, como P[a S Tn S b] = I: P[Tn = k], cada término
k=a
P[Tn = k] puede aproximarse por medio del área entre k - ~ y k + ~
bajo la curva de la función de densidad de una variable aleatoria con
distribución normal de valor esperado n1f y varianza n1f(l - 1f), como
se sugiere en la figura 1.3, área equivalente al área bajo la curva de
la función de densidad de una variable aleatoria normal estándar entre
k-!-nn k+!-nn
2 y 2 , de manera que
Jnn(l-n) Jnn(l-n)
b + .! - n1f ) ( a - .! - n1f )
P[a < Tn < b] ~ <I> 2 - <I> 2 .
- - ( Jn1f(l - 1f) Jn1f(l - 1f)
k-!
/ tk' "
k+!
u= t
i=l
(Xi:' J-li) 2
t
rv X2 (n ).
u= t(
t=l
Xi:' J-l) 2 rv x2(n).
siendo
X l,n : mínimo de la muestra
• El rango muestral:
R = Xn,n - Xl,n
• El semirrango muestral:
SR = Xl,n + Xn,n
2
• La mediana muestral:
X!!±.! n , si n es impar
2 '
Me =
X!!2' n + X~+l,n , si n es par
2
Es decir:
0, S2 X < Xl,n
k
,
n
Teorema 1.5.2. Siendo Xl,n, X 2 ,n, ... ,Xn,n las estadísticas de orden
o la muestra ordenada de una población con función de distribución
Fx(x), entonces para k = 1,2, ... ,n
en otros casos
Ejemplo 1.5.5. Siendo Xl, X2, ... , X n una muestra aleatoria de una
población con distribución Uniforme en el intervalo (a, (3), determinar
la función de densidad de la k-ésima estadística de orden.
1
fx(x) = j3 _ a 1(a,(3) (x)
x-a
Fx(x) = j3 _ a 1(a,(3) (x) + 1[(3,00) (x)
n! ..
(1)
a
(3 -
n
(y - a)
k-1
((3 - y)
n-k
I(O:,{J) (y).
y =a + (j3 - a)X.
Teorema 1.5.6. Sea Xl, X 2 , ... , X n , una muestra aleatoria de una po-
blación con función de distribución Fx(x) continua. Para p fijo, si x p
denota al único percentil lOOp poblacional, entonces
I=J
1.5. ESTADÍSTICAS DE ORDEN 29
R = Xn,n - X 1 ,n
T = X 1,n + Xn,n
2
se considera la siguiente transformación
r r
x = t -- y = t+-
2 2
cuyo jacobiano es
ax ax 1
-2 1
ar at =1
ay ay 1
1
2
ar at
con lo cual
fR,T(r, t) = n(n-1) [Fx (t +~) - Fx (t - ~)r-2 fx (t -~) fx (t + ~).
En consecuencia, para r > 0, se tiene
Zi = IC-oo,x] (Xi)
n
luego Zi rv Ber(Fx(x)); por tanto ¿ Zi rv Bin(n, Fx(x)) y por consi-
i=l
guiente
E[Fn(x)] = Fx(x)
V[Fn(x)] = F x (x)[1 - Fx(x)].
n
Teorema 1.5.7. Siendo Xl, X 2, ... ,Xn una muestra aleatoria de una
población con función de distribución Fx(x), entonces
p
Fn(x) -t Fx(x)
para un valor x dado.
Teorema 1.5.8 (Teorema de Glivenko-Cantelli). Si Xl, X2, ... , X n
es una muestra aleatoria de una población con función de distribución
Fx(x), entonces Fn(x) converge uniformemente a Fx(x), esto es, para
cada f > 0,
-- Xo
Teorema 1.5.9. Siendo Xl, X 2 , •.. ,Xn una muestra aleatoria de una
población con función de distribución Fx (x), la sucesión de variables
aleatorias
fo[Fn(x) - Fx(x)] }
{ JFx(x)[l - Fx(x)]
Ejemplo 1.6.1. Siendo X 1 ,n, X2,n, ... ,Xn,n una muestra ordenada de
32 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
r n.
E[Xk,nl = (k _ 1)!(n _ k)! , 1 1
O X
r+k-1
(1 - X)
n-k
dx
n!
(k _ 1)!(n _ k)!f3(r + k, n-k + 1)
E[X 1- nIkI _ k
k,n - (n + 1)!(k - 1)! - n +1
V [Xk,nl = E[X~,nl - (E[Xk,n])2
E[X 2 1_ n!(k + 2 - 1)! _ k(k + 1)
k,n - (n + 2)!(k - 1)! - (n + 1)(n + 2)
V X _ k(k + 1) k2 k(n - k + 1)
[ k,nl - (n + 1)(n + 2) (n + 1)2 (n + 2)(n + 1)2
ó. =
n!
-,.
r.
Jo{l Jo .
xJy(y - X)k-J-l(l - y)n-kdxdy
n!
·'J{l y(l-yt- k Jo [r . .]
xJ(y-x)k-J-1dx dy
o
1.6. MOMENTOS DE ESTADÍSTICAS DE ORDEN 33
Realizando la sustitución v =~
y
j(k+1) -E[X. X 1
(n + l)(n + 2) - ),n, k,n
con lo cual
Cov(X. X ) _ j(k + 1) jk
),n, k,n - (n + l)(n + 2) j<k
(n + 1)2
j(n - k + 1)
j < k.
k(n - j + 1)
Por tanto, como caso especial, la correlación entre el mínimo y máximo
de la muestra bajo comportamiento poblacional Uniforme en el intervalo
(0,1) es
1
p(X1,n, X n,n) = -.
n
Como ya se mencionó, en algunos casos se requiere integración nu-
mérica para determinar momentos de una estadística de orden. Sin
embargo, es posible presentar expresiones que permiten aproximar el
valor esperado y varianza de la k-ésima estadística de orden.
El desarrollo de estas expresiones se basa en una expansión en serie de
Taylor y en que si X es una variable aleatoria con función de distribución
Fx(x) continua, la variable aleatoria Y = Fx(X) tiene distribución
Uniforme en (0,1), entonces
Teorema 1.6.2. Sea Xl, X 2 , ... ,Xn una muestra aleatoria de una po-
blación cuya función de distribución Fx(x) es estrictamente monótona.
Asumiendo que x p es el percentillOOp poblacional, es decir, Fx(x p ) = p,
entonces la estadística de orden [np] + 1 tiene distribución asintótica
Normal con valor esperado x p y varianza ,~(l;-p~,~.
lim Fn(e
n----+oo
+ E) = 1 Y lim Fn(e - E) = O
n---+oo
hecho revelador de que Fn(x) -----+ F(x), siendo F(x) una función de
distribución tal que
si x < e
si x ~ e
es decir, F(x) es la función de distribución de una constante e.
Suponiendo ahora que Fn(x) -----+ F(x) con F(x) = I[c,oo) (x), es decir
Entonces:
luego
lim [Fn(e
n--+oo
+ E) - Fn(e - E)] = 1 = lim P [e - E < X n < e + E]
n---+oo
= n-->oo
lim P [lXn - el < E]
E[M;,nl = /-l~
,
E[Mr ,nl = -n
l¿n,/-lr = -1(n/-l')_ ,
r - /-lr'
n
i=l
V[M;,nl = ~2 t
i=l
(/-l~r - (/-l~)2) = ~ (/-l~r - (/-l~)2) . D
1.7. DEMOSTRACIÓN DE LOS TEOREMAS 37
Teorema 1.4.3. Si Xl, X 2, ... ,Xn es una muestra aleatoria de una po-
blación con valor esperado, también llamado promedio poblacional,
¡..t y varianza 0- 2, conocida como varianza poblacional, y existiendo
además el momento central de orden cuatro ¡..t4, entonces
2 =;;,1 ( ¡..t4 -
V[Snl
n- 3
n _ 10-
4) ,n > 1.
Demostración. Para determinar el valor esperado de la varianza mues-
tral, es necesario previamente verificar la identidad
n
¿)Xi - ¡..t)2 = (n - l)S~ + n(X n - ¡..t)2.
i=l
n n
porque ¿(Xi - X n ) = ¿ Xi - nX n = nX n - nX n = 0, y por tanto
i=l i=l
n
¿(Xi - ¡..t)2 = (n - l)S~ + n(X n - ¡..t)2.
i=l
2= E
E[Snl [1 -
n-l
¿n (Xi - ¡..t) 2- -n( X
n-l
- n - ¡..t) 2]
i=l
()2
Nota. La cota 1 - -2 crece en cuanto n crece. Si se fija la cota en
nE
1 - 6, O < 6 < 1, significa que existe un tamaño de muestra mínimo n,
-- ()2
para el cualP[IXn-¡L1 < El2=: 1-6. En otros términos: 1 - - 2
> 1-6,
nE
es decir,
()2
P[ -E < X n - ¡L < El 2=: 1 - 6, para n > 6E 2 ' o
Teorema 1.4.6. Si Xl, X 2, .. . , X n es una muestra aleatoria de una
población con valor esperado ¡L, entonces
-- p
Xn ~ ¡L.
MXn(t) = E [e
tXn
] = E [exp (~Xl + ~X2 + ... + ~Xn)].
Como las variables constituyen una muestra aleatoria, ellas son indepen-
dientes, con lo cual
rr rr
n n
MxJt) = E [e~Xi] = E [e~x]
i=l i=l
entonces:
MX (t)
n
= [1 + 1!¡L (!)
n
+ ~E[X2l (!)2
2! n
+ ... jn
P
Mr,n
I
----+
I
/-lr, r = 1,2, ...
n
~L [X[] LE [Xí] = /-l~. o
n i=l
Teorema 1.4.9
La demostración puede consultarse en el texto Probability and Statisti-
cal Inference (Robert Bartoszynski y Magdalena Niewiadomska-Bugaj
(1996). pp. 430 a 431).
Como las variables de la sucesión Xl, X2, . .. ,Xn son variables aleato-
rias independientes por tratarse de una muestra aleatoria, las variables
Yl , Y2 , ... ,Yn también lo son, siendo Yi = Xi;/!, i = 1,2, ... , n y por
tanto,
M y (_t )
yn
= 1 + ~ (J2 (_t
21 (J2 yn
)2 + ~¡..t3(J3 (_t
31 yn
)3 + ...
= 1 + -1[12
-t 1
+ --¡..t3t 1
3 + -¡..t4t 4 +... ] .
n 21 3!yn 4!n
42 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
= exp ( n->oo
lim Qn(t))
= e~t2
lim { 1 + -en }n = é.
n->oo n
MxJt) = E [e tXn ]
MxJt) = g Mx (~)
= g H ~a' m')
cxp +
= [expH+~a2m')r
= exp (P,t + t: t
2
)
Mu(t) = E [e tU ] = E et i=1
[
t Z¡] =E g
[n etZi 2] .
Mu(t)
n
= II E [e tZ¡]
n
= II Mz¡(t) = IIn ( 1 _1 2t )~ (1 ~ ~
2t)
i=l i=l i=l
Hecho que permite concluir que U rv x2 (n). o
Teorema 1.4.18. Si Xl, X 2, ... , X n es una muestra aleatoria de una
población con distribución Normal de valor esperado ¡.t y varianza a 2,
entonces las estadísticas X n y S~ son dos variables aleatorias estadísti-
camente independientes.
c r
J~n
exp [fXn + tl(Xl - xn ) + ... + tn(x n - xn ) - t
i=l
(Xi - :)2] dx.
2a
1
¡eX) '2- exp { [t + nti _ (it + t2 + ... + t )] Xi _ (Xi - ¡.t) 2 } d t.
J-oo v.:.7ra n n 2a2 X
1.7. DEMOSTRACIÓN DE LOS TEOREMAS 45
1[
:;:;: t + nti - ~.=l ti
n 1=:;:;:1[t + n(ti - t)] , con t = -1:L:>i. n
. n í=l
La integral anterior puede expresarse como
f-00
oo 1 { 1 (x· - J-t)2}
--exp -[t+n(tí-t)]Xí- t
.,f2i[(J n
dXí
2(J2
cuyo valor es finalmente
exp
J-t[
- t
{n
+ n (tí - -)]
t + (J2[t+n(t2í -t)]2} .
2n
Por consiguiente:
n
y como ¿ (tí - t) = 0, entonces
í=l
~ (Xi - X n ? _ (n - l)S~ 2( )
~ -'-----,2:::---'--- - X n - 1 .
(J (J 2 r"V
í=l
46 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
Por tanto,
n
¿ (Xi - ¡.t)2 n
¿(Xi-Xn
- )2
n(Xn-¡.t)
2
i=l
(J2
i-l
(J2 + (J2
luego
E exp t
i~(Xi - ¡.t)2)]
(J 2
[ (
(( n - 1) S~
2
_ E [
- exp t (J 2 + t n (X n(J 2- ¡.t) ) ]
n)2 -)2
¿ (Xi
i=l
- ¡.t
rv
2
X (n) Y
n(X n - ¡.t
(J2
rv X2(1),
(J2
entonces
_ 1 ) 'i =
( 1 - 2t
E[exp [t (n -(J21) S~]] (1_- 12t ) ~
es decir:
E [ exp [ t
(n - l)S~]] =
(J 2
(_1
-
) n;-l
1 2t t
1
< -.
2
Expresado de otra manera:
n -
n )2 2
¿ (Xi -
i-l X (n - ?l)Sn rv x2(n _ 1).
o
(J 2 (J
1.7. DEMOSTRACIÓN DE LOS TEOREMAS 47
Por último:
- 1 n+1 1 [n
X n+l = --1 ¿::Xi = --1 ¿::Xi + X n+1
1= 1 -
--1 [nX n + X n+1]
n + i=l n+ i=l n+
n+l n+l
2 '"' (X i -X
nSn+1=~ - n)+12 '"'
=~ (Xi-Xn+Xn-Xn+l
- - - )2
i=l i=l
n+l
= ¿:: [(Xi - Xn)2 + 2 (X n - X n+1 ) (Xi - X n )
i=l
+ (X n - X n+1)2]
n
= (n - l)S~ + (Xn+1 - Xn)2 + 2 (X n - X n+1 ) ¿:: (Xi - X n)
i=l
+ 2 (X n - X n+1 ) (Xn+1 - X n ) + (n + 1) (X n - X n+l)2
n
Como ¿ (Xi - X n ) = 0,
i=l
-X - = -1- (- X n+1 )
(n + l)X n+1 = nX n + X n+1 y n - X n+l
n+1
Xn-
se tiene
2
nSn+1 = (n - l)Sn2 + ( X n+1 - -X n )2
+ (X n-Xn+ 1) [2X + + (n - - n-
l)X (nX
-n + X n+1 )]
n 1
n+1
= (n - l)Sn
2 + (X n+1 -)2 -
- Xn
(X n +1 - X n ) (
1 X n+1 -
-
Xn
)
n+
= (n - l)Sn2 + --1
n (X +
n 1 -
-X )2
n
n+
1.7. DEMOSTRACIÓN DE LOS TEOREMAS 49
2)
COV (x 2, 8 2 = cov
(Xl + X 2 (Xl - X
2 ' 2
2)2)
= lcov (Xl + X 2, (Xl - X 2)2)
= l [COV (Xl + X2, xí - 2X I X 2 + Xi)]
Por hipótesis de inducción, cov (Xn, 8~) = o. Ahora para una muestra
de tamaño n + 1, cov (X n+1, 8;+1) = .6.
Ahora,
luego
(-X n + l , S2) - O n + O(n +1 1)2 = O. o
COV n+l - (n + 1)2
n
Desarrollando el cuadrado allí indicado y como ¿ (Xi - X n) = O, en-
i=l
tonces
n n
"
~(Xi - Xj) 2 "
= ~(Xi - -
X n2
) + n(Xj - -
X n2
)
i=l i=l
1.7. DEMOSTRACIÓN DE LOS TEOREMAS 51
luego
n n n n
En consecuencia,
FXk,n(y) = :t (~)
j=k J
j
[Fx(y)]j[l- Fx(y)]n- .
Cn,j,k[Fx (x )]3-1 [Fx(Y) - Fx(x )]k-j-l [1- Fx (y)t- k fx(y)fx (x )I(x,oo) (y)
O en otros casos
• •
y y+h
(k -1)7~n _ k)! k
[FX(y)]k-l [1 - Fx(y)t- fx(Y) = fXk,n (y).
x x+h Xj,n
Intervalo Probabilidad I
(-00, x] = h I Fx(x) = PI I
(x, x + h] = h I Fx(x + h) - Fx(x) = P2 I
(x + h, y] = h I Fx(Y) - Fx(x + h) = P3 I
(y,y+t]=14 I Fx(y+t)-Fx(y)=P41
(y+t,oo)=h I 1- Fx(y+t)=P5 I
Tabla 1.1:
Luego
luego
·
l 1m A(h, t) = B()
x l'
1m
D(h, t)
h--+O,t--+O ht h--+O,t--+O ht
donde lim D~,t) corresponde a
h--+O,t--+O
Esto es:
es decir, fXj,n,Xk,JX, y) es
para 1 ::; j < k ::; n, con Cn,j,k = n!j[(j - l)!(k - j - l)!(n - k)!].
La última parte es la generalización de los casos anteriores.
Igualmente, con el apoyo de la distribución multinomial y teniendo en
cuenta que la función conjunta de densidad f X l,n,X2,n, ... ,Xn,n (YI, Y2,··· ,Yn)
es
i=l
fX(Yi) para YI < Y2 < ... < Yn'
o
Teorema 1.5.6. Sea Xl, X2, ... ,Xn , una muestra aleatoria de una po-
blación con función de distribución Fx(x) continua. Para p fijo, si x p
denota al único percentil lOOp poblacional, entonces
luego
P [Xj,n ~x p] =P [t 2. j] = t
~=l
Zi
l=J
(7)pl(1- p)n-l
por tanto,
P [Xj,n ~ x ~ Xk,n] =
p t
l=J
l
(7)pl(1- pt- - tl=k
(7)pl(1- p)n-l
y como j < k,
P [Xj,n ~ xp ~ Xk,n] = L
k-l (
l=J
7 )
pl(1- pt- l . o
Teorema 1.5.8
La demostración puede consultarse en el texto Probability and Statisti-
cal Inference (Robert Bartoszynski y Magdalena Niewiadomska-Bugaj
(1996) pp. 726 a 729).
1.8 Ejercicios
1. Demuestre que si la sucesión {Xn } converge en media cuadrática
también converge en probabilidad.
2. Demuestre que el promedio basado en una muestra de tamaño n
de una población con valor esperado ¡L y varianza (]'2, converge en
media cuadrática a ¡L.
3. Si las variables aleatorias Xl, X 2, ... ,Xn constituyen una muestra
aleatoria de una población con función de densidad,
fx(x) = 2x I(O,l) (x)
determine la distribución muestral del mínimo de la muestra.
58 CAPÍTULO 1. DISTRIBUCIONES MUESTRALES
6. Si las variables aleatorias Xl, X2, ... ,Xn constituyen una muestra
aleatoria de una población con distribución Exponencial de pa-
rámetro e, determine la distribución muestral del mínimo de la
muestra.
16. Si las variables aleatorias Xl, X 2 , ... ,Xn constituyen una muestra
aleatoria de una población con distribución de Bernoulli de pa-
rámetro e, determine la probabilidad de que Xl = 1, dado que
n
¿Xi =j,j=1,2, ... ,n.
i=l
17. Si las variables aleatorias Xl, X2, ... ,Xn constituyen una muestra
aleatoria de una población con distribución de Poisson con pa-
rámetro e, demuestre que para cualquier entero positivo k, con
k :s; n, la distribución condicional de Xl, X 2 , ... , X n , dado que
n
¿ Xi = k, corresponde a una distribución multinomial.
i=l
21. Con base en el ejercicio 20, ¿cuál debe ser el tamaño de la muestra,
si la varianza fuese el doble?
27. Si las variables aleatorias Xl, X 2 , ... ,Xn constituyen una muestra
aleatoria de una población con distribución de Bernoulli de pará-
metro e, ¿cuál es la distribución conjunta de Xl, X2, ... ,Xn y cuál
n
es la distribución de la estadística ¿ Xi?
i=l
35. Si las variables aleatorias Xl, X2, ... ,Xn constituyen una pobla-
ción con mediana e, demuestre que la mediana de la muestra con-
verge en probabilidad a e.
41. Si las variables aleatorias Xl, X 2, ... ,Xn constituyen una muestra
aleatoria de una población con función de densidad
determine el tamaño de la muestra tal que P [f= Xi > gn] ::; 0.05.
t=l
Estimación puntual de
parámetros
En la primera sección del capítulo 1 se anotó que los modelos son ele-
mentos conexos con los quehaceres de la Ciencia. De índole diferente y
con propósitos distintos, los modelos son artificios que cooperan en la
descripción y explicación de la realidad al representarla de una manera
muy peculiar, que posibilitan descripciones y explicaciones generales o
minuciosas, según el propósito.
Entre otras funciones, el modelo subsume, en una especie de ideogra-
ma, una variedad de casos similares. Como modelo especial, el proba-
bilístico, por su parte, simboliza mediante una expresión algebraica el
comportamiento genérico de variables que aluden a mediciones, conteos,
o valoraciones de unidades estadísticas; pero, igualmente, el modelo pro-
babilístico puede entenderse como la representación del compendio de
situaciones individuales, es decir, constituye una familia de modelos par-
ticulares de la misma naturaleza, los cuales pueden singularizarse deter-
minando valores específicos de los parámetros, aquellas constantes que
son elementos integrantes del modelo.
El vocablo puntual, que adjetiva la estimación motivo de este capítulo,
tiene en castellano varias acepciones. El sentido que debe otorgársele
dentro del contexto de la inferencia estadística es el de perteneciente
o relativo al punto, por tratarse de la estimación de un parámetro por
medio de un valor particular de una estadística, un punto del recorrido
de ella, y también para distinguirla de la estimación por intervalo. Por
ello, algunos traductores utilizan la expresión de estimación de punto.
65
66 CAPÍTULO 2. ESTIMACIÓN PUNTUAL DE PARÁMETROS
(h ..
01
rr
n
L(O; Xl, X2,···, Xn ) = fX(Xi, O).
i=l
2.1. MÉTODOS CLÁSICOS PARA CONSTRUIR ESTIMADORES 69
1
- o equivalentemente nivel bajo, si x = O o si x = 1.
4
1
- o equivalentemente nivel medio, si x = 2.
2 -
3
'4 o equivalentemente nivel alto, si x = 3 o si x =4
x
O O 1 2 3 4
1
4: 0.316406 0.421875 0.210938 0.046875 0.003906
1
"2 0.062500 0.250000 0.375000 0.250000 0.062500
3 0.046875 0.421875 0.316406
4: 0.003906 0.210938
Se podría construir una tabla similar con una selección de valores par-
ticulares de (). Entonces, denotando como X: número de botellas cuyas
tapas contienen la leyenda promocional en una canasta de 30 unidades,
los valores de la función
vistos como los componentes de una fila en una tabla similar a la 2.1,
son los valores de una función de densidad para un valor específico de ().
Una columna de una tabla construida con algunos valores de () estaría
constituida por un conjunto de valores de funciones de densidad calcu-
lados con distintos valores del parámetro () y fijo el valor de x. Leída
verticalmente esta tabla, mostraría el máximo del citado conjunto, la
mayor probabilidad, indicativa de que su correspondiente valor de () es
el valor más verosímil según las condiciones mencionadas.
Como para efectos de esta estimación no existe la posibilidad de elegir
valores particulares del parámetro, se acude al cálculo diferencial y de
esta forma el valor de () para el cual L(()) sea máxima corresponde al
valor más verosímil del nivel de estampación. Por ejemplo, si en una
canasta se encuentran seis botellas cuyas tapas están marcadas con la
leyenda promocional,
n
L(e; Xl, X2, ... , Xn ) = eX1 (1 - e)I-X1 eX2 (1 - e)I-X2 ... e (1 - e)l-x
Xn n
II [{D,l} (Xi)
i=l
n n n
¿: Xi n- ¿: Xi
= ei~1 (1 - e) i~1 II [{D,l} (Xi)
o n n
lo cual garantiza la existencia del máximo de ln( L( O; Xl, X2, ... ,x n )).
Luego In L( O) tiene máximo cuando
n n
¿Xi n- ¿ Xi
i=l i=l
O 1-0
2.1. MÉTODOS CLÁSICOS PARA CONSTRUIR ESTIMADORES 73
n
Entonces, InL(O) tiene máximo en O = ~ ¿ Xi. Es decir, el estimador
i=l
máximo-verosímil de O es X n = Pn , llamado como ya se había anotado,
proporción muestral.
e-BO x
fx(x, O) = -,-I{Ü,1,2, ... }(x),
x.
OE e = {OIO > O}
In (TI Xi) .
~=l
fx(x, ())
• •
()_l () ()+~ x
2
n
L((); Xl, X2,···, Xn ) = rr I[B_~,o+~](Xi)
i=l
L( ())
• •
Xn,n -
1
"2 Xl,n + "21 ()
L( e)
Xn,n e
n! n
(n _ k)!. rr
z=l
k 1 ~ Xi,n
(je -0--- y rr
i=k+l
e~6
Xk n
n!
L = (n - k)! [m t kexp ( -~ Xi,n) (exp ( - (n - :)Xk,n) ) 1
L
n!
= (n - k)! [G)' exp ( -~ (t Xin + (n - k)Xk,n) ) 1
2.1. MÉTODOS CLÁSICOS PARA CONSTRUIR ESTIMADORES 79
Teorema 2.1.15. Sea Xl, X 2 , ... ,Xn una muestra aleatoria de una
población con función de densidad fx(x, O). Existiendo el momento
2r
J.l2r = E [X ] , r = 1,2, ... ,
n
1~(
-~ Xi-X n
- )r p
-tJ.lr·
n i=l
M{ E. J.l~
I P I
M2 -t J.l2
M k' P
-t
I
J.lk·
Xn
luego _ _ _(}.:....!2~_ _ E.. 1.
n
*¿(Xi- X n)2
i=l
Por lo anterior,
Xn P
--:c:- - - - -
n -+ O2 .
* ¿(Xi - Xn)2
i=l
luego ( ~)2
X
-
n
P
-+
02·
2
También:
por tanto,
En consecuencia:
-2
__n__X_n'-'--_ _ E.. 01 .
* ¿(Xi - Xn)2
i=l
En síntesis,
X~ Xn)
( n
* i~(Xi - X n )2
'n
*i~ (Xi - Xn)2
Ejemplo 2.1.17. Sea Xl, X 2, . .. ,Xn una muestra aleatoria de una po-
blación Uniforme en el intervalo (-e, e). Determinar por el método de
los momentos el estimador de e.
Partiendo del hecho de que X n ~ O, al no contener información sobre e
se explora en otra dirección. Como el segundo momento ordinario es
e2
:3
1 n
_n~ e2
"xt--->-
2 p
i=l 3
y por lo tanto
~n~
~ X2 ~e. t
i=l
n
Luego 1/ ~ L Xl es el estimador por el método de los momentos de e.
i=l
Ejemplo 2.1.19. Sea Xl, X2,'" ,Xn una muestra aleatoria de una po-
blación con función de densidad
1
ge (e) = ni 1 \ ea - 1(1 - e)b-1 1(0,1) (e)
C~ Xi + a, n + b - i~ Xi)
f3
Definición 2.1.22. Sea Xl, X 2 , ... ,Xn una muestra aleatoria de una
población con función de densidad fx(x, O). Una familia D de densi-
dades se dice que es conjugada para la función de densidad fx(x, O),
o que es cerrada bajo muestreo respecto a la función de densidad
fx(x, O), si la función de densidad a priori de e, ge(O) E D Y si
felxl,x2, ... ,xn (OIXI, X2,.· ., x n ) E D.
Definición 2.1.23. Sea Xl, X2, ... ,Xn una muestra aleatoria de una
población con función de densidad fx(x, O), ge(O) la función de densi-
dad a priori de e, y r(O) una función del parámetro O. El estimador
bayesiano para la imagen de O bajo la función r, respecto a la función
de densidad a priori ge (O) es aquel cuya estimación corresponde a
E [r( e) [XI, X
2
, ••• ,Xnl ~ 1"=' r( e) [iD, f x (x.¡o)1ge( e)de
J~oo [iDI fX(XiIO)] ge(O)dO
1
Jo
¿n x;+a-l
e ei =l
n- ¿n xi+b-
(1 - e) i=l
1de
1
1
Jo
¿n x;+a
ei =l
n- ¿n xi+b-
(1 - e) i=l
1 de
1
(3 C~ Xi + a , n + b - i~ Xi)
n
¿Xi+ a
i=l
n
¿Xi+a
1: - _i=_l_ __
n- n+a+b
n
¿Xi+ 1
T - _i=_l_ __
n - n+2
siguiente:
r10(1 [ f Xi n
E [r(8)[X X Jo - O) Oi=l (1 - O)n-¿ Xi]
1, 2, ... ,X l= ,=1 dO
n n
1 ¿ Xi
Jo Oi=l (1 - O)n-¿
,=1 Xi] dO
n
1 ¿n x;+l n- ¿nXi+]
1
Jo [Oi=l (1 - O) i=l dO
(3 C~ Xi + 1 , n + 1 - i~ Xi)
[t
1=1
Xi + 1] [n + 1- t Xi] 1=1
(n+3)(n+2)
Ejemplo 2.1.25. Sea Xl, X2, . .. , X n , una muestra aleatoria de una
población con distribución Normal de valor esperado O y varianza (72
asumida como una constante conocida. La distribución a priori de 8 se
establece como Normal de valor esperado f..lp y varianza (7~, por supuesto
conocidos. Puede comprobarse que la familia de densidades gaussiana
es conjugada para la función de densidad de un modelo gaussiano e
igualmente que la distribución a posteriori de 8 es normal de valor
esperado
2-
n(7pX n
+ f..lp(7 2
n(72 + (72
P
y varianza
(72(72
p
n(7~ + (72·
Nota. Como f..lp y (7~ son valores fijos y conocidos, en la medida que el
tamaño de la muestra se incremente este estimador tiende al estimador
máximo-verosímil para O.
Pe [r(e) - >. < T~l) < r(e) + >.] 2: Pe [r(e) - >. < T~2) < r(e) + >.]
para cada>. > O Y cada e E 8.
Definición 2.2.2. Sea Xl, X2, .. . , X n una muestra aleatoria de una po-
blación con función de densidad fx(x, e) y r(e) una función del paráme-
tro. El estimador T~ = t*(X l , X 2, ... ,Xn ) se denomina el estimador
más concentrado para la imagen de e bajo r, si él es más concentrado
que cualquier otro estimador para la imagen de e bajo la función r.
Definición 2.2.5. Sea Xl, X 2 , ... ,Xn una muestra aleatoria de una po-
blación con función de densidad fx(x, O), la función r(O) una función
del parámetro O y Tn = t(X l , X 2 , . .. , X n ) un estimador de la imagen
de O bajo la función r. Una medida de concentración del estimador
T n es llamada error cuadrático medio MSE (Mean-Squared Error)
definido como
Ee[Tnl = r(O),
para todo O E 8.
MSETn(O) = Ve[Tnl·
El requisito de insesgamiento puede cumplirse en muchos casos modi-
ficando ligeramente la estadística en consideración. En otras oportu-
nidades, el sesgo pierde interés y no es obstáculo en el buen desempeño
del estimador, porque en la medida que el tamaño de la muestra se
incrementa el sesgo se disipa.
Definición 2.2.8. Con base en las consideraciones de la definición 2.2.5
al estimadorTn = t(XI ,X2, ... ,Xn ) basado en una muestra aleato-
ria de un población con función de densidad fx(x, O) se le denomina
estimador asintóticamente insesgado para la imagen de O bajo la
función r, si
lim {Ee[Tnl - r(O)} = O
n---+oo
para todo O E e.
Ejemplo 2.2.9. Sea Xl, X2, .. . , X n una muestra aleatoria de una po-
blación con función de densidad
1
fx(x,O) = 7/(o,e)(x), O> O.
Ee[Xn,nl = ¡°
e n nd = __
on Y y
n _O
n +1
2.2. CRITERIOS PARA EXAMINAR ESTIMADORES 93
n O
Be[X ]=--0-0=---.
n,n n +1 n +1
Claramente, Xn,n es un estimador asintóticamente insesgado para O.
E [X2 ] = ~
e n,n On
re yn+l dy
Jo
= _n_ 02
n +2
2
V; [X ] - _n_ 02 _ n 02 _ n 02
e n,n - n+2 (n+1)2 - (n+1)2(n+2) .
Luego
20 2
MSEXn,n (O) = (n + 1)(n + 2)
estadística con un sesgo que puede pasarse por alto al contar con una
muestra grande, porque Ee [Tn ] = n~ l a 2 . Sin embargo es factible corre-
gir esta ligera imperfección construyendo una estadística que cumpla el
requisito de insesgamiento. Precisamente, la estadística
S2 = _1_ ~ (X. _ X ) 2
n n-1L.... t n
i=l
para todo O E e.
Definición 2.2.13. Según las consideraciones de la definición 2.2.12,
T n es un estimador consistente simple o consistente débil para
la imagen de O bajo r, si la sucesión de estadísticas {Tn } converge en
probabilidad a r( O), es decir, si
{yn[T~ - r(O)]}
{yn[Tn - r(O)]}
para todo O E e.
Definición 2.2.16. Siendo T2) y T2) dos estimadores GAN para la
imagen de O bajo una función r, basados en una muestra aleatoria Xl,
X 2, ... , X n de una población con función de densidad fx(x, O), cuyas
varianzas son respectivamente ai (O) y o'~ (O), se dice que TÁ1) es asin-
tóticamente más concentrado que TÁ2) , si O'r (O) :S o'~ (O), para todo
O E e.
96 CAPÍTULO 2. ESTIMACIÓN PUNTUAL DE PARÁMETROS
Definición 2.2.18. Una estadística T n = t(Xl, X2, ... ,Xn ) se dice que
es una estadística suficiente para e, basada en una muestra aleatoria
Xl, X 2 , ... ,Xn de una población con función de densidad fx(x, e), si la
distribución condicional de las variables aleatorias Xl, X 2 , .. . , X n dado
T n = t n , no depende de e para todo valor t n .
con lo cual
p. [X = 1 X = OITo = 1] = Po[X l = 1, X 2 = O]
O 1 ,2 2 Po [T2 = 1]
e(l - e)
2e(1 - e)
1
-
2
Po[X l = O, X 2 = 1]
Po[X l = O, X 2 = 11 T 2 = 1] = Po[T = 1]
2
e(l - e)
2e(1 - e)
1
-
2
una muestra aleatoria de una población con función de densidad f x (x, e).
Siendo T n una estadística, T n = t(X l , X 2, ... , X n ), ella es suficiente
para e, si y sólo si la función de verosimilitud de la muestra puede ex-
presarse como el producto de dos factores:
Ejemplo 2.2.22. Sea Xl, X 2 , ... ,Xn una muestra aleatoria de una po-
blación con distribución de Bernoulli de parámetro e.
n
Tn = ¿ Xi es una estadística suficiente para e. En efecto,
i=l
~
,
[e~ l' x,
B
v
(1- e)n]11] (Xil
J
I¡O,l}
v
g(t Xi,O)
t=l
h(Xl,X2, ... ,X n )
n
Luego el criterio de Fisher-Neyman permite concluir que ¿ Xi es una
i=l
estadística suficiente para
n
e, porque g es una función no negativa que
depende de e y de ¿ Xi Y h depende únicamente de Xl, X2,· .. ,Xn ·
i=l
100 CAPÍTULO 2. ESTIMACIÓN PUNTUAL DE PARÁMETROS
n n
h(XI, X2, ... ,Xn ) = 1. Luego ¿ Xi Y ¿ Xl son conjuntamente sufi-
i=l i=l
cientes para e= (JL, (j2)'. También son conjuntamente suficientes para
e
Teorema 2.2.29. Sea Xl, X 2, ... , X n una muestra aleatoria de una po-
blación con función de densidad fx(x, O), Y T n = t(XI, X 2, . .. , X n ) una
estadística. El cociente de verosimilitudes
n n
TI x~! e-nllOnxn TI x~!
L(0;XI,X2, ... ,Xn ) i=l =
on(xn -XIn) i=l .
n _ n
L(O;x~,x~, ... ,x~)
TI Xi! e-nIlOnx'n TI
Xi!
i=l i=l
~ = L(B;Xl,X2,'" ,xn)
L(B;x~,x~, ... ,x~)
= exp {2~2 [t(X~ - x' n? + n(x' n - JL)2 - t(Xi - xn)2 - n(xn- JL)2] }
, x+a
y = {3 + "(x + bx2 y
siendo y = fx(x) y a, {3, "(, b constantes. En otras oportunidades se
construye una familia de densidades que se puede entender como un
macromodelo puesto que incluye modelos probabilísticos tradicionales
como sus casos particulares. Por ejemplo, la denominada distribución
Gama generalizada, propuesta por Stacy, que incluye modelos particu-
lares como la distribución Gama, la distribución Exponencial, la dis-
tribución Weibull e incluso la distribución Lognormal entendida como
el caso en el cual k -+ oo. La función de densidad que identifica a esta
distribución, a esta familia o a este macromodelo tiene como expresión
104 CAPÍTULO 2. ESTIMACIÓN PUNTUAL DE PARÁMETROS
a
f3 ( x ) f3k-1 [( x ) 13]
ar(k) -; exp - -; 1(0,00) (x),
- k .
para todo B E e <;;; IR , para b, dI, d 2, . .. , dk, funczones de Xl, X2,"" x p
ya, q, C2,"" Ck, funciones de B escogidas convenientemente.
fx(x, B) = a(B)b(x)exp[c(B)d(x)],
para todo x, B E e con a, b, c, d funciones escogidas convenientemente.
fx(x, O) = a (0" O", ", Ok) b(x )exp {t Cj (0" O2,,,,, Ok) dj(x) } ,
2.2. CRITERIOS PARA EXAMINAR ESTIMADORES 105
OXe-O
fx(x, O) = -,-I{O,1,2, ... }(x)
x.
= [e-O] [I{O,l'~i·}(X)] exp{[lnO][x]}
n n
~ d1(Xi ), ~ d2(Xi ), ... , ~ dk(Xi )
n)'
(
se le conoce como estadística natural k-dimensional para O.
Ejemplo 2.2.40. La función de densidad de una variable aleatoria X
1
fx(x,O) = n//1 /1 \xOl-1(1-x)02-1ICO,1)(X)
Nótese que en este caso a(O) = 1/(3(0 1,02), b(x) = I CO ,l) (x),
q(Ol, 02) = 01 -1, C2(01, O2) = O2 - 1, d 1(x) = lnx, d2(X) = In(l- x).
Nota. Igualmente, con el apoyo del criterio de factorización se deduce
que si fx(x, O) pertenece a la familia exponencial k-paramétrica de den-
sidades, las estadísticas
n n n
L d1(X L d2(X
i ), i ), ... , L dk(X i)
i=l i=l i=l
2.2. CRITERIOS PARA EXAMINAR ESTIMADORES 107
Teorema 2.2.42. Sea Xl, X2, . .. , X n , una muestra aleatoria de una po-
blación con función de densidad fx(x, ()). Siendo T n = t(X I , X2, ... , X n )
y T~ = t*(X I , X 2, . .. , X n ) estadísticas equivalentes, si T n es una es-
tadística suficiente para (), también lo es T~.
F T $.l)(t) = P [ Xl n
Xn',n::;
]
t, 0< t < 1
2. Ee[T~l = r(e).
3. V¡¡[T~] :::; V¡¡[Vn].
Ejemplo 2.2.50. Sea Xl, X 2 , .. . , X n una muestra aleatoria de una po-
blación con distribución de Bernoulli de parámetro e. El proceso de
Rao - Blackwell, brinda un camino de construcción de un estimador
e
insesgado para con una varianza menor a la varianza de un estimador
insesgado elegido inicialmente.
A partir de T n = Xl, como un estimador in sesgado para ey de
TÁl) = f: Xi
i=l
una estadística suficiente, se determina la estimación
110 CAPÍTULO 2. ESTIMACIÓN PUNTUAL DE PARÁMETROS
t~ = Eo[TnIT2)l.
n 1 Po [Xl = O, i~ Xi = tI]
Po Xl = 01 LXi = tI = n -
[
i=l Po [2:
t=l
Xi = tI]
Po [Xl = 0, f: Xi = tI]
t=2
Po [f: Xi = tI]
~=l
i~ Xi = tI]
p. [Xl
n
= 1 LXi = tI 1 =
Po [Xl = 1,
[2:
-...::....--;:---n----=:-----"-
i=l Po
t=l
Xi = tI]
Po [Xl = 1, f: Xi tI - 1]
t=2
=
Po [f: Xi = tI]
t=l
0(n-l)ot 1-1(1 - 0)n-I-t1+1 t
tl-l l
(~)Otl (1 - o)n-tl n
Luego
E. [Xl t Xi 1 (n:
= t1 = O t1 ) +J. (~)
En consecuencia,
1 n
T*n = -n~
""' Xi
i=l
Nota. Si ~ In fx(x, O) existe para todo x tal que fx(x, O) > y para °
todo O E 8 <;;;; lR, la información de Fisher acerca del parámetro O, en la
variable aleatoria X, también puede definirse como
1 (x_O)2
Ejemplo 2.2.52. Sea fx(x, O) = ícL e-~ con (J conocido.
V 27W
ícL 1 2
Infx(x,O) = -In(J-lnv27f- -2(x-O)
2(J
8 In f x (x, O) = (x-O)
80 -----¡;¡-
Definición 2.2.54. Sea Xl, X2, ... , X n una muestra aleatoria de una
población con función de densidad fx(x, O) Y T n = t(X l , X2, . .. , X n )
una estadística. Se habla de un caso regular de estimación o de
cumplimiento de condiciones de regularidad cuando el modelo es-
cogido para representar el comportamiento de la población y la estadística
en consideración cumplen las siguientes condiciones:
1. :0 lnfx(x,O) existe para todo x tal que fx(x,O) > O Y para todo
OE8~R
8
80 In rr
n
i=l
fx(xi, O) = k(t n - r(O)).
1 n
Ejemplo 2.2.58. Siendo Pn = - ¿ Xi el MLE para e en el caso de
n i=l
una población de Bernoulli de parámetro e, Pn es un estimador CAN
para e. Esto es
y'ii(Pn - e) ~ N(O, e(l - e)).
n
Para el modelo de Bernoulli y la estadística ¿ Xi se cumplen las condi-
i=l
ciones de regularidad, entonces
1(e) = Ee {( e
X
- 1-X)2}
1- e
1 { 2} Ve(X)
= e2(1- e) 2 E e (X - e) = e2(1- e)2
e(l - e) 1
e 2(1 - e)2 e(l - e)·
Luego
d
y'ii(Pn - e) ----+ N(O, e(l - e)).
En estos términos, T;;) será tan eficiente como T~l) en la medida que la
. . . . (Ji( O) n
cItada efiCIenCIa tenga un valor Igual a uno; caso en el cual (J~ (O) = m·
Teniendo en cuenta que (Ji (O) < (J~ (O), entonces !!-. < 1. Si en gracia
m
·d ., 1 1 d 1 . t
a esta conSI eraClOn e va or e COCIen e (J~(O) se asume en 0
(Ji(O) . 9 ·
, qUIere
Ejemplo 2.2.64. Sea Xl, X2,'" ,Xn una muestra aleatoria de una po-
blación con función de densidad
fx (x, e) =
1
ee _lx
IJ 1(0,00)
( )
x .
Eo[z(X)] = °
0= t z(j) (~) ej (1 - e)n-j
J
e~ oY
j=o
O ~ ~Z(j)(;) (i - 9)"
0= t
j=O
z(j) (~)aj,
J
(a= l~e)
luego
n
es una estadística completa para e. En efecto, ¿ Xi rv Bin(n, e), como
i=l
se confirmó que la familia de densidades Binomial es completa, entonces
n
la estadística ¿ Xi es completa.
i=l
Ejemplo 2.2.69. Si Xl, X2, . .. ,Xn es una muestra aleatoria de una po-
blación Uniforme en el intervalo (O, e), Xn,n es una estadística completa
para e. En efecto, como
fY 1 1
Fx(y) = Jo (jdx+I(O,CXJ)(Y) = (jyI(o,o)(y) + I(o,CXJ) (y),
la función de densidad del máximo de la muestra es
fO n
Eo [z(Y)] = Jo z(y) en yn-Idy = °
fO
en Jo z(y)yn-Idy = °
n
=
Teorema 2.2.71. Sea Xl, X2, ... , X n una muestra aleatoria de una
población con función de densidad f x (x, B), función de densidad que
pertenece a la familia exponencial de densidades, la estadística natural
n
de la familia ¿ d(Xi ) es una estadística suficiente y completa para B.
i=l
Teorema 2.2.72. Sea Xl, X 2, ... , X n una muestra aleatoria de una po-
blación con función de densidad fx(x, B), B E e, r(B) una función del
parámetro B y T n = t(X l , X2, . .. , X n ) un estimador insesgado para la
imagen de B bajo la función r. Si T n es una estadística completa para
B, entonces T n es el único estimador insesgado de la imagen de B bajo
la función r.
Teorema 2.2.73 (Teorema de Lehmann-Scheffé). Sea Xl, X 2 , •.. , X n
una muestra aleatoria de una población con función de densidad f x (x, B)
y r una función de B. Si las estadísticas T2) = tI (Xl, X 2, . .. ,Xn ),
T~2) = t2(X l , X 2, ... ,Xn ), . .. , T~m) = tm(X l , X 2, ... , X n ) constituyen
una colección de estadísticas conjuntamente suficientes y completas para
B y SZ. T*n = t*('7"'(l)
1n. ,1n '7"'(m)) es un es t·zma d
'7"'(2) , ... ,1n or·znsesga do para l a
120 CAPÍTULO 2. ESTIMACIÓN PUNTUAL DE PARÁMETROS
Ejemplo 2.2.74. Sea X 1 ,X2, ... ,Xn una muestra aleatoria de una po-
blación con distribución de Poisson de parámetro e, X n es UMVUE para
e.
Esta afirmación es cierta, teniendo en cuenta lo siguiente:
LXi
i=l
n
2. X n es una función de la estadística ¿ Xi, esta última suficiente y
i=l
completa para e.
p() [Xl = O,
~=2
t Xi = t]
n
n]
Entonces E() [I{o} (Xl) I i~ Xi = (n;;:l
¿
)i=l
Xi
,luego la estadística
(
n: 1
)
n
¿
i=l
Xi
E(} [~l
i~ = e=
Xi
[~] eE
' T
-
- e Joroo t1 h(t)dt, T=
n
LXi.
i=l
E(}[~l 100
LXi
=c
o
1 1
- _ _ entn-1e-(}tdt
t f(n)
i=l
Definición 2.2.78. Sea Xl,n, X 2 ,n, ... ,Xn,n, una muestra ordenada de
una población con función de densidad fx(x, e), e E e ~ ]R, e un pará-
metro de localización2 . Un estimador L para e es una estadística de
la forma
n
Tn = ""
~, en iXi ,n
i=l
n-[na] }
wXn,a = ~ { [na]X[na]+l,n + L Xi,n + [na]Xn-[na],n .
i=[na]+l
n
" ( Xi - -X n )r
-1 '~ p
--+ J.lr·
n
i=l
~ ~ [~t G)X!(-Xnr-']
= i)-Xnr-jG)~tX1
)=0 z=l
= t
j=O
(~)
J
(Mj)j (-Xnr- j
128 CAPÍTULO 2. ESTIMACIÓN PUNTUAL DE PARÁMETROS
Como el momento f.l2r existe, los momentos f.ls Y f.l~, s ::; 2r existen. Los
teoremas 1.4.7 y 1.3.2, garantizan que
Mr = t (~)
j=O J
(Mj)j (-xny-j p ) t (~)
j=O J
(f.lj)j (-f.ly-j. D
Teorema 2.2.17
Este teorema coincide con el teorema 1.6.2, vista la estadística de orden
X[npJ+l,n como estimador de x p.
Para efectos de notación, al conjunto de valores (Xl, X2, ... , x n ) tales que
t(XI, X2, .. . , x n ) = t, llamado un entorno de Tn , se denota como A(t),
con lo cual Pe [Tn = tl = ¿ L(e; Xl, X2,.··, Xn ).
A(t)
2.3. DEMOSTRACIÓN DE LOS TEOREMAS 129
¿: h(X1,X2,000 ,Xn )
A(t)
Po [T~l) =tl,T~2) =t2, ... ,T~m) =tm] =Po[T=t] = LL(B;Xl,X2' ... 'X n ).
A(t)
Teorema 2.2.49. Siendo Xl, X2, ... , X n una muestra aleatoria de una
población con función de densidad fx(x, e), r(e) una función de e, y
T n(1) tl(X 1,X2, ... ,Xn ), T n(2) t2 ( X I ,X2, ... ,Xn ), ... ,
T~m) = tm(X I , X 2, . .. , X n ) estadísticas conjuntamente suficientes, y
siendo la estadística Vn = t(X I , X 2, ... , X n ) un estimador insesgado
para la imagen de e bajo la función r y T~ = t*(X I , X 2, . .. , X n ) un
estimador tal que la estimación t~ se determina como
t n* -- E () [TT
Vn IT(l)
n , T(2)
n , ... , T(m)]
n
2.3. DEMOSTRACIÓN DE LOS TEOREMAS 131
entonces,
2. Eo[T~] = r(B).
= C(t)fT(t) - C(t)fT(t) = O
Por tanto ~ = E() [c(T)(Vn - c(T))] = O. Regresando al paso en el cual
se enunció que
IJI
8 n f x (Xi, e)
puesto que 8e = (8 i!:I i!:JI
8e In n f x (Xi, e) )(n f X (Xi, e) ) ,
porque d~ lng(x) = ~(~}, y por tanto, g'(x) = (d~ lng(x)) g(x).
Antes de continuar, es necesario demostrar que
136 CAPÍTULO 2. ESTIMACIÓN PUNTUAL DE PARÁMETROS
020~2
fx(x, O) = x 02 +l 1(01,00) (x),
1
fx(x, O) = xO((O) 1{1,2, ... }(x)
f xX,U _ eg 01-
( ll) -r(edx
1
1 -02 X ¡
e (0,00)
()
x,
fx(x, O) = _1 _Ix-Oll
20 e
2
°2
Los componentes del parámetro 0= (0 1 , O2 ) son tales que 01 E ~,
O2 > O. Explore la forma de estimar puntualmente el parámetro
O, teniendo en cuenta que E[X] = 01 Y V[X] = 20~.
10. De los dos estimadores para (J2 del ejercicio 9 ¿cuál tiene mayor
error cuadrático medio?
11. Igualmente, de los dos estimadores para (J2 del ejercicio 10, ¿cuál
tiene menor varianza?
12. Un tramposo juega con una moneda de dos sellos, pero algunas
veces para no despertar sospechas, utiliza una moneda equitativa.
El objeto de este ejercicio es estimar cuál moneda está utilizando en
2.4. EJERCICIOS 139
15. Si las variables aleatorias Xl, X 2 , . .. ,Xn son una muestra aleato-
ria de una población con distribución Uniforme en el intervalo
(O, ()), determine la varianza del estimador por el método de los
momentos para (), basado en la muestra aleatoria, y examine si es
un estimador insesgado para ().
17. Construya un estimador insesgado para (), que sea función del
máximo de la muestra, y determine su varianza. ¿Es consistente
este estimador para ()?
19. ¿Es posible construir un estimador insesgado para () que sea fun-
ción del mínimo de la muestra? Si es factible, identifíquelo y de-
termine su varianza. ¿Es consistente este estimador para ()?
21. En síntesis, ¿cuál estimador elige como el más apto estimador para
()?
140 CAPÍTULO 2. ESTIMACIÓN PUNTUAL DE PARÁMETROS
22. Siendo las variables aleatorias Xl, X2, .. . , X n una muestra aleato-
ria de una población con distribución de Laplace con (h = 1, ¿exis-
te una estadística suficiente para (h?
24. Si Xl, X 2 , ... ,Xn es una muestra aleatoria de una población con
distribución de Poisson con parámetro A y e = P[Xi = O] = e-A,
determine el MLE de e, mediante dos procedimientos: directa-
mente y usando la propiedad de invarianza de los estimadores
máximo-verosímiles.
25. Si las variables aleatorias Xl, X 2 , ... ,Xn constituyen una muestra
aleatoria de una población con distribución de Bernoulli de pará-
metro e, determine el MLE para la varianza poblacional.
26. Si las variables aleatorias Xl, X 2 , ... ,Xn constituyen una mues-
tra aleatoria de una población con distribución gaussiana de valor
esperado el y varianza e2 , determine el MLE para er + e2 .
40. Si Xl, X2, ... , X n es una muestra aleatoria de una población con
distribución Uniforme en el intervalo (O, O), ¿existe una estadística
suficiente para O?
41. Si Xl, X 2, ... ,Xn es una muestra aleatoria de una población con
distribución Uniforme en el intervalo (O, 0+ 1), O > 0, compruebe
que la estadística (Xl,n, Xn,n) es una estadística suficiente para O.
43. La estadística
O1 () 1 X
fx(x, O) = 0~1 X 1- exp [ - ( O )
Ih] 1(0,00) (x), 0= (0 1 , O2 ).
2
57. Si Xl, X2, ... , X n es una muestra aleatoria de una población con
función de densidad
1 x
fx(x, O) = ee-(j 1(0,00) (x),
2.4. EJERCICIOS 145
muestre que
n
y
n
¿es L Xi una estadística suficiente y completa para e? Determine
i=l
n
un estimador insesgado para e que sea una función de L Xi tal
i=l
que él tenga la varianza mínima.
62. Si Xl, X2, . .. ,Xn es una muestra aleatoria de una población con
distribución Uniforme discreta con parámetro e,
es decir que su
función de densidad es
1
fx(x, e) = 7¡!{1,2, ... ,O} (x), e> 0,
demuestre que el máximo de la muestra es una estadística suficiente
y completa.
147
148 CAPÍTULO 3. ESTIMACIÓN POR INTERVALO DE PARÁMETROS
Definición 3.1.5. Sea Xl, X2, ... , X n una muestra aleatoria de una po-
blación con función de densidad fx(x, O), r(O) una función del paráme-
tro, cuyo recorrido es un conjunto de números reales, con 8 < r(O) < f3
3.2. EL MÉTODO DE LA VARIABLE PIVOTE 149
yTJl) una estadística, TJl) = tl(X l ,X2, ... ,Xn ). El intervalo aleatorio
(TJl),,B) es un intervalo confidencial unilateral del 100(1 - a)%
de confianza para la imagen de O bajo r, si Po [TJ!) < r(O)] = 1 - a,
probabilidad que no depende de O.
También si TJ2) = t2(X l , X2, ... , X n ) es una estadística, el interva-
lo aleatorio (<5, T2)) es un intervalo confidencial unilateral del
100(1 - a)% de confianza para la imagen de O bajo r, si
Po [r(O) < T2)] = 1 - a, probabilidad que no depende de O.
Definición 3.2.1. Sea Xl, X 2 , ... , X n una muestra aleatoria de una po-
blación con función de densidad fx(x, e). Sea Qx = q(B; Xl, X 2 ,.·., X n )
una función de las variables que conforman la muestra aleatoria y del
parámetro e. Qx se denomina variable aleatoria pivote (variable
pivote) para el parámetro e si la distribución de Qx no depende de e.
Ejemplo 3.2.2. Si Xl, X 2 , •.. , X n es una muestra aleatoria de una po-
blación Normal de valor esperado e y varianza (7"2 conocida, entonces
y'n(X n - e)
(7"
Qx = y'n(X n - e)
Sn
es una variable pivote para e.
En efecto, Qx es una función de XI,X2, ... ,Xn a través de X n y Sn.
Además:
n
¿(Xi - Xn)2
2. (n - l)S~ i=l
(7"2
(7"2 rv x2 (n - 1).
y'nCX n - e) (n - l)S~
y
(7" (7"2
1 lbL
flj (y) = O20 e- 29
1 1
= "2 e - 2Y 1(0,00) (y).
Con base en este resultado se establece a
n n
Qx = ¿Yi = 20¿Xi
i=l i=l
( x~ (2n)
2¿Xi
n
i=l
,
xL% (2n))
2¿Xi
n
i=l
Po
[ x~ (2n) < xL% (2n)]_ 1
2
n
¿
i=l
Xi 2
n
¿
i=l
Xi
-
i = 1,2, ... , n
E¿ = -In Ui rv Exp(l),
porque
t < 1,
154 CAPÍTULO 3. ESTIMACIÓN POR INTERVALO DE PARÁMETROS
variable que puede utilizarse como una variable pivote para e, siempre
y cuando la función de distribución de la población tenga una expresión
que permita aplicar el método.
Ejemplo 3.2.10. Si
= Pe [X : :; ~] = Fx (~)
= 1- e- z .
Luego Z '" Exp(l), distribución que no depende del valor que asuma el
parámetro e.
Teorema 3.2.11. Sea Xl, X2, ... , X n una muestra aleatoria de una po-
blación conjunción de densidad Jx(x,e), e E e ~ ]Rk, Y las estadísticas
T n , T~l) Y T~2), estadísticas basadas en esta muestra aleatoria.
entonces
T,(l) -
nT~2)
el ) es una variable aleatoria pivote para el, si
(
ésta no depende de los demás componentes de e, o si éstos son
conocidos.
3.3. ESTIMACIÓN DE PROMEDIOS BAJO NORMALIDAD 157
fQx (q)
a b q
- ba - aa]
= PJ1- [X n - Vn < fL < X n - Vn .
Se ha determinado así un intervalo confidencial para fL,
- ba- aa)
(Xn - Vn,X n - Vn
L¡ = -X n -
aa -
Vn (-
Xn -
ba)
Vn
a
= Vn(b - a).
3.3. ESTIMACIÓN DE PROMEDIOS BAJO NORMALIDAD 159
¡b fQx(q)dq = 1- a
o equivalentemente
Por tanto,
fQx(b)
= -8 a
~=--::---:-
De esta manera,
fQx (q)
a a
2 ...... /2
a
(-Zl_2'.2 )
o b
(Zl_2'.)
q
2
Caso 2
Un intervalo confidencial del 100(1 - 0:)% para JL de longitud mínima,
cuando la varianza de la población es desconocida, es
- Sn -X
t1_%(n - 1) yn' + t1_%(n - ) yn
Sn) .
(Xn - n 1
Es decir,
p.n +
z21-~
2n
V P,,(l-P,,)
n
+ z2
~
a
1- 2 p.
n+
z21-~
2n
VP,,(1-P,,)
n
+ z2 a
1- 2
~
)
Kex p {- 1
2(1 - p)
[(X-J.L1)2 _ (Y-J.L2)2 -2P(~) (Y-J.L2)]}
0"1 0"2 0"1 0"2
siendo la constante K = 1/(27fO"iO"2.J1="P), el intervalo confidencial del
100(1 - a)% de confianza para la diferencia de promedios
-
( Dn - tl-~ (n - 1)
Sdn -
fo
,Dn + tl-~ (n - 1)
Sdn)
fo
siendo
• Di = Xi - Yi (D = X - Y)
• D rv N (¡..ti - ¡..t2, O"r + O"~ - 2PO"10"2)
2 1 n - 2 _ 1 n
• Sd,n = n _ 1 i~(Di - Dn) , Dn = - ¿ Di.
n i=l
3.3. ESTIMACIÓN DE PROMEDIOS BAJO NORMALIDAD 163
-
Ym rv N ( 0"2m2)
¡..t2,
A partir de esta variable pivote para (¡..tI - ¡..t2) puede generarse el inter-
valo confidencial correspondiente:
Caso 2
Un intervalo del 100(1 - a)% para la diferencia de promedios pobla-
cionales correspondientes a dos poblaciones independientes, de longitud
164 CAPÍTULO 3. ESTIMACIÓN POR INTERVALO DE PARÁMETROS
n
¿(Xi - Xn)2
(n - l)SI,n i=l 2
(j2 -=-----=---,,2-- '" X (n - 1)
(j
m
¿ (Yj - y m)2
(m - l)S~,m )=1
(j2 (j2 '" x2(m - 1).
y a partir de estos resultados, la variable pivote para ¡..t1 - ¡..t2 será, por
tanto,
(X n-Y
- m)-(1l1 ¡.L2)
_ aJl+-L
QX _ n m
(n-1)S? n+(m-1)S~ m
(m'+n-2)a 2 '
(n - 1) Sr n + (m - 1) S~ m
donde Si n+m = (n+m-2
, , 'es el estimador de la varian-
,
za común (j2. El intervalo confidencial para (¡..t1 - ¡..t2) basado en esta
3.4. ESTIMACIÓN DE VARIANZAS BAJO NORMALIDAD 165
- -
(X n - Y m)-t l _S!(n+m-2)Spn+m
2 '
gl
-+-
n m
y como límite confidencial superior a
- -
(X n - y m) + tl_S!(n + m -
2
2)Spn+m
'
gl
-
n
+-. m
Caso 3
Un intervalo confidencial del 100 (1 - a) % de confianza para la diferencia
de los promedios de dos poblaciones independientes de longitud mínima,
cuando las varianzas poblacionales se asumen distintas y desconocidas,
está basado en la variable pivote
¿(Xi - 1-")2
i-
nl ]
Pa2 a < - (]"2 <b = 1- a
[
1 1]
(]"2
=1-a
Pa 2
[b < i~(Xi - 1-")2 < ~
es decir,
fQx (q)
a b q
o
0= fQx (b) oa b - fQx (a)
fQx(a) = ~b.
fQx (b) oa
168 CAPÍTULO 3. ESTIMACIÓN POR INTERVALO DE PARÁMETROS
a 1 1 a
Luego oa L¡ = 0, cuando a 2 = b2 oa b, es decIr, cuando
.
1 1 fQx(a)
a2 = b2 fQx(b)·
a 2 fQx(a) = b2 fQx(b).
fQx(q)
a
2"
b
(xi-% (n)) q
Caso 2
Un intervalo confidencial del 100(1 - a)% de confianza para (J2 cuando
j.l es desconocido es
n
¿(Xi - Xn)2
Qx = _i=_l_-----::-_ _
(J2
rv x2 (n -1)
y cuya deducción es idéntica al caso l.
El intervalo de longitud mínima, al igual que el anterior, debe ser aquel
para el cual se cumpla que
conocidos, es el siguiente:
1
(
i~(Xi - 2
f..ld /n i~(Xi - f..ld 2/n
m f!fj (m, n), m ft-!fj (m, n)
¿ (Yj - f..l2)2/m ¿ (Yj - f..l2)2/m
j=l j=l
En efecto,
n m
¿ (Xi - f..ll)2 ¿ (Yj - f..l2)2
i= 1 2( ) j=1
2 rvX n 2 rvX 2 ( m.
)
U1 U2
m m
¿ (Yj - f..l2)2 /(mu~) 2 ¿ (Yj - f..l2)2/m
j=l U 1 j=l
Qx = n - 2" n rv F(m, n).
¿(Xi - f..ll)2/(nur) U2 ¿(Xi - f..ll)2/n
i=l i=l
Al partir de
2 (Yj ¿ - f..l2)2/m
Pai,a~
Ulj=l
a<- mi
<b = l - a
[ U2 n
2 i~(Xi - f..ll)2/n
Pa l'
2 a2 a
¿(Xi - f..ll)2/n
m
n
i=l
<
2
Ul
-2 <b
n
i=l
¿(Xi - f..ld 2/n
m
1= 1 - a.
2 U
[ j~l (Yj - f..l2)2/m 2 j~l (Yj - f..l2)2 /m
a b q
Con ello
L¡ = bT - aT = T(b - a)
que se minimiza, como en casos anteriores, haciendo uso de los procedi-
mientos respectivos del cálculo diferencial.
!!...-L¡ = T (!!...-b - 1) .
oa oa
fQx (q)
a b q
Caso 2
Un intervalo confidencial del 100(1 - a)% de confianzas para el cociente
2
de varianzas ~ de dos poblaciones independientes, cuando JLl y JL2 se
0'2
desconocen, es
¿(Xi
n - Xn)2/(n -1) ¿(Xi
n - Xn)2/(n -1) )
i=l i=l b
m a, m
( j~/Yj - y m)2 I(m - 1) j~l (Yj - y m)2 I(m - 1)
3.5. EJEMPLOS NUMÉRICOS DE APLICACIÓN 173
2
intervalo confidencial basado en la variable pivote para ~
a 2
Sr ' Fa(m-1
n Sr
n-1) - n' Fl a(m-1 n-1) ) .
(-
s2
2,m
2 ' , S2
2,m
-2 '
cual se estima con una confianza del 95% que la resistencia media a la
tensión está entre 77.96 kg Y 78.63 kg puesto que la estimación por inter-
valo del 95% de confianza para el promedio de resistencia, desconocida
la varianza poblacional, es
~ xn ~)
(x n - t 1 -% (n - 1) Vii' + t 1-% (n - 1) Vii
1.184078
= ( 78.3 - 2.009574 V56 ,78.3 + 2.009574 1.184078)
V56
= (77.9634,78.6365).
mente como
n =
ZI_Q.o") 2
( __ e
2_
~ (Zl-eU/2 r
n
1
2 1 7f
n = (ZI: %) 2 (l) ,
3.7. ESTIMACIÓN BAYESIANA POR INTERVALO 177
1
g'(7r) =O cuando 7r = "2
como lo destaca la figura 3.7.
Definición 3.7.1. Sea Xl, X 2 , ... , X n una muestra aleatoria de una po-
blación con función de densidad fx(xle), ge(e) la función de densidad
a priori de 8, y felxl,x2, ... ,xn (eIXl, X2, .. . , x n ) la función de densidad a
posteriori de 8. Sean ea ye l dos valores de la variable aleatoria 8 tales
que
una estimación por intervalo del 100(1 - a)% para el mismo parámetro.
Es válido entonces decir, dentro del enfoque bayesiano, que la probabi-
lidad de que el parámetro se encuentre entre los valores eo y el es 1 - a,
mas sería una interpretación errónea si se tratase de una estimación por
intervalo.
Ejemplo 3.7.2. Si X l ,X2, ... ,Xn es una muestra aleatoria de una
población con distribución Normal de valor esperado e y varianza 0"2
asumida como una constante conocida, y si la distribución a priori de
8 se establece como Normal de valor esperado f.Lp y varianza O"ª, el
ejemplo 2.1.25 de la página 88, menciona que la distribución a poste-
n0"2 x + f.L 0"2
riori de 8 es Normal de valor esperado f.L* = p; ~ y varianza
nO"p + O"
2 0"20"2
0"* = +
n0"0P 0"2· Entonces
evento aleatorio {r (T,~1») > 1'( e) > l' ( T~2») } es equivalente al evento
{T2) < e < T~2)}; por tanto,
1- a = Pe [T2) < e < T~2)] = Pe [1' (T~2») < r(e) < l' (T2»)].
JrllWJ
r/(e)
(T
n
-
l'
(e))
8
H(X,O) = 80 [lnfx(X,O)].
fOO 8
E[H(X, O)] = J-oo 80 [In fx(x, O)] fx(x, O) dx
8
foo 80fx(x, O)
= J-oo 1" I /1\ fx(x,O)dx
foo 8
= J-oo 80 fx (x, O) dx
8 foo 8
= 80 J-oo fx(x,O) dx = 80(1) = O
V[H(X, O) = E [H 2 (X, O)] = 1(0)].
8
80 In
(ngfx(Xi, O) ) = ~n 808 In fx(Xi, O) = K(O, n) [T n - r(O)] ,
Por tanto,
1
T n = r(e) + K(e, n) t;
n
H(Xi , e)
Entonces
Tn-r(e) JnI(e) d
(r'(II))2
r'(e) [Tn - r(e)] --- Z rv N(O, 1). o
nI(iJ)
Qx = JnI(e)(Tn - e)
182 CAPÍTULO 3. ESTIMACIÓN POR INTERVALO DE PARÁMETROS
Ón = Pe
[
a
JnI(e)
< Tn - e < -----=b=]
JnI(e)
=Pe [- ~<B-Tn<- ~]
=Pe [T -
n
b
JnI(e)
<e<T-
n JnI(e)
a]
El intervalo aleatorio que sugiere esta última expresión no es un intervalo
e,
confidencial para porque sus límites están dependiendo de por medio e
de I(e). La elección de a y b puede ser hasta cierto punto arbitraria,
sujeta a la relación entre a y b para garantizar el nivel de confianza Ón ,
pero pueden utilizarse los valores que generan el intervalo de longitud
mínima como en los casos 1 y 2 tratados en el numeral 3.3.1. En concreto,
una estimación aproximadamente del 100(1 - a)% de confianza para e
puede realizarse mediante el intervalo confidencial
Zl--'" Zl--'" )
Tn - 2, Tn + 2 ,
( JnI(Tn ) JnI(Tn )
tal como lo afirman Bartoszynski y Niewiadomska-Bugaj. D
3.9 Ejercicios
1. Si Xl,n, X 2 ,n, ... ,Xn,n es una muestra aleatoria ordenada de una
población con distribución Uniforme en el intervalo (O, e), y si
2
TAl) = X n,n, TA ) = (l)n e'
X n n son estadísticas, con e una cons-
2
tante, O < e < 1, demuestre que el intervalo (TAl), TA ») es un
e
intervalo confidencial para y determine el valor esperado de la
longitud del intervalo y su nivel confidencial.
:1.9. EJERCICIOS 183
2. Si las variables aleatorias Xl, X2, ... ,Xn constituyen una muestra
aleatoria de una población con función de densidad
14. Sea Xl,X 2 , ... ,Xn , una muestra aleatoria de una población con
función de densidad Uniforme en el intervalo (O, O), fijo el valor
e, ¿el intervalo aleatorio (Xn,n, c~Xn,n) es un intervalo confiden-
cial de longitud mínima para O? Si el espacio del parámetro es
8 = {010 < O :S k}, k una constante conocida, determine el tama-
ño de muestra mínimo tal que la longitud del intervalo confidencial
sea por lo menos lo.
15. Si Xl, X 2, ... , X n es una muestra aleatoria de una población con
función de densidad Uniforme en el intervalo (O - ~,O + ~), deter-
mine un intervalo confidencial del 100(1 - a)% de confianza para
O.
3.9. EJERCICIOS 185
Juzgamiento de hipótesis
187
188 CAPÍTULO 4. JUZGAMIENTO DE HIPÓTESIS
e ce
-1 -, e ne
-1 -o = 0.
Definición 4.1.4. La díada de hipótesis nula y alterna constituye el
sistema de hipótesis del proceso de juzgamiento de la hipótesis nula,
sistema que se enuncia como
Ho : O E e o
frente a
Hl : O E el·
para tomar las decisiones a que haya lugar sobre los ajustes a las máquinas
y al proceso en general, una vez se obtenga y se procese la información
pertinente durante los controles.
formularse así
Ho: 0=20
frente a
H1 : e > 20,
sistema entendido como el juzgamiento de la aseveración de que el pro-
ceso está controlado o equivalentemente que está centrado en 20 fl oz,
declaración concretada en la hipótesis nula Ho Y enfrentada con una
manifestación de una situación alternativa relacionada con la inconve-
niencia de producir unidades con contenido superior al establecido por
el diseño del producto, representada por la hipótesis alterna H 1 .
Como los tests aleatorizados no son del interés de este texto, debe
entenderse que dentro del contenido del presente capítulo el término test
hace mención únicamente a los tests no aleatorizados.
Ejemplo 4.1.10. Un test propuesto para el juzgamiento de Ho dentro
del sistema de hipótesis del ejemplo 4.1.6 es
T : "Rechazar Ho si X49 > 20.27, en caso contrario no rechazarla",
norma que permite optar por la exploración y remoción de causas ex-
trañas al proceso responsables de la no adecuación a los requerimientos,
si el contenido promedio en una muestra aleatoria particular de 49 en-
vases supera las 20.27 fl oz. Por otra parte, permite no reportar novedad
alguna en el desarrollo del proceso, cuando el señalado promedio es a
lo sumo 20.27 fl oz. La región crítica asociada a este test es, por consi-
guiente,
CT ,49 = {(Xl, X2,···, X49)lx49 > 20.27}.
Cualquier decisión que se tome en el juzgamiento de una hipótesis
estadística lleva consigo el riesgo de incurrir en una opción equivocada.
Como en la analogía acogida, el juzgamiento de una persona en un tri-
bunal o juzgado, es factible concluir el correspondiente proceso judicial
con una decisión ajustada a las normas procesales y a la naturaleza de
las pruebas, pero en realidad no acertada en cuanto a la verdad de los he-
chos, verdad que no siempre el juez puede conocer enteramente; por ello
repetidamente se mencionan expresiones relativas a los inocentes que se
encuentran purgando penas, o a los culpables que gozan de libertad ple-
na. De manera similar a los errores en los cuales se puede incurrir en el
juzgamiento de una persona, en el juzgamiento de hipótesis estadísticas
se corren riesgos semejantes.
Así como un proceso judicial termina en forma normal, con la de-
cisión de un juez o tribunal, el proceso de juzgamiento de una hipótesis
nula culmina con una decisión: ya sea rechazar la hipótesis nula cuando
hay evidencia estadística para hacerlo o al no contar con dicha eviden-
cia para rechazar la hipótesis, la de optar por no rechazarla. En este
sentido, cualquiera de las decisiones puede ocasionar una equivocación
o error. Uno de ellos consiste en rechazar una hipótesis nula cuando la
hipótesis es verdadera, el otro en no rechazar una hipótesis nula en el
caso de ser falsa.
Cuando se traducen apartes de las explicaciones previas o provisio-
nales de un fenómeno a afirmaciones de carácter estadístico, es decir,
4.1. ELEMENTOS BÁSICOS 193
Decisión
Ro Rechazar Ro No rechazar Ro
Cierta Error del tipo 1 Correcta
Falsa Correcta Error del tipo JI
La función
P(Jo ['l/!T(X~) = 1] .
Dicho de otra manera, calcular este error del tipo 1 corresponde al cálculo
de la probabilidad de rechazar la hipótesis nula dado que el valor del
parámetro es e = eo. Sin embargo, en una situación relativa a una hi-
pótesis nula compuesta, que se refiere a una variedad de distribuciones,
el error del tipo 1 no sería único, sería un conjunto de errores del tipo
1. El máximo del conjunto citado, la mayor probabilidad de rechazar
la hipótesis nula siendo cierta, se adopta como uno de los elementos
constituyentes en la construcción, en la caracterización o en la evaluación
de un test. La siguiente definición hace referencia a ello.
Definición 4.1.13. El tamaño del test T, el tamaño de la región
crítica CT,n, la probabilidad de error del tipo lo nivel del test T
se denota usualmente por a y está definido como
a = m~xP(J ['l/!T(X~) = 1] .
(JE8
-o
Ejemplo 4.1.14. Sea Xl, X 2 , ... , X n una muestra aleatoria de tama-
ño 10 de una población con distribución de Bernoulli con parámetro e.
Para juzgar la hipótesis nula Ho : e s; ~ dentro del sistema,
3
Ho : e s; "4
frente a
3
H 1 : e > "4
10
se propone el test, T "Rechazar Ho si ¿ Xi > 9". Entonces, puesto
i=l
10
que ¿ Xi rv Bin(10, e),
i=l
luego
ma~ p(}
(}E(O,:¡;]
LXi 2: 91=
10
[ i=l
ma~ (100 9
(}E(O,:¡;]
-
(3)
90 10 ) = 10 4" 9 (3)
- 9 4" 10
= a ~ 0.244.
En otras palabras, el nivel del test se entiende como la mayor proba-
bilidad de tomar una decisión incorrecta asumiendo verdadero cualquier
valor del parámetro O asociado con la hipótesis nula, y aun cuando es un
elemento que dentro del proceso de juzgamiento de hipótesis es contro-
lable y elegible arbitrariamente, por supuesto debe corresponder a una
probabilidad relativamente pequeña, es usual asumirlo como alguno de
los tres niveles: a = 0.1, a = 0.05 y a = 0.01, niveles que generalmente
se les conoce como niveles del 10%, 5% y 1%, respectivamente.
El error del tipo n, denotado frecuentemente por {3, es otro elemen-
to constitutivo del proceso de juzgamiento de la hipótesis nula, tal vez
habitualmente menos aludido que el error del tipo I, pero igualmente
esencial. De manera afín al cálculo del error del tipo I, se puede generar
una variedad de errores del tipo n correspondientes a cada situación
particular indicativa de la falsedad de la hipótesis nula, un poco más
complejo porque la probabilidad de no rechazar la hipótesis nula se cal-
cula bajo la consideración de que la hipótesis nula es falsa. Entonces
cabe preguntarse: ¿qué significa que Ho se considere falsa? Si 8 1 = ~,
entonces H o es falsa cuando H 1 sea considerada cierta, en cuyo caso
el sistema de hipótesis está conformado por hipótesis antitéticas; pero
cuando 8 1 #- 8~, entonces el subconjunto de valores de 8 asociados con
la falsedad de la hipótesis nula será 8 - 8 0 , conjunto que contiene a
8 1 , Este hecho pone de manifiesto que si Ho se asume como falsa no
implica necesariamente que H1 sea verdadera, puntualización ésta que
no se puede pasar por alto cuando se realiza el cálculo del error del tipo
n.
¿Cuál de los dos errores que se pueden cometer en el juzgamiento
de hipótesis estadísticas es el más grave? La respuesta realmente es que
en forma general no se puede evaluar su gravedad; cada caso particular
permitirá valorar las implicaciones de una decisión errónea.
Por ejemplo, si el propósito es remplazar un medicamento existente
por uno nuevo con base en el análisis de su eficacia, podría asumirse el
modelo de Bernoulli para representar si la aplicación del medicamento
en un tipo de paciente surte el efecto esperado o no, y evaluar la citada
196 CAPÍTULO 4. JUZGAMIENTO DE HIPÓTESIS
eficacia por medio de una muestra de pacientes a los cuales se les ad-
ministre el medicamento. De esta manera, si e denota la probabilidad
de que el efecto de la aplicación del nuevo medicamento en un paciente
sea el esperado y si el fármaco existente tiene una eficacia cuantificada
en eo, puede establecerse el siguiente sistema de hipótesis:
Ho : e :S eo
frente a
H1 : e > eo.
La afirmación de que el nuevo medicamento es a lo sumo tan eficaz
como el actual, traducida a lenguaje estadístico corresponde a la hipó-
tesis nula en este sistema. Respecto a la decisión que debe tomarse, ésta
se encuentra explícita en el párrafo anterior: mantener el medicamento
vigente o remplazarlo por el nuevo medicamento.
Entonces, en esta situación particular, el error del tipo 1 consiste en
colocar en el mercado un medicamento con menor o igual eficacia que el
actual, mientras que el error del tipo n radica en abstenerse de colocar
en el mercado un medicamento más eficaz que el vigente. La primera
decisión implica pérdidas para el laboratorio productor, mientras que la
segunda involucra pérdida de rentabilidad. Con la ayuda de la infor-
mación financiera de la compañía farmacéutica, puede establecerse cuál
decisión sería más costosa. Pero desde el punto de vista de salud pública,
las decisiones pueden valorarse contrariamente. ¿Es más grave consumir
un fármaco de menor calidad que no tener la posibilidad de utilizar uno
altamente eficaz? Se obliga precisar con mayor detalle el contexto propio
para valorar las implicaciones de la decisión: ¿se trata de un medica-
mento contra el resfriado común, o se trata de un medicamento para la
cura de un determinado tipo de cáncer?
Como se deduce de lo anterior, no se puede hablar en términos abso-
lutos cuál de los errores es más oneroso, mientras que para una situación
específica sí existe mayor factibilidad de hacerlo. En caso de poder es-
tablecer la preponderancia de uno de los dos errores, algunos autores
sugieren que se establezca el sistema de hipótesis orientado por la con-
vención de que el error del tipo 1 es más serio que el error del tipo n.
De esta manera se controla el error del tipo 1, o lo que es equivalente se
regula el nivel del test, y el cálculo o la determinación del error del tipo
n estaría sujeto a esta elección de a. Sin embargo, esta sugerencia es
más una invitación a valorar la magnitud de los potenciales errores en
4.1. ELEMENTOS BÁSICOS 197
Tabla 4.1: Compilación de probabilidades de error del tipo II, para tres test
particulares, según algunos supuestos valores de (j.
P2a [X49 > 20.27J = 1 - <I> [v'49 (20.270.75- 20)] = 1 - <I>(2.52) = 0.00587
Ho: e E [2,3]
frente a
H1 : e rJ. [2,3].
La función de potencia del test propuesto es
1 2 3 4 5
'lrT(O)
1 •
1.9 2.9 O
Ho: O = 00
frente a
Hl : 0=0 1 ,
el test r* con nivel a se dice que es más potente para Ho que cualquier
otro test T para H o, con nivel menor o igual a a, si
Definición 4.2.2. Sea Xl, X2, . .. , X n una muestra aleatoria de una po-
blación con función de densidad fx(x, O). Si el sistema de hipótesis de
juzgamiento de la hipótesis nula Ho es un sistema de hipótesis simples
Ho: 0=00
frente a
Hl : 0=01 ,
Ho: 0=00
frente a
Hl : 0=01 ,
4.2. TESTS MÁS POTENTES 203
r'
si k 0) esto es, si k > An;
i=l i=l
'lj!T(X~) = n n
0, sz k IIfx(xi,Od < IIfx(xi'Oo) es decir, si k < An;
i=l i=l
Ejemplo 4.2.4. Si Xl, X 2 , ... ,Xn es una muestra aleatoria de una po-
blación con distribución Normal de valor esperado ¡..t y varianza conocida
(72, determinar un test más potente para H o, en el sistema
H o : ¡..t = ¡..to
frente a
H1 : ¡..t = ¡..tI·
Conviniendo que ¡..tI > ¡..to,
que equivale a
PJ.LO [t
~l
Xi > el = a = PJ.LO [X n > ~]
n
= 1- <p (Vn (~ -
u
/LO)) .
Ho : B E 8 0
frente a
Hl : B E 8 1 ,
2. An E (0,1].
= .,.,.2 _ ,.,.2 _
.l.l0 . vI - V2 - .•. -
_ ,.,.2
vk
frente a
HI : no todas las varianzas son iguales.
La función de verosimilitud
L = L (J-tl' J-t2,···, J-tk, ar, a~, ... , a~; Xl1, X12,···, Xl n1 ,···, Xkl, Xk2,···, Xknk)
de las N variables aleatorias X l l , XI2, ... , XI,nl' ... ' Xkl, X k2 , ... , X knk ,
n
incluye l = 2k componentes, donde N = ¿ nj; por otra parte denotan-
j=1
do por (J"2 el valor común desconocido de las varianzas de cada población,
j=1 i=1
1 exp {1__2 (X.i - ft")2}
rr rrnj V27i(J"j J
(J"j
J .
supL
e
La determinación de AN = -o L requiere los siguientes elementos:
sup
ª nj
nj
Con lo anterior
T: "Rechazar H o si
sz k> An
sz k < An
recibe la denominación de test de razón generalizada de verosimi-
litudes de nivel a, siendo m~Po ["pT (X~) = 1] = a y k una constante
OE8
-o
positiva.
La sigla LRT (likelihood ratio test) se utiliza frecuentemente
como abreviatura para referirse a un test de razón de verosimilitudes,
denominación ésta que cubre tanto a los tests de razón simple de vero-
similitudes como a los tests de razón generalizada de verosimilitudes.
Ejemplo 4.2.9. Si Xl, X 2 , .•• , X n es una muestra aleatoria de una po-
blación con función de densidad fx(x, O) definida como
fx(x, O) = Oe-ox 1(0,00) (x),
208 CAPÍTULO 4. JUZGAMIENTO DE HIPÓTESIS
Ho : () ~ ()o
frente a
H1 : () > ()o·
n
-B L: Xi
Como L(();X1,X2, ... ,Xn ) = ()ne i=l y además
1
( Xn =- )n e -n cuando =-
1
Xn
~ ()o
sup L(();X1,X2, ... ,Xn ) = _ 1
O<B<Bo { ()üe-Bonxn cuando =- > ()o
Xn
¡
Luego
1
~ 08e-~onX"
cuando =-
Xn
~ ()o
An 1
cuando =-
Xn
> ()o
o
T: "Rechazar Ho si xn()o < 1 y (()ox n )n e -n(Box n-1) < k".
Remplazando ()oxn = y, nótese que yn e -n(y-1) tiene máximo cuando
y = 1 y dado que y < 1, yn e-n(y-1) < k, si y sólo si y < ko, como se
deriva de la figura 4.4.
En consecuencia, el test puede enunciarse como
L(O)
L(O)
Figura 4.3: Determinación del supremum para O < 00, según la locali-
zación de 00, correspondiente al ejemplo 4.2.9.
n
porque 00 I: Xi rv Gama(n, 1). A partir de este punto es posible re-
i=l
definir el test, pues de la última igualdad se obtiene el valor de ko,
siendo por supuesto nko el correspondiente percentil a.
yn e -n(y-1)
1
k
ko 1 y
Ho: O E 8 0
frente a
H1 : OE 8 1
siendo 8 1 = 8 - 8 0 , el test T* se denomina test uniformemente más
potente, UMP, para Ho con nivel ü si
1. sup 7rT * (O) = ü.
oEflo
2. 7rT*(O) 2': 7rT (O) para todo O E 8 1 y para todo test T con nivel menor
o igual a ü.
Ejemplo 4.2.11. Determinar un UMP para Ho en el sistema de hipó-
tesis
Ho: 0=00
frente a
H 1 : O > 00 ,
En el sistema de hipótesis
Ho : e = eo
frente a
HI : e = el
y conviniendo que el > eo, un test más potente para Ho puede obten-
erse a partir del lema de Neyman Pearson (teorema 4.2.3, página 202).
Siendo
n
-()o ¿ Xi
e~e i=l
An = n
-()1 ¿ Xi
efe i=l
el test más potente para Ho en este último sistema está formulado como
eo)n -(()O-()l) f Xi
T : "Rechazar Ho si ( el e i=l < k"
Ho : e = eo
frente a
HI : e > eo.
212 CAPÍTULO 4, JUZGAMIENTO DE HIPÓTESIS
a = p., [t Xi < el
= ¡O
e 1
__ (rtn-le-Ootdt
r(n) O
n
la cual es una función no creciente de 2:= Xi, puesto que 01 < O2 .
i=l
Ho : fJ :S fJ o
frente a
Hl : fJ > fJ o·
entonces el test
Ho : fJ :S fJo
frente a
Hl : fJ > fJ o·
el test n
T: "Rechazar Ho si L d(xi) > h-a "
i=l
Ho : O :S 00
frente a
H 1 : O > 00
o en el sistema
Ho: 0=00
frente a
Hl : O > Oo.
Ho : O :S 00
frente a
Hl : O > 00
o en el sistema
Ho: 0=00
frente a
H 1 : O > Oo·
los conceptos básicos del juzgamiento de hipótesis con una mención del
denominado valor p.
Para hacer expedito un test, su forma final debe ser preferentemente
muy sencilla. En lo posible, debe conocerse la distribución de la es-
tadística que lo soporta y ser factible el cálculo de sus percentiles, pre-
cisamente para que la utilización del test sea fácil.
Igualmente, esa forma final, como la de muchos tests, debe estar
en la forma estándar consistente en la comparación de un valor de una
estadística con un percentil de la misma elegido conforme al nivel del
test asumido, para conservar estable un modo común muy difundido y
generalmente aceptado.
Muchos tests han sido construidos teniendo en cuenta estas sugeren-
cias, y la realización de los cálculos respectivos y la determinación de los
percentiles se logran mediante la utilización de alguno de los múltiples
programas de cómputo estadístico que se encuentran en el mercado de
software o a disposición en internet.
Justamente esos programas han incorporado dentro de sus cálculos
y por ende dentro de la presentación de los resultados el denominado
valor p. Este valor puede entenderse como una ayuda muy eficiente en
la lectura de los resultados para el juzgamiento de una hipótesis, porque
su valor condensa los elementos del test y hace más diligente la decisión.
Tratando al valor particular de la estadística explícito en el test como
un percentil de la misma, la forma estándar que compara el valor de la
estadística con algunos de sus percentiles, es decir, que compara valores
de una variable aleatoria, puede vérsela de manera equivalente desde otro
ángulo, la de comparar probabilidades: la probabilidad asociada al valor
particular de la estadística tratado como un percentil y la probabilidad
que representa el valor a.
Entonces, un test de nivel a puede transformarse a una manera
equivalente utilizando el recurso del valor p, de la siguiente manera:
p
l
1
= P[Wc < wcJ = o r(n) 2
WC
(l)n x
n-l _!x
e 2 dx.
Ho : 1r :S 0.01
frente a
Hl : 1r > 0.01.
Como la familia de densidades de Bernoulli tiene razón monótona de
n
verosimilitudes en la estadística W c = 2: Xi (variable que registra
i=l
el número de envases en la muestra rotulados no apropiadamente), y
4.2. TESTS MÁS POTENTES 217
W c P[Wc > W c]
O 0.3888827605
1 0.0864105914
2 0.0130840050
3 0.0014801344
4 0.0001322100
n
además la razón es no creciente en L Xi, entonces un test UMP para
i=l
Ho en el sistema planteado es
T : "Rechazar Ho si Wc > k" .
49
Teniendo en cuenta que bajo la hipótesis nula L Xi rv Bin( 49,0.01) Y
i=l
que un test con nivel del 5% no es posible conseguirse, la tabla 4.2 per-
mite dos finalidades: la especificación de a, siguiendo la recomendación
de las normas internas, y la enumeración de algunos valores p.
El valor p en este caso corresponde a p = 1- P[Wc :s; wcl, y del contenido
de la tabla anterior se deduce que a = 0.013084, porque 0.086410 no es
admisible por las normas. Finalmente, el test correspondiente formulado
específicamente para tomar decisiones en la fase de rotulación,
49
T : "Rechazar Ho si LXi> 2"
i=l
equivale a
T : "Rechazar Ho si p < 0.013084".
Por tanto, si el monitor de un computador muestra el valor p = 0.0864106
significa que en la muestra se encontraron 2 envases disconformes y, por
ende, no se toma correctivo alguno. Mientras que si p = 0.00013221
significa que en la muestra se encontraron 5 envases rotulados no apro-
piadamente y, por tanto, la decisión consiste en evaluar las posibles
causas atribuibles a la perturbación y de tomar los correctivos a que
haya lugar.
218 CAPÍTULO 4. JUZGAMIENTO DE HIPÓTESIS
Siendo Xl, X2, ... , X n una muestra aleatoria de tamaño n con distribu-
ción Normal de valor esperado J.l y varianza (7"2, pueden fijarse tres sis-
temas de hipótesis en el juzgamiento de esta hipótesis particular:
• Sistema A:
Ho : J.l = J.lo
frente a
HI : J.l < J.lo·
• Sistema B:
Ho : J.l = J.lo
frente a
HI : J.l > J.lo·
4.3. JUZGAMIENTO DE HIPÓTESIS SOBRE PROMEDIOS BAJO NORMALIDAD 219
• Sistema C:
Ha : J.l = J.la
frente a
Hl : J.l .¡. J.la·
1. Primer supuesto: CJ2 es una cantidad conocida.
Considerando específicamente el sistema B, fx(x, B) puede ex-
presarse como
1 1(0)2 1(x)2 B
a(B) = f2= e- 2 ~ ,b(x) = e- 2 ~ ,c(B) = - , d(x) = x.
V.:.7rCJ CJ
el test
n
TB : "Rechazar Ha si LXi> k*"
i=l
donde Zc = X(J"/vn
n - /-lo entonces
'
Rechazar H o ---.J o Z
L(B; Xl,
1
X2,·· ., Xn ) = (V27i(J")
n
exp
- ¿(Xi - B)
n
i=l
2(J"2
2}
{
4.3. JUZGAMIENTO DE HIPÓTESIS SOBRE PROMEDIOS BAJO NORMALIDAD 221
Como
n n
i=l i=l
n n n
n
= ¿(Xi - Xn)2 + n(xn - /-LO)2
i=l
entonces
n /-LO?)
-_ exp (_ n(x - 2 .
20-
Por tanto, el test construido con base en la razón generalizada de
verosimilitudes está determinado como
Te : "Rechazar Ho
. exp (n(xn
SI -
- /-Lo)2) < k"
20- 2
pero
2
exp ( -
n(xn - /-LO) )
< k implica que
20- 2
222 CAPÍTULO 4. JUZGA MIENTO DE HIPÓTESIS
Q Q
2' /2
7r
TC
(O) = <I> ( -Zl~% + Vn(0(J"- J.Lo)) + <I> ( -Zl~% - Vn(0(J"- J.Lo))
De esta manera,
7rT Je)
1 ---------------------
¡..¿o e
y por tanto
n
cuando f..l = f..lo Y (72 = ~ ¿ (Xi - f..lO)2. En consecuencia,
i=l
¿(Xi
n - _x n ) 2) ~
An =
( tE
t=l
(Xi - f..lo)2
( f=(Xi- X n)2 \~
¡
t-l
2
I
'S,1 (Xi - xn), '"\""'n f-"U; J
= (1 + ~(~n-¡.to)2 ~
¿ (Xi- X n)2
)
i=l
Ho : /-l = /-lo
frente a
Hl : /-l < /-lo,
• En el sistema B,
Ho : /-l = /-lo
frente a
Hl : /-l > /-lo,
y finalmente para el caso del valor p ligado al test Te, se calcula mediante
p = 2(1 - <I>(lzel))
z
Zl-a
/1""
Izcl Zl-~
1T'TA (O)
1
a
J..lo O
7rTB (B)
1 ---------------------
a ---------
f.lo B
• Sistema A:
H o : f.l1 - f.l2 = 60
frente a
Ha : f.ll - f.l2 < 60 .
• Sistema B:
Ho : f.l1 - f.l2 = 60
frente a
Ha : f.ll - f.l2 > 60 .
228 CAPÍTULO 4. JUZGAMIENTO DE HIPÓTESIS
J uzgamiento de
Ho :J'=J-Lo
Tests Tests
TA : "Rechazar Ho si T/\ : "Rechazar Ho si
t, < ta(n - 1)" Zc < kn"
TB : "Rechazar Ho si TH : "Hf>chazar Ro si
te> tl-n(n - 1)" Zr o
> ZI n
• Sistema C:
H o : J..ll - J..l2 = 60
frente a
Ha : J..ll - J..l2 =1= 60.
1
Xn, Ym , m +n [(n - l)S?,n + (m - l)Si,m] .
Entonces,
m±n
2
n+m n±rn
e--
supL = 2-
()Eª
2,,- (.t, (Xi - "n)' + j~, (Yj - l/m)')
En 8 0 , los estimadores máximo-verosímiles de f.L = f.Ll = f.L2 Y (72
cuando 150 = O son
1
~ -
tXi+ i:Yj) = nXn+mYm
J.L= m+n ( m+n
i=l j=l
-
0'2 = - -
1 - 2
m+n [ ~(Xi-Xn) +f;(Yj-X ) +m+n(Xn-Y )
n m
m m
- 2 mn - - 21 .
nl+n
-2-
m+n n+rn
e--2-
con lo cual
-mi"
mn (- -)2
1 m+n X n - Ym
An+m = +
[ n
i~ (Xi - x n )2
m
+ j'fl (Yj - Ym)2
1
Teniendo en cuenta que
4.3. JUZGAMIENTO DE HIPÓTESIS SOBRE PROMEDIOS BAJO NORMALIDAD 231
n m
¿ (Xi - X n? + ¿ (Yj - y m)2
• _i=_I_ _ _ _ _-::--j=_I_ _ _ _ _ rv X2 (n +m - 2)
0- 2
donde
n m
¿(Xi - Xn)2 +¿ (Yj - y m)2
82 = i=1 j=1
p n+m-2
El supuesto de homoscedasticidad, o-r
= o-§, puede ser susten-
tado mediante argumentos tomados de la explicación teórica del
232 CAPÍTULO 4. JUZGA MIENTO DE HIPÓTESIS
2 2
Ho : 0"1 = 0"2'
T' = X n-Ym - 60
e JS2
~
n
+ S2
2,m
m
4.3. JUZGAMIENTO DE HIPÓTESIS SOBRE PROMEDIOS BAJO NORMALIDAD 233
C~n + s~n) 2
f= 2 2 2 2·
C~n) C~~m)
-n---l- + ---'----m-_-lc;'--
El compendio 2, es una síntesis del juzgamiento de la hipótesis nula
Ho : /11 - /12 = Jo, el cual se presenta en la figura 4.12.
Como conclusión esta sección 4.3 y como generalización del numeral
4.3.2, asumiendo el modelo de Gauss para cada una de las k poblaciones
independientes, de manera que la variable que representa a la población j
tiene valor esperado /1j y desviación estándar (J, j = 1,2, ... ,k, y siendo
X j1 , X j 2, ... ,XJ1lJ , la muestra aleatoria de tamaño nJ correspondiente a
la población j y bajo el supuesto de homoscedasticidad, el procedimiento
de juzgamiento de la hipótesis nula que forma parte del sistema
Juzgamiento de
Ho : Ml -/12 = Jo
T
1 1
Sistema A Sistema B Sistema e
Ho : ¡.tI - J-l2 = Jo Ro : Jll - J-L'l = 50 Ho :JIl -J-!2 =c10
frente a frente a fr('Il1,t> a
H I : 111-/1-2 <ou H I : MI -f-L'2 >ou Il] : ji1 - /12 i- 60
I I
~ &
No
JI
(xn-l/m)-Jol
I J'l" + ",,,,
ti - 'l
e -
n Tn
1
Tests Tests Tests
TA : "Rechazar Hu si TA : "Rechazar Ho si TA : "R{'chazar !Io si
t~ < t,,(f -1)" t, <t,,(n+m-2)" Z,. < z,,"
L = L (1-" 1 , 1-"2,·· ., I-"k, 0"2; Xll, X12,"" Xl n1 ," ., Xkl, Xk2,·· . ,Xknk)
k
adoptando la homoscedasticidad y n = ¿ nj, es específicamente
j=l
L = rr rr _ 1 exp
j=l i=l vl2ii0-
{_~ (Xji -l1j)2}
2 o-
nj
• La estimación máximo-verosímil de 0-
2 es *¿ k nj
¿
j=l i=l
(Xji - Xj)2
i=l
x ji = X.
• La estimación máximo-verosímil de 0-
2 bajo la hipótesis nula es
*¿ k
j=l i=l
nj
¿(Xji -x)2.
236 CAPÍTULO 4. JUZGA MIENTO DE HIPÓTESIS
cuencia
supL k n
j'fl i~ (Xji - x)2
1-~
An = ªo -
supL - k
r~li~(XJl
nj
~JJ J
ª k nj
Algebraicamente, la expresión ¿ ¿ (x ji - x?, llamada suma total de
j=l i=l
cuadrados, puede expresarse como la adición de dos cantidades,
k k nj
k
j'fl nj(Xj -x)2 + j'fli~(Xji
k nj
-Xj)2 l-~
An = k nj
[ ¿ ¿(Xji - Xj)2
j=l i=l
Sustituyendo
k
L nj(Xj-x)2
k-l )-~
j=l
k-l
k nj
por fe, entonces An = ( 1 + n _ kfe
L L (Xjí- Xj)2
j=l í=l
n-k
4.4. JUZGAMIENTO DE HIPÓTESIS SOBRE VARIANZAS BAJO NORMALIDAD 237
k k nj
L nj (X j - X)2 Y LL (X ji - X j )2
j=l j=l i=l
k
¿ nj (X j - X)2
=_1---:0--,----_ _ _ '" X2 (k
=-..j - 1)
(J2(k - 1)
k nj 2
¿ ¿ (X ji - Xj)
1
y =_1_i_=--c, - - - - - - - - '" X2 (n
=-..j - k).
(J2(n - k)
• Sistema A:
. 2 2
H O .!J = !JO
frente a
H 1 ..!J 2 < !Jo·
2
• Sistema B:
H O .,.,.2
. v = 2
!Jo
frente a
H 1 ..!J 2 > !Jo·
2
• Sistema C:
H O .,.,.2
. v = 2
!Jo
frente a
H 1 : !J2 "# !J6.
1. Primer supuesto: f..L es una constante conocida.
El juzgamiento de la hipótesis Ho bajo el sistema B, suponiendo
f..L conocido, puede llevarse a cabo por medio de un test derivado
de lo siguiente, con () = !J2. Como
n 2
~...!... '" (x~J.1)
~ ,~,
1 n
L( O; XI, X2, ••• ,Xn ) (V21i'v'e ) e
20.L... ,
"
=e
~...!...
20. 1
,=
f: (Xí~J.1)2+1n( ~v'8)
entonces considerando c( ()) = - 210 Y la pertenencia a la familia
exponencial de densidades, como c( ()) es creciente, por tanto
n
TB : "Rechazar Ho si ¿)Xi - f..L)2 > k".
i=l
frente a
H 1 .. (j 2 > (jo'
2
• Sistema A:
Ha : (ji = (j~
frente a
H1 : (ji < (j~.
4.4. JUZGAMIENTO DE HIPÓTESIS SOBRE VARIANZAS BAJO NORMALIDAD 241
J uzgamiento de
n
L(:r, -In)' f= (x, - J1.)2
r--:-j
X~l = =,~,-,1_",,~ __
Tests
TA : "lV'('hazar Hu si TA : "Rechazar Ha si
\;, < \~(fl -- 1)" X~, < x;(n)"
TU : "Rpcha:;;ar /lo si Tn : "Rechazar Ho si
,;, > \~(n- 1)" X~, > x~(n)"
: "l{í·dlazar Ho si Te : "Rechazar Ho si
< \;(71 - 1) () si X~, < x;(n) o si
> x¡(n - 1)" X:, > x~(n)"
n = (+ (1- J) a = f + (1 - o)
• Sistema B:
Ho : (Ti = (T~
frente a
H1 : (Ti > d·
• Sistema C:
lJ 2 2
110 : (TI = (T2
frente a
H1 : (Ti 1= (T~.
242 CAPÍTULO 4. JUZGAMIENTO DE HIPÓTESIS
Ha : K = Ka
frente a
H 1 : K > Ka,
n
por medio de un test establecido como T : "Rechazar Ha si ¿ Xi > k".
i=l
n
Bajo la hipótesis nula ¿ Xi rv Bin(n, Ka), elegido un nivel del test
i=l
a, y con el ánimo de determinar plenamente el valor de k, puede suceder
que
[t
l=l
Xi 2: k] - P-rro [t l=l
Xi 2: k + 1] P-rro [t
l=l
Xi = k]
244 CAPÍTULO 4. JUZGAMIENTO DE HIPÓTESIS
a - Pno [i~ Xi ~ k + 1] [ n ]
o· P" [t,Xi <k] + P no ['"
n
0 X ,. = k
] Pno l:= Xi
i=l
= k
i=l
+ 1 . P'o [t, Xi
k+ 1] 2
Ho : 7r = 7ro
frente a
HI : 7r < 7ro,
n
a través de un test establecido como T : "Rechazar Ho si LXi < k", Y
i=l
para el juzgamiento de la referida hipótesis nula en el sistema
Ho : 7r = 7ro
frente a
HI : 7r #- 7ro,
por intermedio de un test
n n
T : "Rechazar Ho si l:= Xi < k l o si l:= Xi > k 2".
i=l i=l
~ f¿ (Pn - 7T) d
---+ Z rv N(O, 1),
(
7T1-7T )
con lo cual la hipótesis nula Ho : 7T = 7To puede juzgarse atendiendo a
este resultado, según alguno de los siguientes sistemas:
• Sistema A:
Ho : 7T = 7To
frente a
H1 : 7T < 7Too
• Sistema B:
Ho : 7T = 7To
frente a
H1 : 7T > 7Too
• Sistema C:
Ho : 7T = 7To
frente a
H1 : 7T =1= 7Too
Basados en la estadística
(pÁl) - pj;)) - 00
Zc = ----¡:::==============
n
(l_P(l)) + = (1_P(2))
/ p(1)
n = p(2)
siendo p2) = ~ t
i=l
Xi Y pj;) = ~ f
j=l
}jo
Si algún sistema enuncia la hipótesis nula como Ho = IrI - Ir2 = 0, la
estadística apropiada que fundamenta el respectivo test es
p(1) _ p(2)
n m
Z c=
J P(l - P) (~ + ~)
1")(1) + 1")(2)
nrn mrm
siendo P entendida esta estadística como un esti-
n+m
mador del valor común Ir = Irl = Ir2.
Ha : MI = M2
frente a
HI : MI -¡ M2·
2 (n-l)s2 +(m-l)s2 .
Entonces como Sp = ~~m-2 2,m, para este caso partIcular, la
· ., cornun
es t lmaClOn 'ele l '
a vananza es 2
sp = 63x(1.21)2+5axl
64+51-2
1 258746018 ,
=.
y con este resultado
2
82 8 ) 2
~+~ 2
f=
(
(~ + ir) = 112.83397.
C~n) C~~m )
-.-+--.
2 2
( 1.4641 )
64_
63
2 ( 51
+ 50
1 ) 2
juzga en el sistema
Ho: a~ = a~
frente a
Hl : a~ i= a~.
Entonces, fe= ~ = i!~l~ = 0.64. La solución corriente establece para
este caso que fO.025 (46, 37) = 0.54323124 Y que fO.975 (46, 37) = 1.8880067,
con lo cual
fO.025 (46,37) < fe < fO.975 (46,37)
Si ¡..¿ fuese igual a ¡..¿* (¡..¿* .¡. ¡..¿o), la probabilidad del error del tipo II sería,
por consiguiente,
(3=PJL* [X
- n 2:¡..¿o+ O"za]
y'Ti
_
- PJL*
[y'Ti CXn ~ ¡..¿*) > y'Ti(¡..¿o
~ O"
~ ¡..¿*) + Zü]
O"
Por tanto,
y'Ti(¡..¿o ~ ¡..¿*)
~~--=-------.:-----.:.. + Za = Zl-¡3
O"
y como Za = ~Zl-a, entonces
n= [0"(Zl-a+ Zl_¡3)]2
¡..¿o ~ ¡..¿*
Si /Ll - /L2 fuese igual a 15*, la probabilidad del error del tipo II sería, en
consecuencia,
f3 = Po*
JO -
+a2
n
15*
--;:==
2 2
+ Zl-a = -Zl-(3, luego
al +a 2
n
15* - JO
= Zl-a + Zl-(3, con lo cual se deduce que
PfI 2
al +a 22
n
Cada una de las dos muestras debe entonces contar con n unidades para
cumplir cabalmente las exigencias relacionadas con las probabilidades
252 CAPÍTULO 4. JUZGAMIENTO DE HIPÓTESIS
Ho : fx(x, e) = fx(x, eo )
frente a
H1 : fx(x, e) = fx(x, et)
y denotando la razón de verosimilitudes Aj, para j = 1,2, ... , como
j
TI fx(x, eo )
L(eO;X1,X2, ... ,Xj) i=l
Aj = L(fh;X1,X2, ... ,Xj) j
TI fx(x, el)
i=l
4.8. JUZGAMIENTO SECUENCIAL 253
a = f 1, f:r
n=l Cr,n i=l
fx(xi, ()0) dX 1 dX2 ... dX n
Teorema 4.8.2. Definidos los tamaños de los errores o: y (3, los valores
""o y ""1, que definen un test secuencial T, pueden aproximarse mediante
o: 1-0:
""o ~ 1 - J1 Y ""1 ~ -(3 .
Ho: 0=00
jrentea
H 1 : 0=0 1
habiendo definido previamente o: y (3, puede formularse en los siguientes
términos.
Definida la razón de verosimilitudes
rr
j
O~i(l - OO)l-xi
00 (1- Od] i~l x,
J
[1 - Oo]j
A' - _i=_l_ _ _ _ __
J - j [01(1 - 00 ) 0
rr
i=l
O~i(l - 01)1-x i
1- 1
[ 000(1-0d]i~lXi
1(1-0 0) :s;
o:
1-(3
[1-01]j
1-00
Asumiendo que 00 < 01 , entonces i=~~ < 1 Y ~~g::::~:)l < 1, luego el test
secuencial rechaza la hipótesis nula Ho : 0= 00 , si
j
1n [01(1
O0(1 - O) 00 )] L: X2
. -> 1n [~] + J. In [~]
O
-1. o: 1-1
2=1
4.8. JUZGAMIENTO SECUENCIAL 255
Denotando por
In [~]
al = y por
In [e 1 (1-eol ]
eo(l-eIl
el test rechaza la hipótesis nula si
j
¿Xi:2: al + bj.
i=l
Por otra parte, el test secuencial no rechaza la hipótesis nula, si Aj :2: '"'1;
igualmente, al utilizar la aproximación derivada anteriormente, el test
no rechaza Ho si Aj :2: 1ft, es decir, si
Denotando por
-In (T)
ao =
In [e 1 (1-eol ] ,
eO(l- el)
el test no rechaza la hipótesis nula si
j
¿Xi :S ao + bj.
i=l
i~ Xii
...
_.. .......
..- . -
Rechazar Ho
1 2 3 4 5 6 7 8 9 10 J
Ho : f) = ¡.Lo
frente a
HI : f) = ¡.Lo + C(J,
siendo e una constante conocida y definidos previamente O' y (3, puede
formularse en los siguientes términos:
En primer lugar,
a
<--
-1-,6
2: -'-----'----'-
i=1
(J" e ,6 -
j
(Xi - ¡..ta)
2: -'-----'----'- -
< - - 1n
(J"c
1 (1 -,6 a) + .e
-- J- .
2
i=l
T
, . . ~ (Xi - ¡..ta)
:"En el paso J rechazar Ha SI 6
(J"
1
2:: --In
e
(a) + .
~
1-jJ
e
J-;
2
i=1
no rechazarla si ~
6
j
(Xi - ¡..ta) ::;
(J"
_~ In (1
e
-
,6
a) + j~;2 calcular el
}.=1
)+1
~ (Xi - ¡..ta) para cont·rnuar en e1 paso J. + 1, SI.
va1or 6
(J"
;.=1
j
2: -'-------'-
. (J"
1 (a)
(Xi - ¡..tu) E (--In
e 1-,6
e--In
- - + j-,
2 e
1 (1-- -
,6
a) + j -2e) ".
1=1
E [t Y¡ 1~ 1¡E[N].
r t
E lec uan d o 1a sus t't"
1 uClOn Yi = 1n [fX(Xi,Ool]
fX(Xi,O¡) ,Z. = 1, 2 , 3 , ... , 1a razon
'
j
de verosimilitudes Aj se puede expresar como Aj = L Yi. De esta ma-
i=l
nera el test secuencial se puede enunciar como
j
T : "Rechazar Ha : e = ea, si LYi :::: In Ka, no rechazar Ha : e = ea,
i=l
j
si LYi :::: In Kl, ... ; incluir la observación Yj+l para calcular la
i=1
]+1
nueva razón de verosimilitudes LYi' para continuar en el paso
i=1
j
E[N] =
E [f Yi]
i=l
r¡
de manera que su valor puede aproximarse como
Ejemplo 4.8.7. Sea Xl, X 2, ... ,Xn una muestra aleatoria de una po-
blación con distribución gaussiana de valor esperado () y varianza cono-
cida a 2 . Determinar el tamaño de la muestra requerido para el juzga-
miento de la hipótesis nula H o, en el sistema de hipótesis
Ho : () = 75
frente a
H1 : () = 80,
260 CAPÍTULO 4. JUZGAMIENTO DE HIPÓTESIS
PO=75 [Xn > cJ = 0.01 = PO=75 [yIn(X~ -75) > y1n(c - 75)]
5
PO=80 [Xn < cJ = 0.05 = PO=80 [yIn(X n - 80) < y1n(c - 80)]
5 5 '
Luego
Yi = In [IIx (Xi,
( /LO)].,
),2 = 1,2,3, ... , Yi = 1 [( ILo2 -
-----:2 2)
P'1 -
2Xi (ILo - IL]
)] .
X Xi, /LI 2a
Luego
1 2
E¡.to [Yi] = 2(]"2 (¡..tI - ¡..to)
1 2
E¡.tl [Yi] = - 2(]"2 (¡..tI - /Lo) .
I
En el caso particular ¡..to = 75, ¡..tI = 80, (]"2 = 25, EO=75 [Yi] 2'
E O=80[Yi] = -~, a = 0.01, j3 = 0.05, entonces
k
e= (1f1,1f2,'" ,1fk)', cuyos componentes son tales que ¿ 1fj = 1, Y
j=l
k
por otra parte ¿ nj n, nj E {O, 1, ... , n}. En otras palabras, su
j=l
función de densidad es:
__kn_'-II 1fj
-
, n
nj
.
TI nj! i=l
j=l
T: "Rechazar H o si An = nn II :J0)
k ( nj
< c ",
j=l J
L (N
k
j - mrJ)2
j=l n1["°
J '
k (N. _ n1["0)2
'~
"' J n1["0 J > x1-oJk
2 - 1).
J=l J
~
k
dx=-
1 k'
j = 1,2, ... ,k.
Porcentaje Número de
dedicado Empleados
Más de hasta
O 20 162
20 40 210
40 60 194
60 80 186
80 100 198
Total 950
(nj - npi~)2
I j I Clase j I nj I n1rJ I npiC!1
1 [0,0.2] 174 190 1.34736842
2 (0.2,0.4] 198 190 0.33684211
3 (0.4,0.6] 194 190 0.08421053
4 (0.6,0.8] 186 190 0.08421053
5 (0.8,1.0] 198 190 0.33684211
Total 2.18947368
a 0.70095688.
o
]f. -
J
_¡Xj
x'
--
1 [1 (x -
exp - -
vI21iCJ 2
J.L)
--
CJ
2] d x -_ ([> (X-j --JI) -([> (X j -1 - J.L)
CJ CJ
)-1
CPT(ml) Número de
Pacientes
Menos de 5 400 12
de 5 400 a 5 500 46
de 5 500 a 5 700 78
de 5 700 a 5 850 80
de 5 850 a 6 000 39
de 6000 y más 15
Total 270
(nj - npi~)2
npi~
1 ( -00,5400] 2 0.003830425 1.03421478 0.90188334
2 (5400,5550] 15 0.043959905 11.86917443 0.82584251
3 (5550,5700] 60 0.204702137 55.26957697 0.40486834
4 (5700,5850] 102 0.378066128 102.07785468 5.9680E - 05
5 (5850,6000] 71 0.278230122 75.12213300 0.22619140
6 (6000,00] 20 0.091211282 24.62704613 0.86935135
Total 3.22819633
Ejemplo 4.9.4. Para ilustrar la parte operativa del ajuste por el método
de Kolmogorov-Smirnov, una muestra de 25 baldosas de cerámica de
un lote de producción fueron seleccionadas para identificar el modelo
apropiado para describir la variabilidad del grosor de la baldosa que ella
alcanza al final del proceso de fabricación. Teniendo en cuenta infor-
mación que acopia el Departamento de control de calidad, es razonable
pensar que el grosor tiene un comportamiento uniforme entre 90 y 110
milímetros. La tabla 4.7 presenta los valores particulares de la muestra
ordenados, la función empírica, la función de distribución correspondien-
te al modelo en consideración y las diferencias entre ellas.
Como sup 1F25(X) - Fo(x, fJ)1 = 0.05 y el percentil 95 de la distribución
270 CAPÍTULO 4. JUZGAMIENTO DE HIPÓTESIS
Valores
ordenados F 25 (X) F o (x, 8) IF25 (X) - Fo(x, 8)1
91 0.04 0.05 0.01
92 0.08 0.10 0.02
93 0.12 0.15 0.03
94 0.20 0.20 0.00
94 0.20 0.20 0.00
95 0.28 0.25 0.03
95 0.28 0.25 0.03
96 0.32 0.30 0.02
97 0.36 0.35 0.01
98 0.40 0.40 0.00
99 0.44 0.45 0.01
100 0.48 0.50 0.02
101 0.52 0.55 0.03
102 0.56 0.60 0.04
103 0.60 0.65 0.05
104 0.72 0.70 0.02
104 0.72 0.70 0.02
104 0.72 0.70 0.02
106 0.76 0.80 0.04
107 0.84 0.85 0.01
107 0.84 0.85 0.01
108 0.88 0.90 0.02
109 0.96 0.95 0.01
109 0.96 0.95 0.01
110 1.00 1.00 0.00
Tabla 4.7: Valores muestrales ordenados del grosor de las baldosas y sus
respectivos valores de las funciones de distribución.
Ho: e = eo
frente a
Hl : e = el,
el test T cuya función crítica corresponde a
n n
82
;=1 ;=1
n n
;.=1 ;=1
= J['Ij!T(X~)
X
- <PT/(X~)] fr fx(xi, e1)dx~.
2=1
Como X =G T ,,., U D U E,
~= J ['Ij!T(X~) <PT/(X~)J fr
e T,n
-
2=1
fx(xi, eddx~l
6. 1 =
CT,n
J [1- CPT'(X~)J frfX(Xi,eddx~ +./ [-CPT,(x~)l frr'«(xi,eddx~
,=1 D 7=1
,., 11
n n
Igualmente, cuando x~ E D entonces -k TI fx(xi, el) > - TI fx(xi, ea),
i=l i=l
por tanto,
n n
Finalmente, cuando x~ E E, k TI fX(Xi, el) = TI fx(xi, ea), con lo cual
i=l i=l
k J[1j)T(X~)
E
- <PTI(X~)J TI: fx(xi, eddx~
2=1
= J[1/JT(X~)
E
- <PTI(X~)J TI: fx(xi, eo)dx~.
2=1
Ho : (J = (Jo
frente a
HI : (J = (JI. o
Teorema 4.2.6
Su demostración puede consultarse en Mathematical Statistics (Wilks
(1962), pp. 419 Y 420).
Ho : (J :S; (Jo
frente a
HI : (J > (Jo.
Ho : (J :S; (Jo
frente a
HI : (J > (Jo·
4.10. DEMOSTRACIÓN DE LOS TEOREMAS 277
Hó : e = el
frente a
H; : e = e2 .
El lema de Neyman-Pearson garantiza que el test
T :
"R h H*· \
ec azar o SI An = L(e l ;Xl,X2, ... ,Xn ) < K,
"
L(e2 ;Xl,X2, ... ,X n )
Ho : e ~ eo
frente a
Hl : e > eo,
e
debido a que el test no depende de el ni de 2 , porque el test es más
potente para cualquier elección de el, e2 E e, sujetos a que el ~ eo < e2.
El otro numeral del enunciado del teorema se demuestra de igual manera.
O
Teorema 4.8.2. Definidos los tamaños de los errores a y {3, los valores
K,o Y K,l, que definen un test secuencial T, pueden aproximarse mediante
a 1-a
K,o ~-- y K,l ~--
{3 .
1-{3
Demostración. Asumiendo que la hipótesis nula es cierta, entonces
278 CAPÍTULO 4. JUZGAMIENTO DE HIPÓTESIS
An
tI-a t
Además
rr
i=1
n
fx(xi, 80 ) :s; ~o rr
n
i=1
fx(xi, 8d·
Por tanto,
o: :s; ~o f¡
n=1
TI: fx(xi, 8
CT,n i=1
1 ) dx I dX2' .. dX n = (1 - (3),
porque
f¡
n=1
TI: fx(xi, 8
CT,n i=1
1 ) dx l dX2'" dX n
corresponde a
i=1 i=1
entonces
Luego
1-0
es decir, i'í:1 :s: -(3-'
tiene entonces una cota inferior 1~¡3 y i'í:1 tiene una cota superior 1~Q,
i'í:o
cotas que se pueden asumir como aproximaciones a i'í:o Y i'í:1, respectiva-
men~. O
Teorema 4.8.3. Dtfinidos los tamaños de los errores o y (3, y aproxi-
ma d os los va lores i'í:o Y i'í:1, por i'í:o* = 1-13
o. Y i'í:1* = T
1-0.' respec t'zvamen t e,
los tamaños 0* y (3* correspondientes a los valores por i'í:o y i'í:Í son tales
que
0* + (3* < o + (3.
Demostración. Sean e;, C;,n' A;, A;,n las regiones críticas y de acep-
tación correspondientes a los niveles 0* y (3* derivados de los valores i'í:o
y i'í:i·
0* = f Ir. rr
n-1 Gr,n i~1
!X(Xi, Bo)dx l dX2'" dX n
:s: ~ f fe.
1 (3
n=1 T,n
rr
z=1
!X(Xi, BI) dx 1 dX2 ... dx n .
_0_
1 - (3
f r
n=1
) G'
T,n
rr
.
z=1
!X(Xi, B1)dx1 dX2'" dX n = _0_(1 - (3*).
1 - (3
280 CAPÍTULO 4. JUZGAMIENTO DE HIPÓTESIS
De modo similar,
1 - a* = f 1 fr
n=l
*
A.,.,n i=l
fX(Xi, OO)dXl dX2·· . dX n
lOOr n
~ ~aLJA* rrfX(Xi,01)dxldx2···dxn.
n=l "',n t=l
A su vez,
1-a~
-(3- ~ J) *
r rr fX(Xi, Od dx dX2··· dX
n
l n =
1-a *
--{3
n=l A.,.,n i=l {3
Concretamente de lo anterior,
4.11 Ejercicios
1. Adoptando el modelo Uniforme en el intervalo (O, O) para represen-
tar el comportamiento de una población, para la cual se conjetura
además que el valor del parámetro no excede 00 , se determina el
siguiente sistema de hipótesis
Ha : O ::; 00
frente a
Hl : O > Oo.
Formalice un test con nivel a para el juzgamiento de Ha dentro
de este sistema de hipótesis, basado en una muestra aleatoria de
tamaño n de esta población.
2. Con base en las consideraciones del ejercicio 1, formalice un test
con nivel a para el juzgamiento de Ha dentro del sistema de hipó-
tesis
Ha: 0=00
frente a
Hl : O -# Oo·
4.11. EJERCICIOS 281
Ho: O = 00
jrentea
Hl : O =1- Oo·
Para tal efecto, determine un test con nivel a basado en una mues-
tra aleatoria de tamaño n de la citada población.
1
jx(x) = 7f[l+(x_O)2],XER
Ho: O = O
jrentea
Hl : O > 07
Ho : el = o
jrentea
H1 : el > o.
Ho: e < eo
jrentea
H1 : e 2 eo,
parámetro cuyo espacio corresponde al intervalo (0,1) y que repre-
senta la denominada fracción no conforme de materia prima, de
productos en proceso o de productos terminados, según el objetivo
y momento de su aplicación, que dentro del modelo de Bernoulli
corresponde a la probabilidad de éxito. Determine un test de ni-
vel cercano a a y su función de potencia. Bosqueje la curva de
operación OC.
el sistema
Ha : 7r = 7ro
frente a
HI : 7r > 7ro,
12. Sea Xl, X 2 , ... , X n una muestra aleatoria de una población con
función de densidad fx(x, e) = e(l - x)e-II(o,I)(X), con e > O.
Este modelo se propone como emulador del comportamiento de la
fracción no conforme de la materia prima que recibe cierta com-
pañía para utilizarlo como la distribución a priori de 8. Pero
previo a ello y dentro del análisis de su ajuste se desea contar con
un test que juzgue la hipótesis nula Ha : e ::; ea dentro del sistema
de hipótesis
Ha : e ::; ea
frente a
HI : e > ea.
13. Sea Xl, X 2 , ... , X n una muestra aleatoria de una población con
función de densidad Uniforme en el intervalo (O, e). Fijando el
valor k, si (Xn.n, k~,Xn,n) es un intervalo confidencial para el pa-
e,
rámetro entonces use este hecho para derivar de allí un test para
juzgar la hipótesis nula Ha : e = ea dentro del sistema de hipótesis
Ha : e = ea
frente a
HI : e -¡. ea.
Si no es así, desarrolle un test utilizando otros medios para el
juzgamiento de la hipótesis nula en el citado sistema.
14. Si Xl, X2, ... , X n es una muestra aleatoria de una población con
función de densidad Uniforme en el intervalo (e, e + 1), con
284 CAPÍTULO 4. JUZGAMIENTO DE HIPÓTESIS
Ho : () = O
frente a
HI : () > O.
Ho : () = 1
frente a
HI : () -=1- 1.
Ho: p = O
frente a
HI : P -=1- o.
d. 1fTe (J..Lo) = a.
20. Desarrolle un test de nivel a para el juzgamiento de la hipótesis
nula Ho : () <:::: J..Lo frente a la hipótesis alterna H 1 : () > J..Lo bajo
Normalidad y conocido el valor de (J. Muestre que la función de
potencia del test es
a. 1f T (()) es creciente.
b. lim 1fT (()) = O Y lim 1fT (()) = 1.
(}->-oo (}->oo
C. 1fT (J..Lo) = a.
2
'lfTC(a) = 1-F(n-I)
(a5xL9.(n
~2
-1)) +F(n-I)
(a5X~(n
2a 2
-1))
siendo F(n-I) (x) la función de distribución de una variable aleato-
ria X, con distribución Ji-cuadrado con (n -1) grados de libertad.
Deduzca las propiedades de esta función de potencia.
a 2
ao22X1 - O,(n - 1) )
2
'lfT(a ) = 1 - F(n-.I) (
Ho: e = eo
frente a
Hl : e = el,
basado en una muestra aleatoria de una población con distribución
de Poisson de parámetro e.
Ho: e = 1
frente a
Hl : e = 2.
31. Dentro del sistema de hipótesis del ejercicio 30, determine un test
e
más potente para juzgar la hipótesis nula Ho : = 1 si el modelo
asumido es un modelo cuya función de densidad es
fx(x,e) = eXB-lI(o,l)(X), e> O.
Ho: e = 1
frente a
Hl : e < 1
está basado en una estadística suficiente para e.
288 CAPÍTULO 4. JUZGA MIENTO DE HIPÓTESIS
1
Ho : () = -
4
frente a
1
HI : () < :;¡-.
[2] Ash B. Robert (1970). Basic Probability Theory. New York: John
Wiley & Sons, Inc.
289
290 BIBLIOGRAFÍA
[32] Lehmann, Erich Leo (1983). Theory of Point Estimation. New York:
John Wilcy.
[35] Parzen, Emanucl (1971). Modern Probability Theory and its Appli-
cations. New York: John Wiley.
[39] Tanner, Martin Abba (1993). Tools for Statistical lnference: Me-
thods for the Exploration of Posterior Distributions and Likelihood
Functions. 2nd ed. New York: Springer-Verlag.
293
294 ÍNDICE DE MATERIAS
MLE,69 empírica, 26
Pitman muestral, 26
el más concentrado, 91 de potencia, 198
más concentrado, 90 de verosimilitud, 68
QMLE,79 de la muestra, 68
robusto, 123
UMVUE,109 G livenko-Cantelli
uniformemente teorema de, 30
mejor, 109
hipótesis
estimar, 10
alterna, 189
familia compuesta, 189
de densidades estadística, 189
cerrada bajo muestreo, 86 juzgamiento de una, 189
completa, 116 nula, 189
conjugada, 86 simple, 189
de densidades pearsoniana, sistema de, 189
103 homoscedasticidad, 229, 231
exponencial juzgamiento de la, 240
de densidades k-paramétrica,
información
104
de Fisher, 111
p-dimensional de densidades,
intervalo
104
aleatorio, 148
unidimensional de densidades,
bayesiano, 177
104
confidencial, 148
Fisher
unilateral, 149
información de, 111
Fisher-N eyman juzgamiento
criterio de factorización de, del ajuste, 261
98, 100 método de Kolmogorov-Smirno1
función 268
crítica método de Pearson, 262
del test aleatorizado, 191 secuencial, 252
del test no aleatorizado, 194
de cuasi verosimilitud, 79 Khintchine, teorema de, 19
de densidad Kolmogorov-Smirnov
a posteriori, 85 juzgamiento del ajuste, método
a priori, 84 de, 268
de distribución Koopman-Darmois
296 ÍNDICE DE MATERIAS
general, 153
método de la, 149
variable aleatoria
contaminada, 124
pivote, 150
varianza
mínima, 108
muestral, 12
poblacional, 18, 37