You are on page 1of 26

FACULTAD DE INGENIERA DE SEGURIDAD INDUSTRIAL Y MINERA

Asignatura: ESTADISTICA
TEMA: APLICACION DE LA DISTRIBUCION UNIFORME

PRESENTADO POR:
Jimnez Apaza Claudia
Rodrguez Montalvo Yankarla
Riega Benavente Vctor
Semestre: V

Turno: Noche

Aula: 06

Docente: Mg. Diego Gutirrez Yanarico

Arequipa Per
2014

NDICE

NDICE........................................................................................................................... 2
INTRODUCCIN............................................................................................................4
1. 5
CAPTULO I: HISTORIA.................................................................................................5
2. 7
CAPTULO II: PROBLEMA DE INVESTIGACIN...........................................................7
2.1. Problema de investigacin....................................................................................7
2.2. Formulacin del problema.....................................................................................7
2.3. Objetivos de la investigacin.................................................................................7
2.3.1. Objetivo general

2.3.2. Objetivos de la investigacin

3. 8
CAPTULO III: CONCEPTOS BSICOS..........................................................................8
3.1. Conceptos bsicos................................................................................................8
3.2. Probabilidad Clsica.............................................................................................8
3.3. Frecuencia relativa de la presentacin..................................................................9
3.4. Probabilidades subjetivas.....................................................................................9
3.5. Reglas de la Probabilidad.....................................................................................9
3.6. Eventos mutuamente excluyentes........................................................................9
3.7. Probabilidad de varios eventos...........................................................................10
3.8. Probabilidad bajo condiciones de independencia estadstica..............................11
3.9. Probabilidades marginales en condiciones de independencia............................12
3.10. Probabilidades conjuntas bajo condiciones de independencia estadstica..........12
3.11. Probabilidades condicionales bajo independencia estadstica............................14
3.12. Probabilidad Condicional Bajo Dependencia Estadstica....................................15
3.13. Probabilidades marginales bajo dependencia estadstica...................................17

3.14. La Probabilidad Total...........................................................................................17


3.15. Distribucin de probabilidades............................................................................19
3.16. Variable Aleatoria................................................................................................21
3.17. Valor Esperado de una variable Aleatoria Discreta.............................................23
4. 25
CAPTULO IV: CONCLUSIONES..................................................................................25

INTRODUCCIN

Aunque para resolver todos los problemas que se nos presenten acudiremos al SPSS, sin
embargo, es necesario conocer los conceptos de la clase de problemas a solucionar.
Los principales precursores del clculo de probabilidades fueron Jacob Bernoulli (1674-1705)
Thoma Bayes (1702-1761) Joseph Lagrange (1736-1813) y Carl Friedrich Gauss.
La teora de la probabilidad es la base es la base de las investigaciones estadsticas en las
investigaciones de las ciencias sociales y en la toma de decisiones.
En realidad, las llamadas leyes en las ciencias sociales no son sino tendencias estadsticas en
el tiempo, las que pueden ser estimados con un grado de probabilidad.
Las probabilidades son muy tiles, ya que pueden servir para desarrollar estrategias. Por
ejemplo, algunos automovilistas parecen mostrar una mayor tendencia a aumentar la velocidad
si creen que existe un riesgo pequeo de ser multados; los inversionistas estarn ms interesados
en invertirse dinero si las posibilidades de ganar son buenas. El punto central en todos estos
casos es la capacidad de cuantificar cuan probable es determinado evento. En concreto decimos
que las probabilidades se utilizan para expresar cuan probable es un determinado evento.

1.
CAPTULO I: HISTORIA
La definicin de probabilidad surge debido al deseo del ser humano por conocer con certeza los
eventos que sucedern en el fturo. Es por eso que a travs de la historia se han desarrollado
diferentes enfoques para tener un concepto de la probabilidad y determinar sus valores.
El diccionario de la Real Academia Espaola define azar como una casualidad, un caso
fortuito, y afirma que la expresin al azar significa sin orden.1 La idea de Probabilidad est
ntimamente ligada a la idea de azar y nos ayuda a comprender nuestras posibilidades de ganar
un juego de azar o analizar las encuestas. Pierre-Simon Laplace afirm: "Es notable que una
ciencia que comenz con consideraciones sobre juegos de azar haya llegado a ser el objeto ms
importante del conocimiento humano". Comprender y estudiar el azar es indispensable, porque
la probabilidad es un soporte necesario para tomar decisiones en cualquier mbito.2
Segn Amanda Dure, "Antes de la mitad del siglo XVII, el trmino 'probable' (en latn probable)
significaba aprobable, y se aplicaba en ese sentido, unvocamente, a la opinin y a la accin.
Una accin u opinin probable era una que las personas sensatas emprenderan o mantendran,
en las circunstancias."3
Aparte de algunas consideraciones elementales hechas por Girolamo Cardano en el siglo XVI,
la doctrina de las probabilidades data de la correspondencia de Pierre de Fermat y Blaise Pascal
(1654). Christiaan Huygens (1657) le dio el tratamiento cientfico conocido ms temprano al
concepto. Ars Conjectandi (pstumo, 1713) de Jakob Bernoulli y Doctrine of Chances (1718) de
Abraham de Moivre trataron el tema como una rama de las matemticas. Vase El surgimiento
de la probabilidad (The Emergence of Probability) de Ian Hacking para una historia de los
inicios del desarrollo del propio concepto de probabilidad matemtica.
La teora de errores puede trazarse atrs en el tiempo hasta Opera Miscellanea (pstumo, 1722)
de Roger Cotes, pero una memoria preparada por Thomas Simpson en 1755 (impresa en 1756)
aplic por primera vez la teora para la discusin de errores de observacin. La reimpresin
(1757) de esta memoria expone los axiomas de que los errores positivos y negativos son
igualmente probables, y que hay ciertos lmites asignables dentro de los cuales se supone que
caen todos los errores; se discuten los errores continuos y se da una curva de la probabilidad.
Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para la combinacin
de observaciones a partir de los principios de la teora de las probabilidades. Represent la ley
de la probabilidad de error con una curva

, siendo

probabilidad, y expuso tres propiedades de esta curva:


1. es simtrica al eje ;

cualquier error e y

su

2. el eje

es una asntota, siendo la probabilidad del error

igual a 0;

3. la superficie cerrada es 1, haciendo cierta la existencia de un error.


Dedujo una frmula para la media de tres observaciones. Tambin obtuvo (1781) una frmula
para la ley de facilidad de error (un trmino debido a Lagrange, 1774), pero una que llevaba a
ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio del mximo producto
de las probabilidades de un sistema de errores concurrentes.
El mtodo de mnimos cuadrados se debe a Adrien-Marie Legendre (1805), que lo introdujo en
su Nouvelles mthodes pour la dtermination des orbites des comtes (Nuevos mtodos para la
determinacin de las rbitas de los cometas). Ignorando la contribucin de Legendre, un escritor
irlands estadounidense, Robert Adrain, editor de "The Analyst" (1808), dedujo por primera vez
la ley de facilidad de error,

siendo

constantes que dependen de la precisin de la observacin. Expuso dos

demostraciones, siendo la segunda esencialmente la misma de John Herschel (1850). Gauss


expuso la primera demostracin que parece que se conoci en Europa (la tercera despus de la
de Adrain) en 1809. Demostraciones adicionales se expusieron por Laplace (1810, 1812), Gauss
(1823), James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), W. F. Donkin (1844,
1856) y Morgan Crofton (1870). Otros personajes que contribuyeron fueron Ellis (1844), De
Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La frmula de Peters (1856)
para , el error probable de una nica observacin, es bien conocida.
En el siglo XIX, los autores de la teora general incluan a Laplace, Sylvestre Lacroix (1816),
Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert (1872), Hermann
Laurent (1873), Liagre, Didion, y Karl Pearson. Augustus De Morgan y George Boole
mejoraron la exposicin de la teora.
En 1930 Andri Kolmogorov desarroll la base axiomtica de la probabilidad utilizando teora
de la medida.
En la parte geomtrica (vase geometra integral) los colaboradores de The Educational Times
fueron influyentes (Miller, Crofton, McColl, Wolstenholme, Watson y Artemas Martin).

2.
CAPTULO II: PROBLEMA DE INVESTIGACIN
2.1.1. Problema de investigacin
Las aplicaciones de la probabilidad son infinitas y para aprovecharlas se requiere
tener la teora para aprovecharla al mximo; muchas reas del conocimiento la
utilizan para resolver problemas cotidianos y para conocer nuevos aspectos de las
ciencias.
2.1.2. Formulacin del problema
La mayora de las investigaciones utilizan muestras de probabilidad, es decir,
aquellas que el investigador pueda especificar la probabilidad de cualquier
elemento en la poblacin que investiga. Las muestras de probabilidad permiten usar
estadsticas inferenciales, aquellas que permiten hacer inferencias a partir de datos.
Por otra parte, las muestras no probabilsticas solo permiten usarse estadsticas
descriptivas, aquellas que solo permiten describir, organizar y resumir datos. Se
utilizan cuatro tipos de muestras probabilsticas: muestras aleatorias simples,
muestras aleatorias estratificadas, muestra por conglomerados y muestras
sistemticas.
Para ello necesitamos tener los conceptos bsicos y para ello se plantea este trabajo
como un aporte para que los estudiantes universitarios tengan a la mano una
herramienta bibliogrfica que les permita resolver sus dudas y de ser posible,
ayudarlos a entender de mejor manera la probabilidad.
2.1.3. Objetivos de la investigacin
2.1.3.1. Objetivo general
Conocer las aplicaciones de la probabilidad.
2.1.3.2. Objetivos de la investigacin
Establecer las aplicaciones ms comunes de la probabilidad en el conocimiento.
Comprender los usos y utilidad de esta herramienta estadstica.

3.
CAPTULO III: CONCEPTOS BSICOS
3.1.1. Conceptos bsicos
Probabilidad es la posibilidad cuantificada de que algo suceda.
Evento: Uno ms de los posibles resultados de hacer algo.
Si lanzamos una moneda al aire, saldr cruz o cara; cada resultado ser un
evento.
Experimento, la actividad que produce un evento; en este caso, el lanzar la moneda.
Cul ser la probabilidad de que una moneda, al ser lanzada, caiga cara? ser 0,5
Espacio muestral: al lanzar la moneda el espacio muestral es: {cara, cruz}
Si dos eventos pueden ocurrir al mismo tiempo, sern eventos no son mutuamente
excluyentes; si no pueden ocurrir simultneamente, sern mutuamente excluyentes.
La probabilidad de sacar una carta de un paquete de 52 cartas, ser 1/52
La de sacar una reina ser 4/52, pues existen cuatro reinas en el mazo.
La de sacar un trbol ser 13/52, pues hay 13 trboles en un mazo.
La probabilidad de sacar una carta roja es 26/52, dado que hay 26 cartas rojas.
La probabilidad de sacar un as al lanzar un dado es 1/6, porque hay seis nmeros
y un solo As: del mismo modo con los otros nmeros.
3.1.2. Probabilidad Clsica
La probabilidad de que un evento ocurra es definida del siguiente modo:
E = F/(T)
E = Evento
F = nmero de casos favorables
T = el total de casos
En el ejemplo de las cartas, el nmero favorable de sacar una reina es 4
El total de casos es 52
En el caso de los dados, el nmero favorable de sacar un as es 1
El total de casos es 6.
La probabilidad clsica es conocida tambin como probabilidad a priori.

Se denominara as, porque las probabilidades de los resultados puede ser


conocidos de antemano, tal como sucede con los experimentos de las cartas o los
dados.
3.1.3. Frecuencia relativa de la presentacin
Es el porcentaje del resultado de casos favorables con relacin al total de casos.
3.1.4. Probabilidades subjetivas
Se basan en las creencias de las personas que disean el experimento
La probabilidad subjetiva es til cuando no hay antecedentes para establecer una
probabilidad objetiva: Cul es la probabilidad de que un reactor atmico irradie
radiactividad?
Dado que no existe un antecedente, se recurrir a las suposiciones y al sentido
comn.
Los responsables de tomar decisiones en una empresa usan la subjetividad para los
casos nicos que se presentan a diario en asuntos de mercado, precios, y otros
similares.
3.1.5. Reglas de la Probabilidad
Los siguientes smbolos son los que se utilizan en el clculo de probabilidades:
P(A) = Es la probabilidad de que el evento A suceda.
Si puede llevarse a cabo slo un evento, la probabilidad ser sencilla
Este tipo de probabilidad es conocido como probabilidad marginal o incondicional.
Si hay un sorteo para ganar un premio y el total de casos es 60, la probabilidad de
que alguien saque el nmero premiado es 1/60 = 0,0167; slo un participante podr
ganar.
3.1.6. Eventos mutuamente excluyentes
Hay casos en los que pueden realizarse dos eventos: uno o el otro; supongamos que
hay 5 candidatos para un cargo pblico y que todos tienen los mismos mritos.
Utilizaremos el concepto marginal de probabilidad:
Diremos que la probabilidad de que uno de ellos sea elegido ser 1/5.
Pero si estamos interesados en saber la probabilidad de dos candidatos, la cosa
cambia.
8

Supongamos que tenemos inters en saber las probabilidades de que Juan o Mara
ganen el concurso de mritos; en este caso tenemos dos eventos que se suman entre
s.
La probabilidad de Juan es de 1/5 y la de Mara tambin es 1/5; entonces de
probabilidad de que alguno de los dos sea elegido ser 1/5 + 1/5 = 2/5 = 0,40
En el primer caso, el de que uno de los cinco gane, la probabilidad ser P(A) = 1/5
= 0,20
En el segundo caso, la probabilidad se representar del siguiente modo: P(A o B)
notacin que nos indica la probabilidad de que uno de los dos gane el concurso.
Para mostrar grficamente lo que la suma de probabilidades significa, los tericos
recurren a los smbolos de los conjuntos en matemticas.
Esos smbolos son muy tiles en la tarea de comprender los teoremas.
Tomemos la siguiente tabla, del libro de Levin y Rubin, en la que se consignan
datos sobre el nmero de hijos y sus probabilidades respectivas en una encuesta
familiar.
Nmero de hijos
0
1
2
3
4
5
6 o ms
Proporcin de familias que tienen esa cantidad 0.05 0.10 0.30 0.25 0.15 0.10 0.05
En el cuadro anterior tenemos una muestra que nos permitir establecer las
probabilidades de que una familia tenga un nmero determinado de hijos.
Ejemplo, la probabilidad de que una familia tenga 3 hijos es 0.25.
La probabilidad de que una familia no tenga hijos es 0.05, mientras que la
probabilidad de que una familia tenga 2 hijos ser 0.30 y as sucesivamente.
Ahora aplicaremos estos conceptos: deseamos saber la probabilidad de que una
familia del pueblo donde se hizo la encuesta tenga 4 o ms hijos.
Nos damos cuenta de que ya no estamos hablando de un solo evento, sino de varios.
3.1.7. Probabilidad de varios eventos
Para plantear el problema recordamos que estamos hablando de varios eventos y
que la simbologa para representar esa condicin es P(A o B)
En el caso particular que nos interesa, esa expresin toma la forma numrica
siguiente:
P(4,5,6 o ms) = P(4) + P(5) + P(6 o ms) = 0.5 + 0.10 + 0.05 = 0.30

De inmediato interpretamos el resultado: la probabilidad de que una familia tenga


4, 5, 6 o ms hijos es la suma de las probabilidades marginales de cada evento, esto
es, 0.30
Ahora ingresamos a una situacin que puede darse en muchas oportunidades.
Supongamos que deseamos obtener un diez o un trbol de un mazo de 52
cartas.
En este caso, debemos tener en cuenta que tambin podemos sacar un diez de
trbol.
Vemos que sacar un diez o un trbol no son eventos mutuamente excluyentes,
debido a que hay la probabilidad conjunta de un diez y un trbol al mismo tiempo.
En este tipo de problemas debemos ajustar la ecuacin para evitar el conteo doble.
De este modo tendremos: P(diez) + P(trbol) P(diez y trbol)
4/52 + 13/52 1/52 = 16/52 = 4/13
Otro ejemplo; los empleados de la empresa han elegido a 5 de ellos para que los
representen en el consejo de administracin; los perfiles de los elegidos son:
Hombre, edad 30
Hombre

32

Mujer

45

Mujer

20

Hombre

40

Una vez elegidos, los cinco deciden, a su vez, elegir un portavoz: Cul ser la
probabilidad de que la persona elegida sea mujer o tenga una edad por encima de
35 aos?
P(mujer o mayor a 35) = P(mujer) + P(mayor a 35) P(mujer y mayor a 35)
La probabilidad P(Mayor a 35 aos) se refiere al total de todos, hombres y mujeres,
que tienen ms de 35 aos; hay solamente dos casos de los cinco: 45 y 40.
2/5 + 2/5 1/5 = 3/5 = 0.60
3.1.8. Probabilidad bajo condiciones de independencia estadstica
En primer lugar, definiremos el concepto de Independencia
Dos eventos son estadsticamente independientes entre s cuando el evento o
resultado de uno de ellos no tenga influencia en el resultado o evento del otro.
Existen tres tipos de probabilidad independiente: Marginal, Conjunta, Condicional

10

3.1.9. Probabilidades marginales en condiciones de independencia


Vimos que una probabilidad es marginal o incondicional cuando es la
representacin simple de un evento; v.g el lanzamiento de una moneda normal.
Ese experimento tendr un evento: cara o cruz, con una probabilidad de 0,5 c/u.
No importa cuntas veces lancemos la moneda, la probabilidad de que salga cara o
cruz ser la misma; cada lanzamiento es nico y no tiene influencia sobre el
prximo.
3.1.10. Probabilidades conjuntas bajo condiciones de independencia
estadstica
La probabilidad de dos o ms eventos independientes que se presentan juntos es
igual al el producto de sus probabilidades marginales.
Representamos ese caso de la siguiente manera: P(AB) = P(A) x P(B)
P(AB) = probabilidad de que ambos eventos se presenten juntos o probabilidad de
A y B.
P(A) = probabilidad marginal de que se presente el evento A.
P(B) = probabilidad marginal de que se presente el evento B.
Ejemplos
Cul es la probabilidad cruz, cara y cruz, en ese orden, en tres lanzamientos
consecutivos de una moneda?
El resultado ser: 0.5 x 0.5 x 0.5 = 0.125, debido a que la probabilidad de que
salga a es independiente a la probabilidad de que salga B
Cul es la probabilidad de obtener cruz, cruz y cara, en ese orden luego de tres
lanzamientos consecutivos? La probabilidad ser: 0.5 x 0.5 x 0.5 = 0.125.
Cul es la probabilidad de obtener al menos dos caras en 3 lanzamientos
consecutivos?
Estamos ante el caso mixto de eventos mutuamente excluyentes; las que son
aditivas (la probabilidad de obtener una cara ms la probabilidad de obtener otra
cara)
Pero, tenemos un evento independiente.
Para visualizar este proceso, tomemos la tabla 4.2 del texto de Levin y Rubin, en
la que se descomponen las probabilidades posibles de los eventos del total del
experimento.
Denominaremos cara = H; cruz = T
11

En la parte superior del cuadro se registra los tres lanzamientos de la moneda.


En el primer lanzamiento los posibles resultados son o una cara (H1) o una cruz
(T1) y la probabilidad para cada uno de estos resultados, tal como vimos es 0.5.
1 y 2 representan el primer y el segundo lanzamiento, en todos los casos.
Lanzada la moneda por segunda vez, nos trasladamos a la columna Dos
lanzamientos. Los resultados posibles son: el primer lanzamiento fue cara (H1) el
segundo tambin (H2)
ste es un ejemplo de lo que hace la computadora con el SPSS
Tomamos nota que los eventos del segundo lanzamiento estn ligados a los eventos
que resultaron en el primero.
Tabla 1: Posibles Resultados
Un lanzamiento
Dos lanzamientos
Tres lanzamientos
Resultados
Resultados
Resultados
Probabilidad
Probabilidad
Probabilidad
Posibles
Posibles
Posibles
H1, H2, H3
0.125
H1, H2, T3

0.125

H1, H2

0.25

H1, T2, H3

0.125

H1

0.5

H1, T2

0.25

H1, T2, T3

0.125

T1

0.5

T1, H2

0.25

T1, H3, H3

0.125

T1, T2

0.25

T1, H2, T3

0.125

T1, T2, H3

0.125

T1, T2, T3
0.125
El segundo evento posible en la columna del segundo lanzamiento es H1, T2,
esto es: en el primer lanzamiento sali una cara (H1) y en el segundo
lanzamiento sali una cruz (T).
El tercer evento muestra que en el primer lanzamiento se T1 y en el segundo, H2
El cuarto evento muestra que en el primer lanzamiento T1 y en el segundo, cara
H2
Las probabilidades en cada caso son 0.25, que resultan de
Cara = probabilidad de 0.5
Cruz = probabilidad de 0.5
La probabilidad, del primer evento del segundo lanzamiento H1, H2 es 0.5 x 0.5
= 0.25
Lo mismo con las dems probabilidades

12

Los datos del tercer lanzamiento se registran de la misma forma; en el primer


lanzamiento se obtuvo una cara (H1) en el segundo tambin (H2) y en el tercero,
una cruz (T3)
La probabilidad de este evento ser 0.5 x 0.5 x 0.5 = 0,125
El mismo razonamiento para los siguientes eventos, hasta que agotamos todas
las probabilidades posibles de los tres lanzamientos de la moneda.
Ahora ya podemos responder a la pregunta que nos hicimos al iniciar este
captulo: Cul es la probabilidad de obtener cruz, cruz y cara, en ese orden,
luego de tres lanzamientos?
La pregunta ya nos hace saber que se trata de un experimento de tres
lanzamientos
En nuestra tabla vemos que los eventos que la pregunta exige son: T1, T2, H3 =
0.125
Estos ejercicios nos muestran lo que hace la computadora, en el programa SPSS,
cuando le pedimos que calcule las probabilidades de un problema en el que
estamos interesados.
3.1.11. Probabilidades condicionales bajo independencia estadstica
Hasta ahora vimos dos clases de probabilidad: la probabilidad marginal (o
incondicional) y la probabilidad conjunta; la primera representada por (PA) y la
conjunta por P(AB)
La Probabilidad Condicional que analizaremos ahora se representa por P(B/A)
que muestra dos eventos: A, y B.
De esta manera, la Probabilidad Condicional P(B/A) representa el caso en que el
segundo evento B ocurre luego que el primero, A, ya ha tenido lugar.
Es decir, nos dice cul ser la probabilidad del evento B una vez que el evento A
ya ocurri; observemos el proceso que sigue el SPSS.
Antes de continuar, recordemos que para dos eventos independientes, A y B, la
ocurrencia del evento A nada tiene que ver con el la ocurrencia del evento B.
La probabilidad de lograr una cara en un segundo lanzamiento, despus de que el
primero dio un resultado, seguir siendo 0.5, debido a que ambos eventos son
independientes.

13

A continuacin disearemos una ayuda-memoria para eventos estadsticamente


independientes; la probabilidad marginal, llamada tambin incondicional es
(PA)
Tabla 2: Probabilidades Condicionales
Tipo de Probabilidad

Smbolo

Frmula

Marginal

P(A)

P(A)

Conjunta

P(AB)

P(A) x P(B)

Condicional

P(A/B)

P(B)

3.1.12. Probabilidad Condicional Bajo Dependencia Estadstica


Antes de proponer la definicin formal, vayamos a un ejemplo ilustrativo.
Hay una caja que contiene diez bolas de colores, distribuidas de la manera
siguiente:
Tres bolas son de color y tienen puntos
Una es de color y tiene franjas
Dos son grises y tienen puntos
Cuatro son grises y tienen franjas
Siguiendo a Levin y Rubin, hacemos un cuadro para visualizar las condiciones del
problema; hay diez bolas, la probabilidad de sacar una cualquiera de ella es 1/10 =
0.10.
Tabla 3: La distribucin de las diez bolas
Evento

Probabilidad del Evento

0.1

0.1 (De color y con puntos)

0,1

0.1 (De color y con franjas)

0.1 (Grises y con puntos)

0.1

0.1

0.1 (Grises y con franjas)

0.1

10

0.1

Supongamos que alguien saca una bola de color:


Cul es la probabilidad de que tenga puntos?
14

Simblicamente, el problema puede representarse como P(D/C), es decir: Cul es


la probabilidad de que la bola tenga puntos (D) dado que es de color (C)?
(Vemos que D representa una bola con puntos, C, de color)
Queremos saber la probabilidad de que, siendo la bola de color, que tambin tenga
puntos; para ello, ignoramos las bolas grises, pues no cumplen con ninguna
condicin dada.
Slo tomaremos en cuenta las que restan.
Hay cuatro bolas de color, tres de las cuales tienen puntos y la cuarta tiene franjas;
con esa informacin slo tenemos que encontrar las probabilidades sencillas.
Ahora deseaos saber la probabilidad de que la bola tenga puntos y de que tenga
franjas
Para ello nos damos cuenta que el total de bolas que tienen color son 4 y las que
tienen color y puntos son tres.
Por lo tanto, la probabilidad de una bola a color con puntos es P(D/C) = = 0.75
Por otro lado, si nos fijamos en la tabla 4.4 hay una sola bola de color y con
franjas.
Por lo tanto, la probabilidad de color con franjas es = = 0.25; ambas suman 1.
En el prximo captulo veremos la frmula general sobre la probabilidad
condicional.
Algunos ejemplos adicionales
Cul es la probabilidad de que la bola tenga puntos, dado que es de color?
Esta pregunta equivale: Cul es la probabilidad de que la bola sea de color y
tenga puntos (son 3 casos de un total de 10) entre la probabilidad de que sea de
color.
Probabilidad de que la bola sea de color y tenga puntos = 3/10 = 0.3
Probabilidad de que la bola sea de color = 4/10 = 0 0.4
La probabilidad de que la bola tenga puntos, dado que es de color, es = 0.3/0.4
Continuamos los datos de la tabla 4.4
Cul es la probabilidad de que la bola tenga puntos, dado que es gris?
Por otra parte, Cul la probabilidad de que la bola tenga franja, dado que es gris?
Para la primera parte del problema, vemos en la tabla vemos que:
La probabilidad de bolas grises con puntos = 2/10 = 1/5 = 0.20
La probabilidad de que sea gris es 6/10 = 3/5 = 0.60
15

La probabilidad de que la bola tenga puntos dado que es gris es = 0.20/0.60 = 0.33
En la segunda parte, de que la bola tenga franja es = 5/10 = 0.5
La probabilidad de una bola que tenga franja, dado que es gris es = 6/10 = 3/5 =
0.60
3.1.13. Probabilidades marginales bajo dependencia estadstica
Esta clase de probabilidades se calculan sumando las probabilidades de todos los
eventos del experimento; v.g: calcular la probabilidad marginal del evento bola de
color.
Sumamos la probabilidad de los eventos en los que aparecen bolas de color.
Volviendo a nuestra tabla, vemos que las bolas de color aparecen bolas de color
con puntos y bolas de color con franjas; sumamos las dos probabilidades
3/10 + 1/10 = 4/10 = 0.4
La probabilidad de una bola gris resultar de la suma de bolas grises con puntos
y bolas grises con franjas = 2/10 + 4/10 = 6/10 = 0.6
3.1.14. La Probabilidad Total
A partir de las probabilidades del suceso A (de que llueva o de que haga buen
tiempo) deducimos la probabilidad del suceso B (que ocurra un accidente
automovilstico)
Supongamos que ha ocurrido el suceso B (un accidente) sobre la base de ese
accidente se puede deducir las probabilidades del suceso A (estaba lloviendo o
haca buen tiempo?)
La probabilidad del evento A encierra la probabilidad de varios sub eventos;
Llova en el momento del accidente?; Haca buen tiempo? Nevaba? Haba
niebla?
Ese nuevo concepto de probabilidad se denomina Clculo de probabilidades
anteriores y su planteamiento original se debe al conocido estadstico Thomas
Bayes (17021761)
Ya a principios del siglo XVIII la teora de las probabilidades estaba madura,
como para incursionar en otro tipo de modelos, diferentes al que hemos estudiado
hasta ahora.
El tipo de probabilidad estudiado se llama Probabilidad Clsica

16

El tipo de probabilidad que estudiaremos ahora, se llama Probabilidad


Baynesiana.
El Teorema de Bayes aade nuevas exigencias a la teora de probabilidades
analizadas; v.g; supongamos que el suceso A es la probabilidad de que llueva o
haga buen tiempo.
Sobre ese escenario se establecer la probabilidad de ocurrencia de un segundo
suceso, B, digamos, que ocurra un accidente automovilstico.
De la ocurrencia de B (accidente automovilstico) se establece la probabilidad A
(lluvia, nieve o buen tiempo) este es el mtodo que se llama el Teorema de Bayes.
Ejemplo
Se ha anunciado tres probabilidades sobre el tiempo para el fin de semana
Probabilidad de que llueva = 0.50;
Probabilidad de que nieve = 0.30;
Probabilidad de niebla:

= 0.20.

La Oficina de trnsito vehicular tiene datos sobre las probabilidades de que ocurra
un accidente automovilstico segn los estados meteorolgicos.
Lluvia: probabilidad de accidente es = 0.10;
Nieve: probabilidad de accidente es = 0.20;
Niebla: probabilidad de accidente es = 0.05.
Supongamos que ocurre un accidente y no sabemos si llovi, nev o hubo niebla.
Para calcular las probabilidades acudimos al Teorema de Bayes
Las probabilidades dadas antes de conocer que ha ocurrido un accidente son
"probabilidades a priori" (lluvia con el 60%, nieve con el 30% y niebla con el
10%)
Una vez conocida la informacin de que ha ocurrido un accidente, las
probabilidades del suceso son probabilidades condicionadas P (A/B) o
"probabilidades a posteriori".
La probabilidad de que en el momento del accidente lloviera es 0.41

Ahora veamos la probabilidad de que el accidente ocurri mientras nevaba:

17

La probabilidad de que el accidente ocurri habiendo nevado es 0.33.


Del mismo modo para la probabilidad de que hubiera niebla.
En el numerador registramos la probabilidad de que nieve en el momento del
accidente (0.20) por la probabilidad de que haya un accidente cuando hay niebla
(0.05)
En el denominador se pone la misma informacin que se us para los otros dos
casos.
3.1.15. Distribucin de probabilidades
En la tabla 3.2 del captulo tercero vimos la distribucin de frecuencias en la
segunda columna de la tabla correspondiente a los salarios.
En la siguiente de la tabla obtuvimos las probabilidades de cada rango de salarios
Ahora vamos a estudiar las distintas distribuciones de probabilidades ms usadas
en la estadstica. Aprehenderemos el concepto de cada una y luego iremos al
SPSS.
Construiremos la tabla que sugiere Levin y Rubin para registrar los posibles
eventos que resultaran del lanzamiento de una moneda dos veces consecutivas.
Tabla 4: Cuadro de probabilidad de lanzar una moneda dos veces
consecutivas
Primer
lanzamiento
T

Segundo lanzamiento. 2
lanzamientos
T

No. De cruces en
resultados posibles
2

Probabilidad de
los 4
0.5 x 0.5 = 0.25

0.5 x 0.5 = 0.25

0.5 x 0.5 = 0.25

H
T
1
0.5 x 0.5 = 0.25
H significa cara y T significa cruz y las probabilidades son tericas,
puesto que en la realidad puede que en dos lanzamientos los resultados sean
diferentes.
Pero, si lanzamos una moneda no alterada muchas veces, los resultados obtenidos
se irn acercando cada vez ms a las probabilidades tericas.
Deduciremos del anterior cuadro otro que registre la distribucin de la
probabilidad del nmero posible de cruces que se obtiene al lanzar dos veces una
moneda.
Nmero de cruces (T) Lanzamiento
0
(H, H)
18

Probabilidad del Resultado


0.25

(TH + HT)

0.50

2
(T, T)
0.25
Representaremos grficamente los resultados de la tabla 4.6
Estamos interesados en mostrar la distribucin de los resultados referidos a las
cruces.
Para hacer eso, colocamos en el eje de las abscisas de un cuadrante el nmero
terico de cruces que observaramos en dos lanzamientos de la moneda.
En el eje de las ordenadas registramos la probabilidad de cada observacin, de
acuerdo con los datos de la tabla 4.6 recordemos que estas probabilidades, son
tericas.
Grfica 1: Probabilidad

En la grfica 1 reflejamos los datos que nos da la tabla 4.6; ambas, la tabla y la
grfica son dos formas de mostrar una distribucin de probabilidades.
Tabla 5
Nmero de pacientes atendidos Nmero de das que se atendi
100
1
101

102

103

104

105

106

107

10

108

12

109

11

110

9
19

111
112
113
114
115

8
6
5
4
2

100
En la tabla 4.7 registramos los datos de los pacientes atendidos diariamente,
durante cien das en una clnica; vamos a convertir esos datos en una tabla de
probabilidades.
Este ejercicio es til para tener una imagen de lo que hace el SPSS en la
computadora.
Definamos algunos conceptos, antes de resolverlo.

3.1.16. Variable Aleatoria


Es la variable que toma diferentes valores como resultado de un experimento
aleatorio; puede ser discreta o continua, de acuerdo con el nmero de valores que
toma.
Si toma slo un nmero limitado de valores, ser una Variable Aleatoria Discreta;
si puede tomar cualquier valor dentro de un intervalo, ser una Variable Aleatoria
Continua.
En la tabla 5 anotamos el nmero de pacientes mujeres atendidas diariamente en
una clnica en los ltimos cien das; esto es, una distribucin de frecuencias. De
inmediato, convertiremos los datos de las frecuencias en probabilidades; tabla 6.
Tabla 6: Distribucin de Probabilidades del nmero de pacientes de la clnica

20

En la columna izquierda registramos el nmero de pacientes que son atendidos


diariamente en la clnica; en la derecha, se anotan las probabilidades para cada
caso.
Para deducir estas probabilidades, se ha dividido el nmero de das para cada
nmero de pacientes de la tabla 4.7 entre cien, que es el nmero total de das
registrados.
La suma de las frecuencias del nmero de das anotados en la tabla 4.7 suma 100.
Los datos convertidos en probabilidades en la tabla 4.8, suman en total 1.
La suma de todas las probabilidades siempre es 1, en cualquier caso.
Con los datos de la tabla 4.8 diseamos una grfica de distribucin de
probabilidad.
Registramos en el eje de las abscisas el nmero diario de pacientes atendidas y en
el eje de las ordenadas sus respectivas probabilidades.
El grfico 2 es para una distribucin de probabilidades para variables discretas.
No dejamos de notar que la longitud ms larga corresponde a la probabilidad
mayor de la distribucin; tambin notamos la simetra de las longitudes a ambos
lados.
Grfica 2: Distribucin de Frecuencias de probabilidades

21

Sobre esa simetra es que Gauss lleg a establecer la Distribucin Normal para
valores continuos, que es la que ms a menudo usaremos en el SPSS, una vez que
la definamos.
La Curva Normal, lo dijimos ya, refleja la distribucin normal de los datos y es la
que los estadsticos tratan de encontrar para realizar sus anlisis.
Cuando los datos originales no muestran una distribucin normal, los estadsticos
transforman los valores de la muestra por otros.
Por ejemplo, pueden transformar los datos originales en sus logaritmos naturales
y comprobar si la nueva distribucin se acerca ms a la normal que la anterior.
Ese procedimiento ser usado por nosotros en un apartado prximo.
Mientras tanto, nos familiarizaremos con lo que significado de Valor Esperado.
3.1.17. Valor Esperado de una variable Aleatoria Discreta
Se calcula, multiplicando cada valor que la variable pueda tomar, por la
probabilidad de que ese valor se presente; al final, sumamos total de estos
resultados parciales.
Construiremos un cuadro del Valor Esperado de la variable discreta Nmero de
Pacientes; con ese objeto, tomamos los valores de la tabla 4.7 y estructuramos la
tabla 4.9.
El Valor Esperado de la Variable aleatoria nmero de pacientes atendidos
diariamente durante una muestra de cien das es 108.20.
Tabla 7: Atenciones

22

Este resultado quiere decir que la clnica, en circunstancias normales, esperar


atender un promedio de 108.20 pacientes por da.
Otro ejemplo; en la tabla 4.10 anotamos la probabilidad para cada venta diaria de
fruta
Tabla 8: Ventas durante 100 das

La probabilidad de cada venta diaria se obtiene dividiendo el nmero de das que


se vendi esa cantidad entre 100, que es el total de das que se observ los niveles
de ventas.

23

4.
CAPTULO IV: CONCLUSIONES
PRIMERA: Las aplicaciones de la probabilidad son diversas y se basan en la unidad
como fundamento para aplicar sus frmulas, parte de la unidad y la
diferencia de ella frente a un valor arbitrario para realizar los clculos.

SEGUNDA: Las aplicaciones ms comunes de la probabilidad se basan en el clculo,


se usa extensamente en reas como la estadstica, la fsica, la matemtica,
las ciencias y la filosofa para sacar conclusiones sobre la probabilidad
discreta de sucesos potenciales y la mecnica subyacente discreta de
sistemas complejos, por lo tanto es la rama de las matemticas que
estudia, mide o determina a los experimentos o fenmenos aleatorios.
TERCERA: La mayora de las investigaciones biomdicas utilizan muestras de
probabilidad, es decir, aquellas que el investigador pueda especificar la
probabilidad de cualquier elemento en la poblacin que investiga.

24

BIBLIOGRAFA

BERENSON, Mark y LEVINE David. 1987 Estadstica para Administracin y

Economa. Interamericana.
BLANCO, Castaeda Liliana. 2004. "Probabilidad". Unibiblos. Universidad

Nacional de Colombia.
FELLER, William.1985. Introduccin a la Teora de Probabilidades y sus

Aplicaciones. Limusa. Mjico,


KENETT, Ron; SHELEMYAHU, Zacks. 2000. Estadstica Industrial Moderna.

International Thomson Editores. Mjico.


LOPES, Paulo Alfonso.1999 Probabilidad y Est adstica. Prentice-Hall. Bogot
MASON, Robert y LIND, Douglas.1995. Estadstica para Administracin y

Economa. Alfaomega, Mjico


MENDENHALL, William; SINCICH, Ferry.1997. Probabilidad y Estadstica para

Ingeniera y Ciencias. Prentice-Hall Hispanoamericana. Mjico.


MOOD, Alexander y GRAYBILL, Franklin. 1980. Introduccin a la Teora de la

Estadstica. Aguilar. Madrid


MUOZ, Quevedo Jos Mara, 2002. "Introduccin a la teora de Conjuntos".

Cuarta Edicin. Panamericana, formas e impresos S.A. P. L.


MEYER. 1992. Probabilidad y Aplicaciones Estadsticas.Adisson Wesley

Iberoamericana.
SCHEAFFER, Richard L.; Mc CLAVE, James T. 1993 Probabilidad y Estadstica

para Ingeniera. Grupo Editorial Iberoamericana. Mjico.


WALPOLE, R.E. y MEYER, R.H. 1990. Probabilidad y Estadstica para
Ingenieros. Interamericana. Mjico, YA LUN CHOU. Anlisis Estadstico.
Interamericana. Mjico,1985.

25

You might also like