Monografias.com > Sin categoría
Descargar Imprimir Comentar Ver trabajos relacionados

Introducción a las Probabilidades para carreras de ingeniería (página 2)



Partes: 1, 2, 3

Desarrollo

Fenómeno aleatorio: Son
aquellos fenómenos que se caracterizan porque su observación bajo un conjunto determinado de
condiciones, no siempre conduce a un mismo resultado, pero sucede
que sus posibles resultados ocurren con regularidad estadística al repetirse el fenómeno
un número grande de veces.

En la definición se destacan varios elementos que
son de suma importancia para la identificación de los
fenómenos aleatorios:

  • Son fenómenos que se repiten o pueden
    repetirse un número indeterminado de veces.
  • Es posible lograr las mismas condiciones en cada
    repetición(que puedan considerarse las
    mismas)
  • Presencia de la regularidad estadística en los
    resultados, esto es, que el número de ocurrencia de cada
    posible resultado se estabiliza a la larga alrededor de un
    valor.

Un ejemplo clásico y que ilustra lo anterior es
el lanzamiento de una moneda en donde si se repite el lanzamiento
un número grande de veces, aproximadamente se
obtendrá cara el 50% de las veces y escudo en el 50% de
las veces. Otro ejemplo clásico es el lanzamiento de un
dado.

Con el fin de referirse en términos generales a
los resultados de los fenómenos aleatorios o a un conjunto
de ellos se introducen los siguientes conceptos:

Punto muestral: cada uno de los
resultados posibles de un fenómeno aleatorio

Ej.:

Lanzamiento de una moneda: los puntos muestrales
serían dos; cara y escudo.

Lanzamiento de un dado: los puntos muestrales
serían seis; 1, 2, 3, 4, 5, 6.

Lanzamiento de dos dados: los puntos muestrales
serían todos los posibles pares de números (1,2);
(1,3); …; (6,6)

Espacio muestral: conjunto de todos
los resultados posibles del fenómeno aleatorio, o
también conjunto de todos los puntos muestrales. Se
acostumbra denotarlo por la letra S. Ej:

  1. Lanzamiento de una moneda: S= {C;E}
  2. Lanzamiento de un dado: S=
    {1,2,3,4,5,6}
  3. Lanzamiento de dos dados: S=
    {(a,b)/a=1,…,6; b=1,…,6}
  4. Emisión de óxido de
    nitrógeno de un auto en gramos por milla

Evento o suceso aleatorio: suceso
que puede o no ocurrir al realizarse o tener lugar un
fenómeno aleatorio, en otras palabras, cualquier
subconjunto del espacio muestral S.

Se suelen denotar mediante las primeras letras de
nuestro alfabeto en Mayúsculas(A,B,C….). Ej:

1) Lanzamiento de una moneda

A: que salga cara al lanzar la moneda

A= {C}

2) Lanzamiento de un dado

A: que salga un # par al lanzar el dado

A= {2, 4, 6}

B: que salga un número mayor que 3

B= {4, 5, 6}

Como se puede observar es posible definir mas de un
evento en un espacio muestral. Los eventos y
espacios muestrales pueden representarse de diferentes formas
usando la notación de conjuntos
(descriptiva, tabular, constructiva). También se
representan frecuentemente mediante diagramas de
Venn.

Es oportuno precisar cuando un evento ocurre. Al ocurrir
un fenómeno aleatorio ello se manifiesta mediante la
ocurrencia de uno y solo uno de sus posibles resultados. Se
dice entonces que un evento ha ocurrido si ese resultado, o lo
que es lo mismo, ese punto muestral pertenece al
evento.

A los puntos muestrales también se les denomina
eventos simples y así es frecuente verlos en
diversas literaturas sobre el tema.

Si un evento ocurre siempre que se realice un
experimento de dice que es un evento cierto, o sea,
se produce de manera inevitable. Un evento cierto sería
S.

Si para toda observación del fenómeno
aleatorio un evento nunca ocurre se trata de un evento
imposible
.
No tiene puntos muestrales y se denota igual
que el conjunto nulo o vacío.

Algunos otros eventos que se trabajan con frecuencia
haciendo uso del álgebra de
eventos, es decir que se obtienen mediante operaciones entre
eventos simples se reseñan a
continuación.

Evento complemento: Dado un evento A, el
evento de que A no ocurra se le denomina complemento de A y se
denota por Ac o A'.

En el ejemplo del "Lanzamiento de un dado" referido
anteriormente se definió el evento A como "salga un
número par", de donde

Ac o A': salga un # impar al lanzar el
dado

Ac = {1, 3, 5}

Evento unión: Dados dos eventos A y
B, el evento de que al menos uno de los eventos A o B ocurran se
denomina A unión B y se denota por AUB

Volviendo al mismo ejemplo

AUB: salga un # par o un # mayor que 3 al lanzar el
dado.

AUB = {2, 4, 5, 6}

Evento intersección: Dados dos
eventos A y B, el evento ambos eventos A y B ocurran, se denomina
A intersección con B y se denota como (AB) o
(A.B).

(AB): salga un # par y mayor que 3 al lanzar un
dado.

(AB) = {4, 6}

Eventos mutuamente excluyentes: Dados dos
eventos A y B se dice que son mutuamente excluyentes si A y B no
tienen puntos muestrales comunes esto es A  B = .
En otras palabras la ocurrencia de uno implica la no ocurrencia
del otro.

C: salga el número tres al lanzar un dado, C = {3
}; entonces A y C son excluyentes

Eventos exhaustivos: Dados dos eventos A y
B se dice que A y B son exhaustivos si AUB =S

Grupo completo de eventos: Se denomina
grupo completo
de eventos o sucesos, a un conjunto de eventos mutuamente
excluyentes y exhaustivos definidos todos en el mismo espacio
muestral.

El concepto de
Evento Aleatorio es de extrema importancia en la teoría
de las probabilidades puesto que el propio concepto de
probabilidades esta indisolublemente asociado a
él.

Conocido todo lo anterior se está en condiciones
de definir y comprender el concepto fundamental, el de probabilidad.

Probabilidad: Es un valor
numérico, entre 0 y 1, que expresa la posibilidad real de
ocurrencia de un evento aleatorio.

Dado un evento A, la probabilidad de A suele denotarse
mediante P(A)

Si P(A)>P(B) el evento A debe ocurrir mas veces que
el B al repetirse un número grande de veces el
fenómeno aleatorio en que fueron definidos.

Si se obtienen o se conocen las probabilidades de cada
uno de los eventos de un grupo completo de eventos se dice que se
ha obtenido una distribución de probabilidad del
fenómeno aleatorio que se analiza.

Existen varias maneras de calcular la probabilidad de un
evento aleatorio las que comúnmente se les denominan
definiciones de probabilidad.

Definición clásica de
probabilidad:

Mediante esta definición la probabilidad de un
evento A se calcula como la relación entre el # de
resultados favorables al evento A [N(A)] y el # total de
resultados igualmente posibles N(S), esto es:

Donde:

N(A) tamaño de A o cantidad de puntos muestrales
que pertenecen a A

N(S) tamaño de S o cantidad de puntos muestrales
que pertenecen a S

Ejemplo del lanzamiento de un dado S= {1, 2, 3, 4, 5,
6}

A= {2, 4, 6} y B= {4, 5, 6}

=3/6=1/2=0,5

Significado del valor:

Si se lanza un dado sucesivamente, aproximadamente el 50
% de las veces se debe obtener un número par.

A.B= {4, 6} P(A.B) =

Significado del valor:

Si se lanza un dado sucesivamente, aproximadamente el 33
% de las veces se debe obtener un número par mayor que
tres.

Ejemplo:

Ei : que se obtenga el # i al lanzar un
dado

Los eventos E1, E2,…,
E6 forman un grupo completo de eventos y

P(E1)=1/6 P(E2)=1/6 …
P(E6)=1/6

por lo que se puede formar la siguiente
distribución de probabilidad para el número que se
obtiene al lanzar un dado no trucado:

x

1

2

3

4

5

6

P(x)

1/6

1/6

1/6

1/6

1/6

1/6

Analizando esta definición podemos llamar la
atención sobre dos limitaciones para
ser usadas:

1) S tiene que ser finito

2) S tiene que ser equiprobable.

Ventaja: Puede calcularse la probabilidad de un
evento sin tener que realizar u observar el fenómeno
aleatorio.

Observen también que de acuerdo a esta
definición la probabilidad es un valor numérico
perteneciente a (0,1) es decir 0  P(A)
1

Definición frecuencial de
probabilidad
:

Esta definición se sustenta en el concepto de
frecuencia relativa de un evento (fr)

Si el fenómeno aleatorio se repite un gran
número de veces, entonces:

fr(A)  P(A), esto es lim fr(A) = P(A)

n 

donde n : # de repeticiones

De otra manera, si el fenómeno aleatorio se
repite un número prolongado de veces, entonces la
probabilidad de un evento es la proporción de veces que el
evento sucede en esa serie prolongada de repeticiones del
experimento.

Limitaciones

1) hay que realizar u observar el fenómeno
aleatorio

2) se obtiene un valor aproximado de la
probabilidad

Ventajas

1) puede usarse en cualquier tipo de espacio
muestral.

También se puede concluir a partir de esta
definición que 0  P(A)  1

Esta manera de obtener la probabilidad, toda vez que se
requiere de la realización de un experimento un
número grande de veces, que por demás en la
práctica no puede ser infinito, es la que se utiliza para
obtener lo que denominamos distribución empírica de
probabilidad.

Definición Axiomática de la
probabilidad
:

Según esta definición, que sintetiza en
símbolos las conclusiones de las
anteriores, la probabilidad se define como una aplicación
tal que:

P: A  [ 0, 1 ]

A  P(A)

A : conjunto de todos los eventos posibles definidos en
S

Se establece una correspondencia entre el conjunto de
todos los posibles eventos de un espacio muestral S y el
intervalo [0, 1] de los números reales por lo cual a cada
evento A perteneciente a A , se asocia un valor del
intervalo [0, 1] el cual es llamado probabilidad de A.

La función P
satisface tres axiomas (propiedades de la
aplicación):

Axiomas

  • P(A)  0
  • P(S) = 1
  • P(A B) = P(A) + P(B) si A  B =

Basado en estos axiomas se pueden demostrar las
siguientes identidades:

  • P(Ac) = 1 – P(A)
  • P(A . Bc) = P(A) – P(A .
    B)
  • P(A  B) = P(A) + P(B) – P(A . B) si A y B son
    dos eventos cualesquiera

Esas demostraciones pueden ser estudiadas en la
mayoría de los libros
probabilidades.

Probabilidad
condicional.

Se conoce que en un espacio muestral determinado pueden
definirse un conjunto de eventos y hasta ahora solo había
interesado calcular la probabilidad de cualquiera de esos eventos
sin relacionarlos unos con otros; esto es, la probabilidad
absoluta de un evento. Sin embargo pudiera ser de interés
calcular la probabilidad de que ocurra un evento de cierto
espacio muestral S a la luz de que otro
evento de ese mismo espacio S ocurra.

Ejemplo:

Considérese que en la producción de ciertos ejes, la longitud es
una característica aleatoria con determinada
distribución de probabilidad. Son buenos los ejes cuya
longitud esté comprendida en el intervalo (1,2m; 1,5m);
pero los que tienen longitud inferior a 1,2m pueden utilizarse si
esta es mayor que un metro. Pudiera interesar conocer qué
porcentaje de los que son menores de 1,2 m son mayores que
1m.

En la situación planteada subyace la necesidad
del cálculo de
la probabilidad de un evento a la luz de que otro
ocurra:

– Que la longitud sea superior a 1 m dado que es menor
de 1,2

La probabilidad de un evento, calculada bajo el supuesto
de que otro ocurra se denomina "Probabilidad Condicional"
y juega un rol de suma importancia en la teoría de las
probabilidades. La introducción del concepto de probabilidad
condicional y su forma de cálculo, se realizará a
partir de la definición clásica de probabilidad, la
cual solo se puede aplicar en espacios finitos y equiprobables y
después se generalizará para cualquier tipo de
espacio muestral.

Sean A y B dos eventos definidos en el mismo espacio
muestral S, tal como se representa en el diagrama de
Venn siguiente:

Se puede calcular la probabilidad condicional del evento
A dado que ocurra el evento B la que se denota por
P(A/B).

Al expresarse oralmente la probabilidad condicional
(probabilidad de A dado que B ocurra), se da por seguro, que B
ocurre; por lo que el punto muestral que ocurre pertenece a B, de
ahí que estaremos obligados a considerar que bajo esta
condición el conjunto de todos los posibles resultados, es
el conjunto de puntos muestrales que pertenecen a B; entonces los
resultados favorables para que ocurra A, solo podrían ser
los de A.B, en símbolos:

P(A/B)=N(A.B)/N(B)

que sería una expresión de cálculo
de la probabilidad condicional sólo si S es finito y
equiprobable.

Basado en ella, se puede encontrar una expresión
para cualquier tipo de S: divídase para ello el numerador
y el denominador por N(S)

entonces:

que sería una expresión general pues
P(A.B) y P(B) se calcularían acorde a las exigencias de
S.

Definición de probabilidad
condicional
:

Sean A y B dos eventos definidos en un mismo espacio
muestral S donde P(B)>0; entonces la probabilidad condicional
de A dado B, que se denota por P(A/B) se define:

Ejemplo del lanzamiento de un dado

S={1,2,3,4,5,6}

A={2,4,6} B={4,5,6}

P(A.B)=N(A.B)/N(S)=2/6=1/3
P(B)=N(B)/N(S)=3/6=1/2

Interpretación del resultado: El 66 % de las
veces que se lance un dado y salga un número mayor que 3,
ese número será par.

En este caso se podía utilizar N(A.B)/N(B) ya que
el espacio es finito y equiprobable.

Como probabilidad que es, la probabilidad condicional
cumple con todos los axiomas y propiedades que se estudiaron en
la absoluta. En ocasiones, el cálculo de una probabilidad
condicional solo requiere de un simple análisis lógico de la
situación que se nos presenta.

Ejemplo:

Una caja contiene 8 piezas de las cuales 3 son
defectuosas. Se extraen 2 piezas aleatoriamente de la caja y se
desea calcular la probabilidad de que la segunda pieza
extraída sea defectuosa si la primera lo fue:

 

8 piezas

(3defectuosas)

En situaciones como esta se requiere conocer como se ha
extraído esta muestra de 2
piezas, ya que puede hacerse de dos formas
fundamentales.

  • Se extrae la primera, se analiza si es defectuosa o
    no, y se retorna a la caja antes de extraer la segunda;
    después se extrae la segunda y se verifica si es
    defectuosa o no, completando la información de la muestra de dos piezas
    extraídas. Si se hace de esta forma, se dice que se ha
    extraído una muestra de tamaño 2 con
    reemplazamiento o con reposición.
  • Se extrae la primera, se analiza si es defectuosa o
    no y no se retorna a la caja; después se extrae la
    segunda pieza verificando si es defectuosa o no, completando la
    muestra de tamaño dos. Cuando se toma la muestra de esta
    forma decimos que hemos extraído una muestra de
    tamaño dos sin reemplazamiento o sin
    reposición.

En definitiva, en el ejemplo se pueden definir dos
eventos:

D1: la primera pieza extraída sea
defectuosa

D2: la segunda pieza extraída sea
defectuosa

Para calcular P(D2/D1)

Apoyándose en el significado de la probabilidad
condicional, se parte del hecho de que D1 ocurra, por
tanto al extraer la segunda pieza se conocerá la
composición de piezas que tendrá la caja

8 piezas

(3 defectuosas)

 

P(D2/D1)=3/8

7 piezas

(2 defectuosas)

 

P(D2/D1)=2/7

Con reposición

 

Sin reposición

 

Significado del valor (sin
reposición)

Al realizar en sucesivas ocasiones la extracción
de dos piezas sin reposición de la caja, aproximadamente
en el 28 % de las ocasiones en que la primera pieza sea
defectuosa, la segunda también lo será.

Como se puede observar, con la definición de
eventos dada se pudo determinar la probabilidad condicional con
mucha facilidad y precisamente apoyándose en esto se
proporcionan algunas fórmulas que nos facilitan el
cálculo de probabilidades más complejas. Estas
son:

Fórmula o Regla de la
multiplicación
.- Se utiliza cuando se requiere
calcular la probabilidad de una intersección de dos o
más eventos. La expresión se obtiene de despejar la
probabilidad de la intersección de la expresión de
cálculo de la probabilidad condicional, esto
es:

P(A.B)=P(A/B)P(B) si P(A) > 0

=P(B/A)P(A) si P(B) > 0

El uso de esta expresión es recomendable cuando
se conocen o son de fácil cálculo las
probabilidades que se multiplican, usando una expresión u
otra de acuerdo a las probabilidades conocidas, su
generalización para la intersección de n eventos
sería

P(A1.A2…An)=P(A1)P(A2/A1)P(A3/A1.A2)…P(An/A1.A2…An-1)

Si en el ejemplo anterior se desea calcular la
probabilidad de que ambas piezas extraídas sean
defectuosas se plantea:

P(D1.D2)=P(D1)P(D2/D1)=(3/8)(2/7)=
3/28 (sin reposición)

Si dos eventos fueran independientes, es
decir, si la ocurrencia de uno no influye en la ocurrencia o no
ocurrencia del otro, en notación de probabilidad para los
eventos A y B se plantea:

P(A/B) = P(A) y P(B/A) = P(B)

Entonces el teorema de la multiplicación cuando
los eventos son independientes queda:

P(A.B) = P(A)P(B)

Regla de probabilidad total.- La
situación en la cual se aplica esta regla se presenta en
el siguiente esquema:

Se puede plantear:

B = (B.A1 ) U (B.A2) U
(B.A3) U (B.A4) ya que
(B.Ai).(B.Aj) =  para
ij

De ahí que P(B) = P(B.A1) +
P(B.A2) + P(B.A3) +
P(B.A4)

Y aplicando la regla de la multiplicación en cada
uno de las intersecciones, se tiene:

P(B) = P(A1)P(B/A1) +
P(A2)P(B/A2) +
P(A3)P(B/A3) +
P(A4)P(B/A4)

Que se conoce como Regla de la probabilidad
total.

Su planteamiento general sería:

Sean Ai (i=1…n); n eventos exhaustivos
y excluyentes definidos en un mismo S y B un evento definido
también en el mismo S, entonces:

Su aplicación es conveniente si se conocen o son
de fácil cálculo las P(Ai) y
P(B/Ai)

De la aplicación de estas dos fórmulas se
obtiene la denominada Fórmula de Bayes también muy
utilizada en el cálculo de probabilidades
condicionales.

Esperanza matemática.

Otro concepto importante de las probabilidades es el de
Esperanza Matemática, el cual se define como
sigue:

Si las probabilidades de obtener las cantidades
a1, a2, …, ak son
p1, p2,…, pk,
respectivamente, entonces la esperanza matemática
es:

E = a1p1 +
a2p2 + … +
akpk

La esperanza matemática se interpreta como un
promedio

Ya se han visto varios ejemplos de fenómenos
aleatorios, en los cuales con el fin de estudiarlos, se han
tenido que analizar sus puntos muestrales y definir eventos, a
partir de los cuales se le da solución al problema, en
ocasiones pueden conllevar dificultades mayores en dependencia de
la complejidad del fenómeno aleatorio
analizado.

Se pudo constatar a su vez, que en la gran
mayoría de los fenómenos vistos, los puntos
muestrales se expresaban con números reales; tal es el
caso del "Lanzamiento de un dado" cuyos puntos muestrales son: 1;
2…..6 .etc. Sobre la base de esa característica se
introducirán nuevos conceptos que nos permitirán
abordar los fenómenos aleatorios con un nuevo
enfoque.

Variable aleatoria:

Para introducir el concepto de variable aleatoria se
utilizará el ejemplo del lanzamiento de dos monedas
representando sus puntos muestrales, escudo () y estrella
(), por los símbolos señalados.

Observar que es posible referirse a esos mismos puntos
muestrales, definiendo una variable X que "mida" la cantidad
de estrellas que se obtienen al lanzar dos monedas

A cada punto muestral es posible asociarle un valor de
la variable X:

 X tomaría el valor 0

 X " " " 1

 X " " " 1

 X " " " 2

y sobre la base de la variable X definida, que toma esos
valores de
manera aleatoria, puede expresarse el espacio muestral S
como:

S={x  x=0,1,2}

Precisamente a esa X se le denomina "variable aleatoria"
y se define como:

Definición:

Una variable aleatoria es una
función que asocia un valor numérico real a cada
resultado de un fenómeno aleatorio.

Observar como mediante la utilización del
concepto de variable aleatoria se puede expresar de una manera
más simple a los eventos:

* A: que al menos se obtenga una estrella _
A={X1}

* B: que exactamente se obtengan dos estrellas _
B={X=2}

* C: que a lo sumo se obtenga una estrella _ C=
{X  1}

La representación de cualquier evento siempre
vendrá dada por un conjunto de números reales y
ello hará mucho más fácil las operaciones
entre los mismos. Ejemplo:

A(X1) B(X=2) y entonces (A.B)
(X=2); ya que 2 es el único número que
tanto pertenece a A como a B

Aunque el concepto de variable aleatoria se ha explicado
sobre la base de un fenómeno aleatorio cuyo espacio
muestral es finito; este concepto también es válido
para S infinitos, por ejemplo:

X: "Cantidad de personas que llegan a una cola en un
tiempo
t"

Sus posibles valores serían X =0,1,
2….(infinito numerable)

Y: "Tiempo de trabajo sin
fallo de cierto equipo"

Sus posibles valores Y  0 (infinito no
numerable)

De los ejemplos podemos distinguir dos tipos de variables
aleatorias: discretas y continuas.

Variable Aleatoria Discreta: Aquella que
toma determinados valores; toma valores aislados, a
saltos.

Ejemplos de este tipo de variable aleatoria son las
variables definidas "cantidad de estrellas obtenidas al lanzar
dos monedas" y "cantidad de personas que llegan a una cola en un
tiempo t"

Variable Aleatoria Continua: Aquella que
toma todos los valores en
un intervalo dado.

Un ejemplo de ellas es el definido anteriormente como
"tiempo de trabajo sin fallo de cierto equipo"

Las variables aleatorias se acostumbran a denotar
mediante las últimas letras de nuestro alfabeto en
mayúscula (X, Y, Z, etc) y para referirse a sus posibles
valores se utilizan las minúsculas correspondientes:
X=x1; x2; x3; se entiende como
que la variable aleatoria X toma los valores x1,
x2 y x3

De inmediato centraremos nuestra atención en las
variables aleatorias discretas (v.a.d.).

El objetivo
central al estudiar los fenómenos aleatorios es conocer
las probabilidades de ocurrencia de diferentes eventos en
él definidos; resulta de interés entonces
determinar o conocer el comportamiento
probabilístico de las variables aleatorias que se definan
para estudiar esos fenómenos; en otras palabras no tiene
sentido conocer sólo los valores que puede tomar una v.a,
sino que, unido a ello es imprescindible conocer las
probabilidades con que la v.a.d. toma cada uno de sus posibles
valores, o conjunto de sus valores.

En el caso del ejemplo del lanzamiento de dos monedas
para el cual se definió la variable X: "cantidad de
estrellas que se obtienen al hacer el lanzamiento de dos monedas"
se puede determinar la probabilidad de ocurrencia de cada uno de
sus posibles valores:

Probabilidad de ocurrencia

 1/2 * 1/2 =1/4 P(X=0)=1/4

 1/2 * 1/2 =1/4

 1/2 * 1/2 =1/4

 1/2 * 1/2 =1/4 P(X=2)=1/4

Observe que los eventos (X=0); (X=1) y (X=2) forman para
este experimento un "grupo completo de eventos" y por
consiguiente, al obtener las probabilidades de esos eventos, se
ha obtenido una "distribución de
probabilidad
" del referido fenómeno.
Específicamente, este tipo de distribución de
probabilidad asociada a variable aleatoria discreta recibe el
nombre de "Función de Probabilidad".

Función de
probabilidad:

Sea X una variable aleatoria discreta y sea f una
función de R en el conjunto cerrado [0,1], subconjunto de
R; entonces la función de probabilidad se
define:

f: R  [0,1]

X  f(x) y la misma cumple con las siguientes
propiedades

1) f(x)0 xR

2) f (x)=1 xR

En otras palabras; es una función f(x) que asocia
una probabilidad a cada valor de la variable
aleatoria.

f(x)=P(X=x)

La función de probabilidad de la variable que se
está estudiando: (X: "# de estrellas al lanzar dos
monedas") puede expresarse como:

X

0

1

2

f(x)

1/4

1/2

1/4

Comprobando si cumple las propiedades:

1. f(x)0 ==> f(0)=P(X=0)=1/4 >0

f(1)=P(X=1)=1/ 2 >0

f(2)=P(X=2)=1/4 >0 entonces se cumple

2. f(x)=1

Conociendo la función de probabilidad de una
variable aleatoria se puede calcular la probabilidad de cualquier
evento que se defina asociado al fenómeno que se
estudia.

Ejemplo

A: al menos se obtenga una estrella
[A(X1)]

P(A)=P(X1)=P(X=1)+P(X=2)=f(1)+f(2)=1/2+1/4=3/4

D: no se obtengan estrellas
P(D)=P(X=0)=f(0)=1/4

La representación gráfica de una
función de probabilidad en realidad son puntos en el
plano, pero para lograr una más rápida y mejor
visión del comportamiento de la v.a se acostumbra a
utilizar barras verticales.

Se utiliza también con frecuencia para expresar
el comportamiento de las variables aleatorias otra
distribución de probabilidad, esta distribución de
probabilidad se denomina " Función de distribución
acumulada".

Función de distribución acumulada
(Fx(t)):

Esta función se denota como Fx(t) y es una
función tal que Fx(t)=P(X t)
tR

La Fx(t) en variables aleatorias discretas se obtiene a
partir de la función de probabilidad mediante Fx(t) =
f(x) para toda x  t

La Fx(t) del ejemplo que se viene desarrollando
sería

Fx(0) = P(X  0) = P(X=0) = ¼

Fx(1) = P(X  1) = P(X=0) + P(X=1) =
¾

Fx(2) = P(X  2) = P(X=0) + P(X=1) + P(X=2) =
1

x

0

1

2

F(x)

¼

¾

1

Con esta función se puede calcular P(X=1) de la
siguiente forma:

P(X=1) = P(X  1) – P(X  0) = Fx(1) –
Fx(0) = ¾ – ¼ = ½.

Algunas características numéricas
de las distribuciones de probabilidad

Las distribuciones de probabilidad proporcionan una
información completa sobre el comportamiento aleatorio de
una variable aleatoria, pero sobre la base de ese comportamiento
es posible definir y calcular, algunos valores numéricos
capaces de resumir las características generales del
fenómeno aleatorio que se estudia a partir de esa variable
aleatoria. Uno de esos valores es el valor esperado
de una variable aleatoria.

El valor esperado de una variable
aleatoria, también denominado valor medio, no es
más que la esperanza matemática de la misma, y es
una medida de localización de la distribución, en
otras palabras, informa sobre alrededor de que valor se mueven
los valores de la variable aleatoria; por ello se dice que es una
medida de tendencia central.

A partir del concepto de esperanza matemática
definido anteriormente se puede decir que el valor esperado,
denotado por E (X) o )
, se calcula en el caso de las
variables discretas como:

La esperanza matemática o valor esperado se
interpreta promedio. En el ejemplo que se viene desarrollando
sería:

E(x) =  x f(x) = 0 f(0) + 1f(1) + 2f(2) = 0 *
¼ + 1 * ½ + 2 * ¼ = 1

Interpretación: Como promedio esta variable
tomará valor 1

De modo general esta característica
numérica siempre tiene que tomar un valor comprendido en
el rango de valores de la variable y las siguientes son algunas
de sus propiedades:

E(c) = c;

E(c X)= c E(X);

E(X +Y) = E(X) +E(Y)

Este valor por si solo no brinda toda la
información sobre el comportamiento de la variable
aleatoria; conviene saber además si ese valor promedio
representa adecuadamente al conjunto de valores de la variable,
es decir, si es un promedio de valores cercanos uno de otro, o si
por el contrario logrado mediante valores alejados unos de
otros.

Esa información la brinda la varianza, que una la
medida de variación o dispersión en torno al valor
esperado y la definimos como

V(X) = E [ ( X – E( x )2]

La varianza nos informa cuan concentrados o dispersos
están los valores de la variable aleatoria alrededor de la
media o valor esperado.

Si V( X1 ) < V ( X2 ) hay mayor
concentración en los valores de la variable X1
que en los valores de la variable X2

Por lo tanto si realmente se tiene una variable entonces
el valor de la varianza tendrá siempre que ser mayor que 0
[V(X)0] y por supuesto V(c)= 0. Otras propiedades
son:

V(cX)= c2V(X);

V(X+Y)= V(X) + V(Y) si los valores que tome X no hacen
variar las probabilidades de ocurrencia de los valores de Y, es
decir, si X y Y son independientes.

Distribuciones más
utilizadas.

En el campo de la ingeniería hay que enfrentarse con
frecuencia a fenómenos aleatorios que para su estudio es
necesario definir variables aleatorias, que aunque distintas,
presentan una misma base teórica. Ocurre así en
casos tales como:

  • Cantidad de piezas defectuosas en una
    muestra
  • # de dispositivos que funcionan en un instante dado
    de 5 instalados
  • # de ejes cuyos diámetros cumplen con las
    especificaciones en una muestra, etc.

Nótese que se trata de distintas variables
aleatorias pero se puede señalar en ellas
características comunes

  1. Están conformadas por una sucesión de
    pruebas. En
    el primer caso la revisión de una pieza para concluir si
    está o no defectuosa es una prueba y ello se le hace a
    un grupo de piezas. En el segundo caso cada dispositivo
    revisado a fin de determinar si está funcionando o no
    constituye una prueba y ello se le hace a un grupo de
    dispositivos y algo similar se considera en el tercer
    caso.
  2. Otra característica común es
    que solo interesan dos resultados posibles en cada prueba,
    (defectuosa o no defectuosa); (funcionan o no funcionan);
    (cumplen especificaciones o no cumplen
    especificaciones)

Fenómenos aleatorios con estas
características suelen tener comportamientos
probabilísticos que se ajustan a la denominada
distribución Binomial y las pruebas de que constan
son llamadas pruebas Bernoulli

Pruebas Bernoulli:

Se trata de una prueba o experimento en la cual se
presentan solo dos posible resultados, a los cuales se les
denominan por convenio éxito y
fracaso.

Prueba Bernolli éxito

fracaso

Si se define una variable aleatoria X tal
que:

X=0 si ocurre el fracaso

X=1 si ocurre el éxito

y P(X=1)=p ; P(X=0)=q siendo q =1-p

entonces:

Si se analiza la ocurrencia de una sucesión de
pruebas de este tipo de manera independiente, por ejemplo el caso
de 3 pruebas independientes Bernoulli, se puede
definir:

A: en la primera ocurra éxito y en las otras
fracaso

P(A)=pqq

B: ocurra exactamente un éxito

entonces: P(B) = pqq +
qpq + qqp = 3pq²

Generalizando:

Distribución
Binomial

Sea X una variable aleatoria discreta que expresa "# de
éxitos en n pruebas independientes Bernoulli", entonces X
tendrá una distribución binomial si su
función de probabilidad viene dada por

Ya que X es # de éxitos en n pruebas
independientes Bernoulli, entonces

Siendo las Xi variables Bernoulli que
sólo toman los valores 0 y 1; de donde

E(X) =
E(X1+X2+…+Xn) =
E(X1) + E(X2) + … + E(Xn)
= p + p + … + p = np

E(X) = np

De una manera similar se llega a la conclusión de
que V(x) = 2 = npq

Resumiendo, si en un fenómeno aleatorio se
presentan las siguientes características:

  1. Sucesión de pruebas Bernoulli
  2. Las pruebas son independientes
  3. La probabilidad de éxito es la misma
    en cada prueba

Entonces la variable aleatoria X "número de
éxitos en n pruebas independientes Bernoulli" se
distribuye Binomial X  b(n, p), donde n y p son los
parámetros de la distribución:

n: # total de pruebas (tamaño de la
muestra)

p: probabilidad de que ocurra el éxito en una
prueba cualquiera

Para referirse a la distribución acumulada en
símbolos, se usa la misma notación pero con
mayúscula, en este caso de la Binomial sería B(x;
n; p) y esa notación expresa la probabilidad acumulada
hasta x (P(Xx)).

Ejemplo

Se conoce por datos
históricos que la probabilidad de que la pieza A producida
en cierto taller sea defectuosa es 0,05. Para analizar la
calidad de un
lote grande de estas piezas se toma al azar una muestra de 10
piezas del mismo y si en ella al menos 2 piezas son defectuosas
se rechaza el lote completo.

  1. Calcule la probabilidad de que un lote sea
    rechazado.
  2. Como promedio, ¿cuántas
    piezas buenas deben encontrarse en muestras de 10
    piezas?
  3. Calcule la probabilidad de que en la
    muestra se encuentren más de 6 piezas
    buenas.

Solución:

a) X: # de piezas defectuosas en la muestra
(éxitos = piezas defectuosas)

por tanto p = 0,05 y n = 10, es decir X  b(10;
0,05)

P(X  2) = 0,0861

(existen tablas de la distribución binomial para
distintos valores de sus parámetros que proporcionan
probabilidades de cada valor o acumuladas)

b) se trata de otra variable aleatoria,

Y: # de piezas buenas en la muestra

Donde Y  b(10; 0,95)

E(Y) = np = 100,95 = 9,5; como promedio se
encontrarán 9,5 piezas buenas en muestras de 10
piezas.

c) Se continua con Y pero p > 0,5 y las tablas no
suelen traer valores de p superiores a 0,50, pero sucede
que

(Y > 6)  (X < 4) y consecuentemente P(Y
> 6) = P(X < 4) =1- P(X ≥ 4) = 0,999

Distribución
Poisson.

La distribución Binomial es un modelo
probabilístico apropiado cuando se tiene la ocurrencia de
ciertos sucesos (éxitos) en una sucesión de pruebas
independientes Bernoulli. Sin embargo se presentan en la
práctica en general y en el campo de la ingeniería
en particular otro tipo de fenómenos aleatorios en los que
el interés también es el estudio del comportamiento
de las ocurrencias de cierto suceso (que en ocasiones se les
denominan también éxitos); pero en este caso se
trata de ocurrencias en instantes aleatorios de un período
de tiempo determinado.

Por ejemplo:

  • # de fallas de un equipo en un período de
    tiempo determinado
  • # de consumidores que arriban a un servicentro en un
    período de tiempo determinado.
  • # de llamadas telefónicas recibidas en una
    central en un período de tiempo determinado,
    etc.

Este tipo de fenómeno, como puede apreciarse de
los ejemplos anteriores y de otros que se pudieran mencionar;
pueden presentarse en diversos campos de las ciencias
técnicas: Una distribución de
probabilidad asociada a este tipo de fenómeno, denominada
Distribución Poisson se presenta en esta
unidad.

Retomando los ejemplos podemos observar que aunque se
trata de sucesos diferentes (fallas de equipo, arribo de
consumidores, llamadas telefónicas); se puede de manera
genérica caracterizarlos como Flujo de sucesos.

Flujo de sucesos:

Se llama así a la sucesión de sucesos que
ocurren en instantes aleatorios de tiempo.

El flujo de sucesos puede presentar diversas
propiedades, entre las cuales se distinguen:

– Calidad de estacionario: se manifiesta en el
hecho de que "la probabilidad de que ocurran k sucesos en
cualquier intervalo de tiempo depende solamente del número
k y de la duración t del intervalo"; suponiéndose
los intervalos excluyentes.

P(X=k)=f(k;t)

Por ejemplo, las probabilidades de que ocurran k sucesos
en los intervalos de tiempo [1,6] ; [10,15] ; [t,t+5] de igual
duración t=5 unidades son iguales entre
sí.

– Ausencia de efecto posterior: Se manifiesta en
que "la probabilidad de que ocurran k sucesos en cualquier
intervalo de tiempo no depende de que hayan ocurrido sucesos en
intervalos que le preceden", es decir, no existe influencia de lo
pasado en el presente, en símbolos:

P(X=k A) = P(X=k)

Siendo A cualquier hipótesis de ocurrencias de sucesos antes
del intervaloanalizado

– Calidad de ordinario: Se manifiesta en que es
prácticamente imposible la ocurrencia de dos o más
sucesos en un intervalo de tiempo pequeño.

P(X  2)=0 si t = t

Flujo de sucesos o Proceso
Poisson:

Aquel flujo de sucesos que posea las tres propiedades
antes explicadas se le denomina "flujo elemental de sucesos" o
también "proceso de Poisson".

Al número medio de ocurrencias del suceso por
unidad de tiempo se le llama "Intensidad de flujo".

No resulta fácil determinar cuando un flujo de
sucesos presenta esas tres propiedades

Para obtener la expresión analítica de la
distribución Poisson {f(x)} es posible apoyarse en la
distribución Binomial y el cumplimiento de esas 3
propiedades.

Considérese la variable aleatoria

X: # de ocurrencias de cierto suceso en un intervalo de
tiempo de duración t

Analice el intervalo de tiempo considerado

 * ** * *** * **

0 t

Los asteriscos indican los instantes aleatorios en que
ocurre el suceso.

Se divide el intervalo de duración t en n
sub-intervalos iguales de duración t =
t/n

tal que se cumpla que:

1. La probabilidad de que ocurra el suceso en un
sub-intervalo cualquiera t es proporcional a éste;
es decir, es igual a  t, donde  es una
constante (>0).

(De esta forma se garantiza la propiedad de
ser estacionario)

2. La ocurrencia o no del suceso en un sub-intervalo
t es independiente de la ocurrencia o no del otro suceso
en otro sub-intervalo t cualquiera.

(Se garantiza con esto la propiedad de ausencia de
efecto posterior)

3. La probabilidad de que ocurra el suceso más de
una vez en un mismo sub-intervalo t es despreciable
respecto a la probabilidad de que ocurra una vez (ocurre el
suceso en t o no ocurre)

(Se garantiza así la propiedad de
ordinario)

Observe como bajo los supuestos hechos se puede
considerar que estamos en presencia de una sucesión de n
pruebas independientes Bernoulli (las n pruebas serían los
n subintervalos de duración t en cada uno de los
cuales ocurre el suceso o no ocurre el suceso (éxito o
fracaso) y la probabilidad de que ocurra el suceso es igual para
cualquier sub-intervalo

(p = t= t/n)

Por lo que aplicando la distribución Binomial y
por supuesto de manera aproximada, ya que las consideraciones
hechas serán en mayor medida válidas cuando n se
haga tan grande como se quiera; se puede llegar a hallar
f(x)=P(X=x):

 

Se hace  = t tendremos

Hallando el límite de esa expresión cuando
n  nos conduce a la función de probabilidad
Poisson que buscamos.

Distribución
Poisson.-

Sea la variable aleatoria discreta X que expresa, "# de
ocurrencia de cierto suceso en un intervalo de duración
t"; si dicha variable aleatoria tiene por función de
probabilidad la expresión:

para x
= 0, 1, 2, …

Entonces, se dice que X sigue una distribución
Poisson de probabilidad con parámetro  = 
t.

: # medio de ocurrencias del suceso en el
intervalo de duración t.

: # medio de ocurrencias del suceso por unidad
de tiempo (intensidad de flujo).

t: duración del intervalo.

Puede demostrarse que:

E(X) = V(X) = 

Aunque la mayoría de las aplicaciones de la
distribución Poisson están relacionadas con la
ocurrencias de sucesos en un intervalo de tiempo, también
esta distribución constituye un modelo
probabilístico apropiado para las ocurrencias de sucesos
en un espacio determinado (ya sea longitud, área, o
volumen).

Ejemplos:

# de defectos en una superficie dada

# de bacterias en
un volumen dado

# de defectos en una longitud dada

El cálculo de probabilidades con esta
distribución también se realiza mediante
tablas.

Ejemplo:

Una computadora
digital funciona las 24 horas del día y sufre
interrupciones a razón de 0.25 interrupciones/h. El
número de interrupciones en cualquier período de
tiempo sigue una distribución Poisson.

a) ¿Cuál es la probabilidad de que durante
16 h sufra entre 2 y 4 interrupciones (ambos valores
inclusive)?

b) ¿Cuál es el promedio de interrupciones
que sufre la computadora
por día de trabajo?

Solución.

a) X: # de interrupciones de la computadora en 16
h

 = 0.25 interrupciones/h.

t =16h  = 0.2516 = 4 interrupciones en
16h.

X ~ P(=4)

P(2  X  4)= P(X ≥ 2)-P(X ≥ 5)=
0,9084 – 0.3712= 0.5372 (se utilizó una tabla
que brinda P[X≥x])

Al interpretar el resultado se puede decir que
"aproximadamente en el 54 % de los intervalos de 16 horas de
funcionamiento de la computadora, ésta sufrirá
entre 2 y 4 interrupciones"

b) Y: # de interrupciones en 24 h.

E(Y)=  =  t = 0.2524 = 6
interrupciones

Como promedio, la computadora sufrirá 6
interrupciones por día de trabajo.

Partes: 1, 2, 3
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter