Introducción a las Probabilidades para carreras de ingeniería (página 2)
Enviado por Regla Lamar Meneses
Desarrollo
Fenómeno aleatorio: Son aquellos fenómenos que se caracterizan porque su observación bajo un conjunto determinado de condiciones, no siempre conduce a un mismo resultado, pero sucede que sus posibles resultados ocurren con regularidad estadística al repetirse el fenómeno un número grande de veces.
En la definición se destacan varios elementos que son de suma importancia para la identificación de los fenómenos aleatorios:
- Son fenómenos que se repiten o pueden repetirse un número indeterminado de veces.
- Es posible lograr las mismas condiciones en cada repetición(que puedan considerarse las mismas)
- Presencia de la regularidad estadística en los resultados, esto es, que el número de ocurrencia de cada posible resultado se estabiliza a la larga alrededor de un valor.
Un ejemplo clásico y que ilustra lo anterior es el lanzamiento de una moneda en donde si se repite el lanzamiento un número grande de veces, aproximadamente se obtendrá cara el 50% de las veces y escudo en el 50% de las veces. Otro ejemplo clásico es el lanzamiento de un dado.
Con el fin de referirse en términos generales a los resultados de los fenómenos aleatorios o a un conjunto de ellos se introducen los siguientes conceptos:
Punto muestral: cada uno de los resultados posibles de un fenómeno aleatorio
Ej.:
Lanzamiento de una moneda: los puntos muestrales serían dos; cara y escudo.
Lanzamiento de un dado: los puntos muestrales serían seis; 1, 2, 3, 4, 5, 6.
Lanzamiento de dos dados: los puntos muestrales serían todos los posibles pares de números (1,2); (1,3); …; (6,6)
Espacio muestral: conjunto de todos los resultados posibles del fenómeno aleatorio, o también conjunto de todos los puntos muestrales. Se acostumbra denotarlo por la letra S. Ej:
- Lanzamiento de una moneda: S= {C;E}
- Lanzamiento de un dado: S= {1,2,3,4,5,6}
- Lanzamiento de dos dados: S= {(a,b)/a=1,…,6; b=1,…,6}
- Emisión de óxido de nitrógeno de un auto en gramos por milla
Evento o suceso aleatorio: suceso que puede o no ocurrir al realizarse o tener lugar un fenómeno aleatorio, en otras palabras, cualquier subconjunto del espacio muestral S.
Se suelen denotar mediante las primeras letras de nuestro alfabeto en Mayúsculas(A,B,C….). Ej:
1) Lanzamiento de una moneda
A: que salga cara al lanzar la moneda
A= {C}
2) Lanzamiento de un dado
A: que salga un # par al lanzar el dado
A= {2, 4, 6}
B: que salga un número mayor que 3
B= {4, 5, 6}
Como se puede observar es posible definir mas de un evento en un espacio muestral. Los eventos y espacios muestrales pueden representarse de diferentes formas usando la notación de conjuntos (descriptiva, tabular, constructiva). También se representan frecuentemente mediante diagramas de Venn.
Es oportuno precisar cuando un evento ocurre. Al ocurrir un fenómeno aleatorio ello se manifiesta mediante la ocurrencia de uno y solo uno de sus posibles resultados. Se dice entonces que un evento ha ocurrido si ese resultado, o lo que es lo mismo, ese punto muestral pertenece al evento.
A los puntos muestrales también se les denomina eventos simples y así es frecuente verlos en diversas literaturas sobre el tema.
Si un evento ocurre siempre que se realice un experimento de dice que es un evento cierto, o sea, se produce de manera inevitable. Un evento cierto sería S.
Si para toda observación del fenómeno aleatorio un evento nunca ocurre se trata de un evento imposible. No tiene puntos muestrales y se denota igual que el conjunto nulo o vacío.
Algunos otros eventos que se trabajan con frecuencia haciendo uso del álgebra de eventos, es decir que se obtienen mediante operaciones entre eventos simples se reseñan a continuación.
Evento complemento: Dado un evento A, el evento de que A no ocurra se le denomina complemento de A y se denota por Ac o A'.
En el ejemplo del "Lanzamiento de un dado" referido anteriormente se definió el evento A como "salga un número par", de donde
Ac o A': salga un # impar al lanzar el dado
Ac = {1, 3, 5}
Evento unión: Dados dos eventos A y B, el evento de que al menos uno de los eventos A o B ocurran se denomina A unión B y se denota por AUB
Volviendo al mismo ejemplo
AUB: salga un # par o un # mayor que 3 al lanzar el dado.
AUB = {2, 4, 5, 6}
Evento intersección: Dados dos eventos A y B, el evento ambos eventos A y B ocurran, se denomina A intersección con B y se denota como (AB) o (A.B).
(AB): salga un # par y mayor que 3 al lanzar un dado.
(AB) = {4, 6}
Eventos mutuamente excluyentes: Dados dos eventos A y B se dice que son mutuamente excluyentes si A y B no tienen puntos muestrales comunes esto es A B = . En otras palabras la ocurrencia de uno implica la no ocurrencia del otro.
C: salga el número tres al lanzar un dado, C = {3 }; entonces A y C son excluyentes
Eventos exhaustivos: Dados dos eventos A y B se dice que A y B son exhaustivos si AUB =S
Grupo completo de eventos: Se denomina grupo completo de eventos o sucesos, a un conjunto de eventos mutuamente excluyentes y exhaustivos definidos todos en el mismo espacio muestral.
El concepto de Evento Aleatorio es de extrema importancia en la teoría de las probabilidades puesto que el propio concepto de probabilidades esta indisolublemente asociado a él.
Conocido todo lo anterior se está en condiciones de definir y comprender el concepto fundamental, el de probabilidad.
Probabilidad: Es un valor numérico, entre 0 y 1, que expresa la posibilidad real de ocurrencia de un evento aleatorio.
Dado un evento A, la probabilidad de A suele denotarse mediante P(A)
Si P(A)>P(B) el evento A debe ocurrir mas veces que el B al repetirse un número grande de veces el fenómeno aleatorio en que fueron definidos.
Si se obtienen o se conocen las probabilidades de cada uno de los eventos de un grupo completo de eventos se dice que se ha obtenido una distribución de probabilidad del fenómeno aleatorio que se analiza.
Existen varias maneras de calcular la probabilidad de un evento aleatorio las que comúnmente se les denominan definiciones de probabilidad.
Definición clásica de probabilidad:
Mediante esta definición la probabilidad de un evento A se calcula como la relación entre el # de resultados favorables al evento A [N(A)] y el # total de resultados igualmente posibles N(S), esto es:
Donde:
N(A) tamaño de A o cantidad de puntos muestrales que pertenecen a A
N(S) tamaño de S o cantidad de puntos muestrales que pertenecen a S
Ejemplo del lanzamiento de un dado S= {1, 2, 3, 4, 5, 6}
A= {2, 4, 6} y B= {4, 5, 6}
=3/6=1/2=0,5
Significado del valor:
Si se lanza un dado sucesivamente, aproximadamente el 50 % de las veces se debe obtener un número par.
A.B= {4, 6} P(A.B) =
Significado del valor:
Si se lanza un dado sucesivamente, aproximadamente el 33 % de las veces se debe obtener un número par mayor que tres.
Ejemplo:
Ei : que se obtenga el # i al lanzar un dado
Los eventos E1, E2,…, E6 forman un grupo completo de eventos y
P(E1)=1/6 P(E2)=1/6 … P(E6)=1/6
por lo que se puede formar la siguiente distribución de probabilidad para el número que se obtiene al lanzar un dado no trucado:
x | 1 | 2 | 3 | 4 | 5 | 6 |
P(x) | 1/6 | 1/6 | 1/6 | 1/6 | 1/6 | 1/6 |
Analizando esta definición podemos llamar la atención sobre dos limitaciones para ser usadas:
1) S tiene que ser finito
2) S tiene que ser equiprobable.
Ventaja: Puede calcularse la probabilidad de un evento sin tener que realizar u observar el fenómeno aleatorio.
Observen también que de acuerdo a esta definición la probabilidad es un valor numérico perteneciente a (0,1) es decir 0 P(A) 1
Definición frecuencial de probabilidad:
Esta definición se sustenta en el concepto de frecuencia relativa de un evento (fr)
Si el fenómeno aleatorio se repite un gran número de veces, entonces:
fr(A) P(A), esto es lim fr(A) = P(A)
n
donde n : # de repeticiones
De otra manera, si el fenómeno aleatorio se repite un número prolongado de veces, entonces la probabilidad de un evento es la proporción de veces que el evento sucede en esa serie prolongada de repeticiones del experimento.
– Limitaciones
1) hay que realizar u observar el fenómeno aleatorio
2) se obtiene un valor aproximado de la probabilidad
– Ventajas
1) puede usarse en cualquier tipo de espacio muestral.
También se puede concluir a partir de esta definición que 0 P(A) 1
Esta manera de obtener la probabilidad, toda vez que se requiere de la realización de un experimento un número grande de veces, que por demás en la práctica no puede ser infinito, es la que se utiliza para obtener lo que denominamos distribución empírica de probabilidad.
Definición Axiomática de la probabilidad:
Según esta definición, que sintetiza en símbolos las conclusiones de las anteriores, la probabilidad se define como una aplicación tal que:
P: A [ 0, 1 ]
A P(A)
A : conjunto de todos los eventos posibles definidos en S
Se establece una correspondencia entre el conjunto de todos los posibles eventos de un espacio muestral S y el intervalo [0, 1] de los números reales por lo cual a cada evento A perteneciente a A , se asocia un valor del intervalo [0, 1] el cual es llamado probabilidad de A.
La función P satisface tres axiomas (propiedades de la aplicación):
Axiomas
- P(A) 0
- P(S) = 1
- P(A B) = P(A) + P(B) si A B =
Basado en estos axiomas se pueden demostrar las siguientes identidades:
- P(Ac) = 1 – P(A)
- P(A . Bc) = P(A) – P(A . B)
- P(A B) = P(A) + P(B) – P(A . B) si A y B son dos eventos cualesquiera
Esas demostraciones pueden ser estudiadas en la mayoría de los libros probabilidades.
Probabilidad condicional.
Se conoce que en un espacio muestral determinado pueden definirse un conjunto de eventos y hasta ahora solo había interesado calcular la probabilidad de cualquiera de esos eventos sin relacionarlos unos con otros; esto es, la probabilidad absoluta de un evento. Sin embargo pudiera ser de interés calcular la probabilidad de que ocurra un evento de cierto espacio muestral S a la luz de que otro evento de ese mismo espacio S ocurra.
Ejemplo:
Considérese que en la producción de ciertos ejes, la longitud es una característica aleatoria con determinada distribución de probabilidad. Son buenos los ejes cuya longitud esté comprendida en el intervalo (1,2m; 1,5m); pero los que tienen longitud inferior a 1,2m pueden utilizarse si esta es mayor que un metro. Pudiera interesar conocer qué porcentaje de los que son menores de 1,2 m son mayores que 1m.
En la situación planteada subyace la necesidad del cálculo de la probabilidad de un evento a la luz de que otro ocurra:
– Que la longitud sea superior a 1 m dado que es menor de 1,2
La probabilidad de un evento, calculada bajo el supuesto de que otro ocurra se denomina "Probabilidad Condicional" y juega un rol de suma importancia en la teoría de las probabilidades. La introducción del concepto de probabilidad condicional y su forma de cálculo, se realizará a partir de la definición clásica de probabilidad, la cual solo se puede aplicar en espacios finitos y equiprobables y después se generalizará para cualquier tipo de espacio muestral.
Sean A y B dos eventos definidos en el mismo espacio muestral S, tal como se representa en el diagrama de Venn siguiente:
Se puede calcular la probabilidad condicional del evento A dado que ocurra el evento B la que se denota por P(A/B).
Al expresarse oralmente la probabilidad condicional (probabilidad de A dado que B ocurra), se da por seguro, que B ocurre; por lo que el punto muestral que ocurre pertenece a B, de ahí que estaremos obligados a considerar que bajo esta condición el conjunto de todos los posibles resultados, es el conjunto de puntos muestrales que pertenecen a B; entonces los resultados favorables para que ocurra A, solo podrían ser los de A.B, en símbolos:
P(A/B)=N(A.B)/N(B)
que sería una expresión de cálculo de la probabilidad condicional sólo si S es finito y equiprobable.
Basado en ella, se puede encontrar una expresión para cualquier tipo de S: divídase para ello el numerador y el denominador por N(S)
entonces:
que sería una expresión general pues P(A.B) y P(B) se calcularían acorde a las exigencias de S.
Definición de probabilidad condicional:
Sean A y B dos eventos definidos en un mismo espacio muestral S donde P(B)>0; entonces la probabilidad condicional de A dado B, que se denota por P(A/B) se define:
Ejemplo del lanzamiento de un dado
S={1,2,3,4,5,6}
A={2,4,6} B={4,5,6}
P(A.B)=N(A.B)/N(S)=2/6=1/3 P(B)=N(B)/N(S)=3/6=1/2
Interpretación del resultado: El 66 % de las veces que se lance un dado y salga un número mayor que 3, ese número será par.
En este caso se podía utilizar N(A.B)/N(B) ya que el espacio es finito y equiprobable.
Como probabilidad que es, la probabilidad condicional cumple con todos los axiomas y propiedades que se estudiaron en la absoluta. En ocasiones, el cálculo de una probabilidad condicional solo requiere de un simple análisis lógico de la situación que se nos presenta.
Ejemplo:
Una caja contiene 8 piezas de las cuales 3 son defectuosas. Se extraen 2 piezas aleatoriamente de la caja y se desea calcular la probabilidad de que la segunda pieza extraída sea defectuosa si la primera lo fue:
8 piezas (3defectuosas) |
En situaciones como esta se requiere conocer como se ha extraído esta muestra de 2 piezas, ya que puede hacerse de dos formas fundamentales.
- Se extrae la primera, se analiza si es defectuosa o no, y se retorna a la caja antes de extraer la segunda; después se extrae la segunda y se verifica si es defectuosa o no, completando la información de la muestra de dos piezas extraídas. Si se hace de esta forma, se dice que se ha extraído una muestra de tamaño 2 con reemplazamiento o con reposición.
- Se extrae la primera, se analiza si es defectuosa o no y no se retorna a la caja; después se extrae la segunda pieza verificando si es defectuosa o no, completando la muestra de tamaño dos. Cuando se toma la muestra de esta forma decimos que hemos extraído una muestra de tamaño dos sin reemplazamiento o sin reposición.
En definitiva, en el ejemplo se pueden definir dos eventos:
D1: la primera pieza extraída sea defectuosa
D2: la segunda pieza extraída sea defectuosa
Para calcular P(D2/D1)
Apoyándose en el significado de la probabilidad condicional, se parte del hecho de que D1 ocurra, por tanto al extraer la segunda pieza se conocerá la composición de piezas que tendrá la caja
8 piezas (3 defectuosas) |
P(D2/D1)=3/8 | 7 piezas (2 defectuosas) |
P(D2/D1)=2/7 |
Con reposición | Sin reposición |
Significado del valor (sin reposición)
Al realizar en sucesivas ocasiones la extracción de dos piezas sin reposición de la caja, aproximadamente en el 28 % de las ocasiones en que la primera pieza sea defectuosa, la segunda también lo será.
Como se puede observar, con la definición de eventos dada se pudo determinar la probabilidad condicional con mucha facilidad y precisamente apoyándose en esto se proporcionan algunas fórmulas que nos facilitan el cálculo de probabilidades más complejas. Estas son:
Fórmula o Regla de la multiplicación.- Se utiliza cuando se requiere calcular la probabilidad de una intersección de dos o más eventos. La expresión se obtiene de despejar la probabilidad de la intersección de la expresión de cálculo de la probabilidad condicional, esto es:
P(A.B)=P(A/B)P(B) si P(A) > 0
=P(B/A)P(A) si P(B) > 0
El uso de esta expresión es recomendable cuando se conocen o son de fácil cálculo las probabilidades que se multiplican, usando una expresión u otra de acuerdo a las probabilidades conocidas, su generalización para la intersección de n eventos sería
P(A1.A2…An)=P(A1)P(A2/A1)P(A3/A1.A2)…P(An/A1.A2…An-1)
Si en el ejemplo anterior se desea calcular la probabilidad de que ambas piezas extraídas sean defectuosas se plantea:
P(D1.D2)=P(D1)P(D2/D1)=(3/8)(2/7)= 3/28 (sin reposición)
Si dos eventos fueran independientes, es decir, si la ocurrencia de uno no influye en la ocurrencia o no ocurrencia del otro, en notación de probabilidad para los eventos A y B se plantea:
P(A/B) = P(A) y P(B/A) = P(B)
Entonces el teorema de la multiplicación cuando los eventos son independientes queda:
P(A.B) = P(A)P(B)
Regla de probabilidad total.- La situación en la cual se aplica esta regla se presenta en el siguiente esquema:
Se puede plantear:
B = (B.A1 ) U (B.A2) U (B.A3) U (B.A4) ya que (B.Ai).(B.Aj) = para ij
De ahí que P(B) = P(B.A1) + P(B.A2) + P(B.A3) + P(B.A4)
Y aplicando la regla de la multiplicación en cada uno de las intersecciones, se tiene:
P(B) = P(A1)P(B/A1) + P(A2)P(B/A2) + P(A3)P(B/A3) + P(A4)P(B/A4)
Que se conoce como Regla de la probabilidad total.
Su planteamiento general sería:
Sean Ai (i=1…n); n eventos exhaustivos y excluyentes definidos en un mismo S y B un evento definido también en el mismo S, entonces:
Su aplicación es conveniente si se conocen o son de fácil cálculo las P(Ai) y P(B/Ai)
De la aplicación de estas dos fórmulas se obtiene la denominada Fórmula de Bayes también muy utilizada en el cálculo de probabilidades condicionales.
Esperanza matemática.
Otro concepto importante de las probabilidades es el de Esperanza Matemática, el cual se define como sigue:
Si las probabilidades de obtener las cantidades a1, a2, …, ak son p1, p2,…, pk, respectivamente, entonces la esperanza matemática es:
E = a1p1 + a2p2 + … + akpk
La esperanza matemática se interpreta como un promedio
Ya se han visto varios ejemplos de fenómenos aleatorios, en los cuales con el fin de estudiarlos, se han tenido que analizar sus puntos muestrales y definir eventos, a partir de los cuales se le da solución al problema, en ocasiones pueden conllevar dificultades mayores en dependencia de la complejidad del fenómeno aleatorio analizado.
Se pudo constatar a su vez, que en la gran mayoría de los fenómenos vistos, los puntos muestrales se expresaban con números reales; tal es el caso del "Lanzamiento de un dado" cuyos puntos muestrales son: 1; 2…..6 .etc. Sobre la base de esa característica se introducirán nuevos conceptos que nos permitirán abordar los fenómenos aleatorios con un nuevo enfoque.
Variable aleatoria:
Para introducir el concepto de variable aleatoria se utilizará el ejemplo del lanzamiento de dos monedas representando sus puntos muestrales, escudo () y estrella (), por los símbolos señalados.
Observar que es posible referirse a esos mismos puntos muestrales, definiendo una variable X que "mida" la cantidad de estrellas que se obtienen al lanzar dos monedas
A cada punto muestral es posible asociarle un valor de la variable X:
X tomaría el valor 0
X " " " 1
X " " " 1
X " " " 2
y sobre la base de la variable X definida, que toma esos valores de manera aleatoria, puede expresarse el espacio muestral S como:
S={x x=0,1,2}
Precisamente a esa X se le denomina "variable aleatoria" y se define como:
Definición:
Una variable aleatoria es una función que asocia un valor numérico real a cada resultado de un fenómeno aleatorio.
Observar como mediante la utilización del concepto de variable aleatoria se puede expresar de una manera más simple a los eventos:
* A: que al menos se obtenga una estrella _ A={X1}
* B: que exactamente se obtengan dos estrellas _ B={X=2}
* C: que a lo sumo se obtenga una estrella _ C= {X 1}
La representación de cualquier evento siempre vendrá dada por un conjunto de números reales y ello hará mucho más fácil las operaciones entre los mismos. Ejemplo:
A(X1) B(X=2) y entonces (A.B) (X=2); ya que 2 es el único número que tanto pertenece a A como a B
Aunque el concepto de variable aleatoria se ha explicado sobre la base de un fenómeno aleatorio cuyo espacio muestral es finito; este concepto también es válido para S infinitos, por ejemplo:
X: "Cantidad de personas que llegan a una cola en un tiempo t"
Sus posibles valores serían X =0,1, 2….(infinito numerable)
Y: "Tiempo de trabajo sin fallo de cierto equipo"
Sus posibles valores Y 0 (infinito no numerable)
De los ejemplos podemos distinguir dos tipos de variables aleatorias: discretas y continuas.
Variable Aleatoria Discreta: Aquella que toma determinados valores; toma valores aislados, a saltos.
Ejemplos de este tipo de variable aleatoria son las variables definidas "cantidad de estrellas obtenidas al lanzar dos monedas" y "cantidad de personas que llegan a una cola en un tiempo t"
Variable Aleatoria Continua: Aquella que toma todos los valores en un intervalo dado.
Un ejemplo de ellas es el definido anteriormente como "tiempo de trabajo sin fallo de cierto equipo"
Las variables aleatorias se acostumbran a denotar mediante las últimas letras de nuestro alfabeto en mayúscula (X, Y, Z, etc) y para referirse a sus posibles valores se utilizan las minúsculas correspondientes: X=x1; x2; x3; se entiende como que la variable aleatoria X toma los valores x1, x2 y x3
De inmediato centraremos nuestra atención en las variables aleatorias discretas (v.a.d.).
El objetivo central al estudiar los fenómenos aleatorios es conocer las probabilidades de ocurrencia de diferentes eventos en él definidos; resulta de interés entonces determinar o conocer el comportamiento probabilístico de las variables aleatorias que se definan para estudiar esos fenómenos; en otras palabras no tiene sentido conocer sólo los valores que puede tomar una v.a, sino que, unido a ello es imprescindible conocer las probabilidades con que la v.a.d. toma cada uno de sus posibles valores, o conjunto de sus valores.
En el caso del ejemplo del lanzamiento de dos monedas para el cual se definió la variable X: "cantidad de estrellas que se obtienen al hacer el lanzamiento de dos monedas" se puede determinar la probabilidad de ocurrencia de cada uno de sus posibles valores:
Probabilidad de ocurrencia
1/2 * 1/2 =1/4 P(X=0)=1/4
1/2 * 1/2 =1/4
1/2 * 1/2 =1/4
1/2 * 1/2 =1/4 P(X=2)=1/4
Observe que los eventos (X=0); (X=1) y (X=2) forman para este experimento un "grupo completo de eventos" y por consiguiente, al obtener las probabilidades de esos eventos, se ha obtenido una "distribución de probabilidad" del referido fenómeno. Específicamente, este tipo de distribución de probabilidad asociada a variable aleatoria discreta recibe el nombre de "Función de Probabilidad".
Función de probabilidad:
Sea X una variable aleatoria discreta y sea f una función de R en el conjunto cerrado [0,1], subconjunto de R; entonces la función de probabilidad se define:
f: R [0,1]
X f(x) y la misma cumple con las siguientes propiedades
1) f(x)0 xR
2) f (x)=1 xR
En otras palabras; es una función f(x) que asocia una probabilidad a cada valor de la variable aleatoria.
f(x)=P(X=x)
La función de probabilidad de la variable que se está estudiando: (X: "# de estrellas al lanzar dos monedas") puede expresarse como:
X | 0 | 1 | 2 |
f(x) | 1/4 | 1/2 | 1/4 |
Comprobando si cumple las propiedades:
1. f(x)0 ==> f(0)=P(X=0)=1/4 >0
f(1)=P(X=1)=1/ 2 >0
f(2)=P(X=2)=1/4 >0 entonces se cumple
2. f(x)=1
Conociendo la función de probabilidad de una variable aleatoria se puede calcular la probabilidad de cualquier evento que se defina asociado al fenómeno que se estudia.
Ejemplo
A: al menos se obtenga una estrella [A(X1)]
P(A)=P(X1)=P(X=1)+P(X=2)=f(1)+f(2)=1/2+1/4=3/4
D: no se obtengan estrellas P(D)=P(X=0)=f(0)=1/4
La representación gráfica de una función de probabilidad en realidad son puntos en el plano, pero para lograr una más rápida y mejor visión del comportamiento de la v.a se acostumbra a utilizar barras verticales.
Se utiliza también con frecuencia para expresar el comportamiento de las variables aleatorias otra distribución de probabilidad, esta distribución de probabilidad se denomina " Función de distribución acumulada".
Función de distribución acumulada (Fx(t)):
Esta función se denota como Fx(t) y es una función tal que Fx(t)=P(X t) tR
La Fx(t) en variables aleatorias discretas se obtiene a partir de la función de probabilidad mediante Fx(t) = f(x) para toda x t
La Fx(t) del ejemplo que se viene desarrollando sería
Fx(0) = P(X 0) = P(X=0) = ¼
Fx(1) = P(X 1) = P(X=0) + P(X=1) = ¾
Fx(2) = P(X 2) = P(X=0) + P(X=1) + P(X=2) = 1
x | 0 | 1 | 2 |
F(x) | ¼ | ¾ | 1 |
Con esta función se puede calcular P(X=1) de la siguiente forma:
P(X=1) = P(X 1) – P(X 0) = Fx(1) – Fx(0) = ¾ – ¼ = ½.
Algunas características numéricas de las distribuciones de probabilidad
Las distribuciones de probabilidad proporcionan una información completa sobre el comportamiento aleatorio de una variable aleatoria, pero sobre la base de ese comportamiento es posible definir y calcular, algunos valores numéricos capaces de resumir las características generales del fenómeno aleatorio que se estudia a partir de esa variable aleatoria. Uno de esos valores es el valor esperado de una variable aleatoria.
El valor esperado de una variable aleatoria, también denominado valor medio, no es más que la esperanza matemática de la misma, y es una medida de localización de la distribución, en otras palabras, informa sobre alrededor de que valor se mueven los valores de la variable aleatoria; por ello se dice que es una medida de tendencia central.
A partir del concepto de esperanza matemática definido anteriormente se puede decir que el valor esperado, denotado por E (X) o ), se calcula en el caso de las variables discretas como:
La esperanza matemática o valor esperado se interpreta promedio. En el ejemplo que se viene desarrollando sería:
E(x) = x f(x) = 0 f(0) + 1f(1) + 2f(2) = 0 * ¼ + 1 * ½ + 2 * ¼ = 1
Interpretación: Como promedio esta variable tomará valor 1
De modo general esta característica numérica siempre tiene que tomar un valor comprendido en el rango de valores de la variable y las siguientes son algunas de sus propiedades:
E(c) = c;
E(c X)= c E(X);
E(X +Y) = E(X) +E(Y)
Este valor por si solo no brinda toda la información sobre el comportamiento de la variable aleatoria; conviene saber además si ese valor promedio representa adecuadamente al conjunto de valores de la variable, es decir, si es un promedio de valores cercanos uno de otro, o si por el contrario logrado mediante valores alejados unos de otros.
Esa información la brinda la varianza, que una la medida de variación o dispersión en torno al valor esperado y la definimos como
V(X) = E [ ( X – E( x )2]
La varianza nos informa cuan concentrados o dispersos están los valores de la variable aleatoria alrededor de la media o valor esperado.
Si V( X1 ) < V ( X2 ) hay mayor concentración en los valores de la variable X1 que en los valores de la variable X2
Por lo tanto si realmente se tiene una variable entonces el valor de la varianza tendrá siempre que ser mayor que 0 [V(X)0] y por supuesto V(c)= 0. Otras propiedades son:
V(cX)= c2V(X);
V(X+Y)= V(X) + V(Y) si los valores que tome X no hacen variar las probabilidades de ocurrencia de los valores de Y, es decir, si X y Y son independientes.
Distribuciones más utilizadas.
En el campo de la ingeniería hay que enfrentarse con frecuencia a fenómenos aleatorios que para su estudio es necesario definir variables aleatorias, que aunque distintas, presentan una misma base teórica. Ocurre así en casos tales como:
- Cantidad de piezas defectuosas en una muestra
- # de dispositivos que funcionan en un instante dado de 5 instalados
- # de ejes cuyos diámetros cumplen con las especificaciones en una muestra, etc.
Nótese que se trata de distintas variables aleatorias pero se puede señalar en ellas características comunes
- Están conformadas por una sucesión de pruebas. En el primer caso la revisión de una pieza para concluir si está o no defectuosa es una prueba y ello se le hace a un grupo de piezas. En el segundo caso cada dispositivo revisado a fin de determinar si está funcionando o no constituye una prueba y ello se le hace a un grupo de dispositivos y algo similar se considera en el tercer caso.
- Otra característica común es que solo interesan dos resultados posibles en cada prueba, (defectuosa o no defectuosa); (funcionan o no funcionan); (cumplen especificaciones o no cumplen especificaciones)
Fenómenos aleatorios con estas características suelen tener comportamientos probabilísticos que se ajustan a la denominada distribución Binomial y las pruebas de que constan son llamadas pruebas Bernoulli
Pruebas Bernoulli:
Se trata de una prueba o experimento en la cual se presentan solo dos posible resultados, a los cuales se les denominan por convenio éxito y fracaso.
Prueba Bernolli éxito
fracaso
Si se define una variable aleatoria X tal que:
X=0 si ocurre el fracaso
X=1 si ocurre el éxito
y P(X=1)=p ; P(X=0)=q siendo q =1-p
entonces:
Si se analiza la ocurrencia de una sucesión de pruebas de este tipo de manera independiente, por ejemplo el caso de 3 pruebas independientes Bernoulli, se puede definir:
A: en la primera ocurra éxito y en las otras fracaso
P(A)=pqq
B: ocurra exactamente un éxito
entonces: P(B) = pqq + qpq + qqp = 3pq²
Generalizando:
Distribución Binomial
Sea X una variable aleatoria discreta que expresa "# de éxitos en n pruebas independientes Bernoulli", entonces X tendrá una distribución binomial si su función de probabilidad viene dada por
Ya que X es # de éxitos en n pruebas independientes Bernoulli, entonces
Siendo las Xi variables Bernoulli que sólo toman los valores 0 y 1; de donde
E(X) = E(X1+X2+…+Xn) = E(X1) + E(X2) + … + E(Xn) = p + p + … + p = np
E(X) = np
De una manera similar se llega a la conclusión de que V(x) = 2 = npq
Resumiendo, si en un fenómeno aleatorio se presentan las siguientes características:
- Sucesión de pruebas Bernoulli
- Las pruebas son independientes
- La probabilidad de éxito es la misma en cada prueba
Entonces la variable aleatoria X "número de éxitos en n pruebas independientes Bernoulli" se distribuye Binomial X b(n, p), donde n y p son los parámetros de la distribución:
n: # total de pruebas (tamaño de la muestra)
p: probabilidad de que ocurra el éxito en una prueba cualquiera
Para referirse a la distribución acumulada en símbolos, se usa la misma notación pero con mayúscula, en este caso de la Binomial sería B(x; n; p) y esa notación expresa la probabilidad acumulada hasta x (P(Xx)).
Ejemplo
Se conoce por datos históricos que la probabilidad de que la pieza A producida en cierto taller sea defectuosa es 0,05. Para analizar la calidad de un lote grande de estas piezas se toma al azar una muestra de 10 piezas del mismo y si en ella al menos 2 piezas son defectuosas se rechaza el lote completo.
- Calcule la probabilidad de que un lote sea rechazado.
- Como promedio, ¿cuántas piezas buenas deben encontrarse en muestras de 10 piezas?
- Calcule la probabilidad de que en la muestra se encuentren más de 6 piezas buenas.
Solución:
a) X: # de piezas defectuosas en la muestra (éxitos = piezas defectuosas)
por tanto p = 0,05 y n = 10, es decir X b(10; 0,05)
P(X 2) = 0,0861
(existen tablas de la distribución binomial para distintos valores de sus parámetros que proporcionan probabilidades de cada valor o acumuladas)
b) se trata de otra variable aleatoria,
Y: # de piezas buenas en la muestra
Donde Y b(10; 0,95)
E(Y) = np = 100,95 = 9,5; como promedio se encontrarán 9,5 piezas buenas en muestras de 10 piezas.
c) Se continua con Y pero p > 0,5 y las tablas no suelen traer valores de p superiores a 0,50, pero sucede que
(Y > 6) (X < 4) y consecuentemente P(Y > 6) = P(X < 4) =1- P(X ≥ 4) = 0,999
Distribución Poisson.
La distribución Binomial es un modelo probabilístico apropiado cuando se tiene la ocurrencia de ciertos sucesos (éxitos) en una sucesión de pruebas independientes Bernoulli. Sin embargo se presentan en la práctica en general y en el campo de la ingeniería en particular otro tipo de fenómenos aleatorios en los que el interés también es el estudio del comportamiento de las ocurrencias de cierto suceso (que en ocasiones se les denominan también éxitos); pero en este caso se trata de ocurrencias en instantes aleatorios de un período de tiempo determinado.
Por ejemplo:
- # de fallas de un equipo en un período de tiempo determinado
- # de consumidores que arriban a un servicentro en un período de tiempo determinado.
- # de llamadas telefónicas recibidas en una central en un período de tiempo determinado, etc.
Este tipo de fenómeno, como puede apreciarse de los ejemplos anteriores y de otros que se pudieran mencionar; pueden presentarse en diversos campos de las ciencias técnicas: Una distribución de probabilidad asociada a este tipo de fenómeno, denominada Distribución Poisson se presenta en esta unidad.
Retomando los ejemplos podemos observar que aunque se trata de sucesos diferentes (fallas de equipo, arribo de consumidores, llamadas telefónicas); se puede de manera genérica caracterizarlos como Flujo de sucesos.
Flujo de sucesos:
Se llama así a la sucesión de sucesos que ocurren en instantes aleatorios de tiempo.
El flujo de sucesos puede presentar diversas propiedades, entre las cuales se distinguen:
– Calidad de estacionario: se manifiesta en el hecho de que "la probabilidad de que ocurran k sucesos en cualquier intervalo de tiempo depende solamente del número k y de la duración t del intervalo"; suponiéndose los intervalos excluyentes.
P(X=k)=f(k;t)
Por ejemplo, las probabilidades de que ocurran k sucesos en los intervalos de tiempo [1,6] ; [10,15] ; [t,t+5] de igual duración t=5 unidades son iguales entre sí.
– Ausencia de efecto posterior: Se manifiesta en que "la probabilidad de que ocurran k sucesos en cualquier intervalo de tiempo no depende de que hayan ocurrido sucesos en intervalos que le preceden", es decir, no existe influencia de lo pasado en el presente, en símbolos:
P(X=k A) = P(X=k)
Siendo A cualquier hipótesis de ocurrencias de sucesos antes del intervaloanalizado
– Calidad de ordinario: Se manifiesta en que es prácticamente imposible la ocurrencia de dos o más sucesos en un intervalo de tiempo pequeño.
P(X 2)=0 si t = t
Flujo de sucesos o Proceso Poisson:
Aquel flujo de sucesos que posea las tres propiedades antes explicadas se le denomina "flujo elemental de sucesos" o también "proceso de Poisson".
Al número medio de ocurrencias del suceso por unidad de tiempo se le llama "Intensidad de flujo".
No resulta fácil determinar cuando un flujo de sucesos presenta esas tres propiedades
Para obtener la expresión analítica de la distribución Poisson {f(x)} es posible apoyarse en la distribución Binomial y el cumplimiento de esas 3 propiedades.
Considérese la variable aleatoria
X: # de ocurrencias de cierto suceso en un intervalo de tiempo de duración t
Analice el intervalo de tiempo considerado
* ** * *** * **
0 t
Los asteriscos indican los instantes aleatorios en que ocurre el suceso.
Se divide el intervalo de duración t en n sub-intervalos iguales de duración t = t/n
tal que se cumpla que:
1. La probabilidad de que ocurra el suceso en un sub-intervalo cualquiera t es proporcional a éste; es decir, es igual a t, donde es una constante (>0).
(De esta forma se garantiza la propiedad de ser estacionario)
2. La ocurrencia o no del suceso en un sub-intervalo t es independiente de la ocurrencia o no del otro suceso en otro sub-intervalo t cualquiera.
(Se garantiza con esto la propiedad de ausencia de efecto posterior)
3. La probabilidad de que ocurra el suceso más de una vez en un mismo sub-intervalo t es despreciable respecto a la probabilidad de que ocurra una vez (ocurre el suceso en t o no ocurre)
(Se garantiza así la propiedad de ordinario)
Observe como bajo los supuestos hechos se puede considerar que estamos en presencia de una sucesión de n pruebas independientes Bernoulli (las n pruebas serían los n subintervalos de duración t en cada uno de los cuales ocurre el suceso o no ocurre el suceso (éxito o fracaso) y la probabilidad de que ocurra el suceso es igual para cualquier sub-intervalo
(p = t= t/n)
Por lo que aplicando la distribución Binomial y por supuesto de manera aproximada, ya que las consideraciones hechas serán en mayor medida válidas cuando n se haga tan grande como se quiera; se puede llegar a hallar f(x)=P(X=x):
Se hace = t tendremos
Hallando el límite de esa expresión cuando n nos conduce a la función de probabilidad Poisson que buscamos.
Distribución Poisson.-
Sea la variable aleatoria discreta X que expresa, "# de ocurrencia de cierto suceso en un intervalo de duración t"; si dicha variable aleatoria tiene por función de probabilidad la expresión:
para x = 0, 1, 2, …
Entonces, se dice que X sigue una distribución Poisson de probabilidad con parámetro = t.
: # medio de ocurrencias del suceso en el intervalo de duración t.
: # medio de ocurrencias del suceso por unidad de tiempo (intensidad de flujo).
t: duración del intervalo.
Puede demostrarse que:
E(X) = V(X) =
Aunque la mayoría de las aplicaciones de la distribución Poisson están relacionadas con la ocurrencias de sucesos en un intervalo de tiempo, también esta distribución constituye un modelo probabilístico apropiado para las ocurrencias de sucesos en un espacio determinado (ya sea longitud, área, o volumen).
Ejemplos:
# de defectos en una superficie dada
# de bacterias en un volumen dado
# de defectos en una longitud dada
El cálculo de probabilidades con esta distribución también se realiza mediante tablas.
Ejemplo:
Una computadora digital funciona las 24 horas del día y sufre interrupciones a razón de 0.25 interrupciones/h. El número de interrupciones en cualquier período de tiempo sigue una distribución Poisson.
a) ¿Cuál es la probabilidad de que durante 16 h sufra entre 2 y 4 interrupciones (ambos valores inclusive)?
b) ¿Cuál es el promedio de interrupciones que sufre la computadora por día de trabajo?
Solución.
a) X: # de interrupciones de la computadora en 16 h
= 0.25 interrupciones/h.
t =16h = 0.2516 = 4 interrupciones en 16h.
X ~ P(=4)
P(2 X 4)= P(X ≥ 2)-P(X ≥ 5)= 0,9084 – 0.3712= 0.5372 (se utilizó una tabla que brinda P[X≥x])
Al interpretar el resultado se puede decir que "aproximadamente en el 54 % de los intervalos de 16 horas de funcionamiento de la computadora, ésta sufrirá entre 2 y 4 interrupciones"
b) Y: # de interrupciones en 24 h.
E(Y)= = t = 0.2524 = 6 interrupciones
Como promedio, la computadora sufrirá 6 interrupciones por día de trabajo.
Página anterior | Volver al principio del trabajo | Página siguiente |