Descargar

Introducción a las Probabilidades para carreras de ingeniería (página 3)


Partes: 1, 2, 3

Aproximación de Poisson a la Binomial:

La expresión analítica de la distribución Poisson se dijo que se puede obtener a partir del límite de la distribución Binomial cuando n tiende a infinito. Esto sugiere que en la práctica a partir de un valor de n relativamente grande, el comportamiento probabilístico de una variable Binomial se asemeja al de una variable Poisson y en efecto así sucede.

Empíricamente se ha determinado que buenas aproximaciones se logran cuando en una variable aleatoria Binomial los parámetros n y p cumplen con:

n  50 y np  5

Por lo tanto:

Si X ~ b(n;p) y ocurre que n  50 y np 5; entonces podemos tratar a X como si tuviera distribución Poisson con = np; en símbolos X ~ P(=np).

Variables aleatorias continuas.

Las variables aleatorias continuas toman todos los valores dentro de un intervalo determinado, es decir, toman valores sobre una escala continua y también se pueden asociar a ellas algunas funciones de distribución.

La función de distribución acumulada [Fx(t)] estudiada en el caso de las variables aleatorias discretas brinda la P(X  t) y pudo ser utilizada para calcular probabilidades de diferentes tipos por ejemplo:

P(a  X  b) = Fx(b) – Fx(a)

En el caso de las variables aleatorias continuas eso también se cumple, pero dado que ellas toman todos los valores en un intervalo, entonces su función de distribución acumulada será siempre continua y si además es derivable, podemos apoyarnos en el segundo teorema fundamental del cálculo que plantea:

es decir, la integral definida de f(x) en (a,b) puede hallarse mediante la diferencia de su primitiva evaluada para los extremos del intervalo, por lo que

Siendo la primitiva la función de distribución acumulada. A la función f(x) se le denomina "función de densidad probabilística"

Definición:

Dada una función f(x); ésta será una función de densidad probabilística si

y tiene que cumplir con dos propiedades

1. f(x)  0 para x R

2.

Si se quiere hallar Fx(t) a partir de la función de densidad se tendría que proceder como sigue

a partir de aquí se concluye que:

La esperanza matemática o valor esperado en el caso de una variable aleatoria continua se halla

y la varianza 2 = V(X) = E(X2) – E2(X)

donde,

y la desviación típica, como ya conocemos será la raíz cuadrada de la varianza

Distribución Exponencial

La distribución exponencial es una de las distribuciones de variables aleatorias continuas que se ajusta al comportamiento de variados fenómenos aleatorios en el campo de las ingenierías. Esta distribución está muy asociada a la variable Poisson y basados en esa relación se puede llegar a la expresión de su función de densidad probabilística

Considérese una serie de eventos sucediéndose en el tiempo de acuerdo a una distribución Poisson con razón media de  eventos por unidad de tiempo, y en ese fenómeno aleatorio interesa ahora analizar lo siguiente:

¿Cuánto tiempo se debe esperar para observar la próxima ocurrencia del evento?

Note que ya se ha estudiado ese mismo fenómeno aleatorio, pero a través de la variable aleatoria X: "# de veces que ocurre un suceso en un período de duración t", la cuál sigue una distribución Poisson, pero para dar respuesta a la pregunta anterior se requiere definir otra variable, que puede ser denotada por Y la cual represente "tiempo de espera entre dos ocurrencias consecutivas del evento":

Si Y>t, ello significa que la próxima ocurrencia del evento sucedió después de t unidades de tiempo, lo que implica que en el lapso de 0 a t, el evento no ocurrió; de ahí que podemos plantear que:

Sabemos que P(Y>t) =1-P(Y  t) =1- Fy(t)

Al despejar se tiene

Fy(t) = 1- P(Y> t) =1- e-t

y como además

entonces derivando Fy(t) respecto a t

f(y) = e-t

Distribución exponencial:

Una variable aleatoria continua cuya función de densidad viene dada por expresión

f(y) = e-y para y  0

se dice que tiene una distribución Exponencial con parámetro ; siendo  > 0

siendo Y: tiempo entre dos ocurrencias consecutivas Poisson

donde : # medio de ocurrencias del evento/unidad de tiempo.

Puede demostrarse fácilmente que:

E(y)= 1/ ; V(y)= 1/2 y (y)= 1/

La forma gráfica de la distribución exponencial será:

De este estudio podemos concluir que, siempre que las ocurrencias de un suceso sean Poisson, el tiempo entre ocurrencias consecutivas será exponencial.

El cálculo de probabilidades con la distribución Exponencial no representa ninguna dificultad, ya que se trata de una función de densidad fácil de integrar, no obstante, se encuentra tabulada en muchos textos.

El cálculo de probabilidades con la distribución exponencial resulta más conveniente hacerlo a partir del hecho de que cualquiera sean los valores de c y d se cumple que:

P(c < X < d)=e-c – e-d;

A partir de esta fórmula se puede calcular la probabilidad de cualquier evento buscando en la tabla o con una calculadora los valores de e-x donde se sustituye la x por t

Ejemplo: Retomando el ejemplo de la computadora digital visto anteriormente donde:

X: # de interrupciones de la computadora en un intervalo de tiempo (0,t)

donde X ~ P( ) donde  =0.25 interrupciones por hora

Preguntas:

a) ¿Cuál es la probabilidad de que la computadora opere como mínimo 2h sin interrupciones?

b) ¿Cuál es el tiempo medio entre 2 interrupciones de la computadora?

Como se explicó anteriormente siempre que las ocurrencias (interrupciones) sean Poisson, el tiempo entre ocurrencias será exponencial.

Y: tiempo que transcurre entre 2 interrupciones consecutivas de la computadora.

P(Y  2)= e -2(0,25) = 0.6065

Interpretación:

Aproximadamente el 60 % de las veces, el tiempo entre interrupciones de la computadora será de la menos 2 horas.

b) E(y)= 1/ = 1/0.25 = 4 horas

como promedio el tiempo entre interrupciones consecutivas será 4 horas.

Ley exponencial de fiabilidad.

Una aplicación importante de la distribución exponencial es en fiabilidad.

El concepto de fiabilidad está asociado al tiempo de trabajo sin fallo de un elemento, entendiendo por elemento a cualquier dispositivo, sea simple o complejo.

Si T es una variable aleatoria que expresa "tiempo de trabajo sin fallo en cierto elemento", se denomina función de fiabilidad R(T), a la función que determina la probabilidad de trabajo sin fallo del elemento, esto es:

R(t)=P(T > t)

si sucede que T ~ E(); entonces:

R(t)=P(T > t) = e-t

y se denomina Ley Exponencial de fiabilidad donde  se interpreta como intensidad de fallos.

Propiedad característica de la ley Exponencial de la fiabilidad.

La distribución exponencial presenta una propiedad característica que si bien es válida para cualquier variable Exponencial, es en su interpretación asociada a la ley Exponencial de fiabilidad donde adquiere un significado práctico importante.

El enunciado de esta propiedad es como sigue:

"La probabilidad de trabajo sin fallo de un elemento en el intervalo de duración t, no depende del tiempo de trabajo sin fallo precedente hasta el origen del intervalo de duración t, sino depende solamente de la duración del tiempo t" (para una intensidad de fallos)

to t

|————|————–|

0 to to+t

P(T>to+t/ T>to) = P(T>t)

Por lo tanto: P(T>to+t/ T>to)=P(T>t)

En otras palabras, la probabilidad de que un elemento que no ha fallado en el intervalo (0;to) de duración to; no falle el el intervalo (to;to+t) de duración t, sólo depende de la duración de tiempo t

Por esta propiedad se dice también que la distribución Exponencial no tiene memoria.

Ejemplo:

El tiempo de trabajo sin fallo de un elemento esta distribuido según la distribución Exponencial con una intensidad de fallos 0.011 fallos/h

a) Calcule la probabilidad de que el elemento funcione sin fallar durante 50h.

b) Si el elemento ha trabajado sin fallar durante 100h; cuál es la probabilidad de que trabaje 50 horas más sin fallar.

Solución:

X: tiempo de trabajo sin fallo

X~ E( = 0.011)

a) P(X >50)= 0.5770

b)

Distribución Normal

La distribución normal es una de las distribuciones más importante de todas, dado por las múltiples aplicaciones que la misma tiene. Su propio nombre indica su extendida utilización, justificada por la frecuencia o normalidad con la que ciertos fenómenos tienden a parecerse en su comportamiento a esta distribución. Muchas variables aleatorias continuas presentan una función de densidad cuya gráfica tiene forma de campana.

En resumen, la importancia de la distribución normal se debe principalmente a que hay muchas variables asociadas a fenómenos naturales que siguen el modelo de la normal. – Caracteres morfológicos de individuos (personas, animales, plantas,…) de una especie. Por ejemplo: tallas, pesos, diámetros…

– Caracteres sociológicos, por ejemplo: consciente intelectual, grado de adaptación a un medio. – Errores cometidos al medir ciertas magnitudes.

– Molienda diaria de un central azucarero

-Tiempo de vida de determinado componente. -Valores estadísticos muestrales, por ejemplo: la media. – Otras distribuciones como la binomial o la Poisson bajo ciertas condiciones son aproximaciones normales.

Como puede apreciarse de los ejemplos relacionados, estas situaciones se pueden presentar en diversos campos de la ciencia y la técnica y como podemos concluir, no será posible caracterizar de manera genérica a una variable Normal. De ahí que su estudio parta directamente de su definición.

Distribución Normal:

Sea X una variable aleatoria continua; si la función de densidad probabilística de X viene dada por:

–  < x < 

se dice que X sigue una distribución de probabilidad Normal

parámetros: µ y  donde: -<µ<+ y  > 0

puede demostrarse que:

E(X)=µ, V(X)=² y (X)=

Como en otras anteriores se utilizará la notación X ~ N(µ;²) para referirse a que una variable sigue distribución Normal con media µ y varianza ².

Ej.: X ~ N(9;4)

entonces X sigue distribución Normal con E(X)== 9 y V(X)=2 = 4

Representación gráfica

La forma de la función de densidad es la llamada campana de Gauss.

Como cualquier otra función de densidad, se cumple que y f(x) > 0 para todo

 < x <+

Observe también en la forma de la distribución como la media está en el centro de la misma.

De ahí se desprende la primera propiedad muy importante de esta distribución

Ello implica que:

P(X > ) = P(X < ) = 0,5

Un planteamiento más general será:

P(X >  + a) = P(X <  -a)

Esta propiedad es muy útil para el cálculo de probabilidades. Esa propiedad también implica que la mediana Me =  y su valor máximo lo toma en x= , por tanto la moda Mo = , es decir

En esta distribución se cumple también las siguientes identidades:

Esta propiedad conocida como Regla de las  se toma con frecuencia para ver si puede considerarse que un conjunto de valores proviene de una población normal.

Comparación de curvas con distribución normal y diferentes parámetros

  1. Variación de 2 con  constante

Observen como cuando  es pequeña los valores de la variable alejados del E(X) (de µ) son muy poco probables ya que la curva se hace más aguda y los valores de X van a estar concentrados alrededor de µ.

  1. Variación de  con 2 constante

Observe que cuando varía la media con la varianza constante ocurre un desplazamiento de la distribución.

Cálculo de probabilidades. Tipificación o estandarización.

Al igual que en el resto de las distribuciones un objetivo esencial es calcular probabilidades de eventos. Para una variable aleatoria continua se hace integrando su f(X), y para la función normal, según la expresión que presenta, resulta bastante trabajoso y complejo.

Por otra parte al tener esta distribución dos parámetros los cuales pueden tomar infinitos valores tampoco resulta práctico el uso de tablas para cada  y .

Esto se solucionó al ver que cualquier variable aleatoria normal luego de ciertas transformaciones conduce a la obtención de una única variable aleatoria normal a la cual se le llamado variable aleatoria normal estándar o tipificada.

La transformación se logra de la siguiente forma:

La conveniencia de realizar esta transformación estriba en que si para esta nueva variable calculamos su media,

E(Z)= E = [ E(X) – E() ] = (0) = 0 dado que E(X) = 

V(Z) = V = V(X – ) = = 1 dado V(X) =2

O sea, realizando el proceso de tipificación se logra transformar cualquier variable normal en otra con media 0 y varianza 1 y esto permite tabular esta distribución única, la de Z

Para la cual la distribución quedaría

para –  < Z < + 

y aparecen en una tabla solamente las probabilidades correspondientes a la normal estándar, a partir de la cual calcularemos las probabilidades para cualquier variable aleatoria normal haciéndole el proceso de tipificación de la siguiente forma:

También para esta distribución hay varias tablas que dan probabilidad de diferentes tipos de eventos.

P ( Z  t) P ( Z  t) P (0  Z  t)

Un aspecto a tener en cuenta para el uso de la tablas de la distribución normal es que se aprovecha la propiedad de simetría.

Por ejemplo en la utilización de las tablas que brindan probabilidades de la cola derecha [P(X≥x)]

Ejemplo: Consideremos X ~ N(7;4).

P(X< k) = 0,1587; Hallar k

en este caso al intervalo de valores de la variable para el cual se determinó esa probabilidad es

- a y la probabilidad que se le asocia es menor que 0,5 por lo tanto el área bajo la curva normal que resulta de interés comienza en el extremo izquierdo y termina antes de la mitad de la distribución (pues hasta la mitad seria probabilidad 0,5)

De modo que el valor equivale a un valor negativo de Z

El planteamiento para resolver esa probabilidad es (según tabla disponible)

ya que P(Z < – z) = P(Z > z) =

Entonces entrar a la tabla de P(X  x) con 0,1587 para buscar el valor de z. Luego igualar ese valor de Z obtenido pero con signo negativo a (k – 7)/ 2 y despejar k

-1= -2 = k – 7 k= 5

Combinación lineal de variables aleatorias normales.

Sean X1, X2,…,Xn; n variables aleatorias independientes donde Xi ~ para i=1,2,…,n y sea

Y=C1 X1 + C2 X2 +…+ CnXn donde Ci son n constantes arbitrarias.

Entonces: Y ~

Ejemplo:

Dadas las variables X ~N(1,4); Y ~N(1,3) y V ~N(4,2) independientes y conociendo que W =X+Y+V.

a) Determine la distribución de W

b) Calcule P(W>8)

Solución:

a) W=X+Y+V

E(W)=E(X)+E(Y)+E(V)=1+1+4=6

V(W)=V(X)+V(Y)+V(V)=4+3+2=9

entonces: W~N(6,9)

b) P(W>8)=P(Z>8-6/3)=P(Z>0.66)=0.2546

Un caso particular de una combinación lineal de variables Normales lo constituye la media muestral:

Sabemos que

Si Xi~N(µ; ²) identicamente distribuidas e independientes

entonces tendremos:

=1/n X1 + 1/nX2 + …. + 1/nXn

E()=1/nE(X1) + 1/nE(X2) + … + 1/nE(Xn)=nµ/n = µ

E()= µ

V()=1/n²V(X1) + 1/n²V(X2) + … + 1/n²V(Xn)=n²/n² = ²/n

V()=²/n

Ejemplo:

El diámetro final de un cable eléctrico armado está Normalmente distribuido con media 0.775 y desviación típica de 0.010

a) Determine la media y la desviación típica de las medias muestrales de 9 diámetros.

b) ¿Que % de las medias referidas en el inciso a) pudieran estar por debajo de 0.772?

Solución:

a) E()=µ=0.775

V()=²/n =

=0.003

b) P(< 0.772) = P(Z< 0.0772-0.775/0.003)

= P(Z<-1) = P(Z>1) = 0.1587

Aproximadamente 16% de las medias de muestras de 9 diámetros estarán por debajo de 0.772.

Teoremas Límites y aproximaciones.

Se presentan dos teoremas que constituyen pilares importantes en la teoría de las probabilidades y la estadística matemática, puesto que constituyen los fundamentos de innumerables procedimientos y decisiones de estas disciplinas. Dentro de estos fundamentos que ellos sustentan se encuentran las aproximaciones entre las distribuciones.

Ley débil de los grandes números:

Sean X1, X2,…., Xn v.a independientes e idénticamente distribuidas [E(Xi)=µ y V(Xi)=²]para i=1, 2, …, n entonces si definimos =X1+X2+..+Xn/n se cumplirá entonces para todo >0 ( es tan pequeño como se quiera).

lim P (|-µ|>)=0

n–>

En esta formulación de la ley de los grandes números se concluye que la media muestral se aproxima a la media poblacional si el número de observaciones o tamaño de la muestra de la cual se obtiene es muy grande.

En otra de sus versiones se concluye que la frecuencia relativa de un evento [fr(a)] se aproxima a la probabilidad del evento [P(a)] si el número de pruebas que se realizan para obtenerla es muy grande.

En este teorema se sustenta en su esencia toda la estadística ya que los métodos de estas se basan en tomar muestras para inferir para toda la población. La demostración de este teorema se hace aplicando la desigualdad de Tchebyshev.

La ley de los grandes números constituye un ejemplo que confirma la afirmación del materialismo dialéctico sobre la relación entre la casualidad y la necesidad, esto se manifiesta en el hecho de que si tomamos una muestra lo suficientemente grande de una variable aleatoria cuyo valor esperado es µ, si bien es cierto que los valores que ella toma son aleatorios, necesariamente la media de dicha muestra será un valor aproximadamente igual a .

Teorema del límite central (TLC).

El teorema del límite central es quizás el más importante teorema de las probabilidades y la estadística desde ambos puntos de vistas, teórico y práctico.

En términos generales el afirma que bajo un conjunto de condiciones o restricciones ligeras (prácticamente sin restricciones), una suma de un número grande de variables aleatorias, tiene aproximadamente una distribución normal; y en la práctica cualquier variable que estudiemos puede considerarse que sus posibles valores son resultados de innumerables variables que las conforman.

Su formulación matemática se presenta a continuación:

Sea X1, X2,…, Xn, n variables aleatorias con medias y varianzas finitas y sea Sn definida por Sn=X1+X2+…+Xn entonces:

~ N (0,1)

* Note que no interesa conocer la distribución de las Xi

Caso particular:

X1, X2,…., Xn; son independientes e idénticamente distribuidas con E(Xi)=µ y V(Xi)=² para i=1,…..,n entonces, si Sn =X1+X2+….+Xn se concluye que:

~ N (0, 1) donde V(Sn) = n 2

y más particular aún

conociendo ya que E()=µ

V()=²/n

entonces por TLC tendremos

~ N(0,1)

Ejemplo de aplicación Teorema límite central:

Considere que latas de frutas son producidas de manera independiente y que el peso medio y la varianza de estas son 8 oz. y 0.5 oz². respectivamente. Si estas se distribuyen en cajas de 48 latas, ¿Cuál es la probabilidad de que el peso de una caja sea superior a 24,5 libras?

Xi: peso de una lata de frutas (ozs.)

E(Xi)=8

V(Xi)=0.5 para i=1,….,48

W: Peso de una caja de latas de frutas W-E(W)/ V(W) ~N(0,1)

E(W)=E(X1)+E(X2)+…..+E(X48)=48*8=384 onz

V(W)=V(X1)+V(X2)+….+V(X48)=48*0.5=24 onz²

24,5 lbs=24,5*16 onz=392 onz.

P(W>392)=P(Z>392-384/_24)=P(Z>1.63)=0.0516

Aproximación Normal-Binomial:

Esta aproximación constituye una aplicación práctica del TLC, si se conoce que la variable Binomial X:"# de éxitos en n pruebas independientes Bernoulli", se puede expresar como una suma de n variables aleatorias Bernoulli

X=X1+X2+….+Xn donde Xi~ Bernoulli

además se conoce que E(X) = np V(X) = npq

entonces aplicando el TLC

~ N(0,1)

Empíricamente se ha comprobado que buenas aproximaciones de Normal a Binomial se logran si np>5 cuando p 1/2 ó nq>5 cuando p>1/2

Como se trata de usar una distribución de variable aleatoria continua para calcular aproximadamente probabilidades de una distribución de variable aleatoria discretas, en muchas ocasiones se hace lo que se denomina "corrección de continuidad", esta en su esencia, consiste en sumar al límite superior 0.5 y restar al inferior 0.5 partiendo de la base de que esos valores extremos pertenezcan al evento al cual se le haya la probabilidad.

Ejemplo:

El 4 % de los tornillos producidos por una cierta fábrica son defectuosos. Calcule la probabilidad de una caja con 200 tornillos escogidos aleatoriamente.

1. contenga entre 2 y 5 tornillos defectuosos (ambos inclusive)

2. contenga exactamente 4 tornillos defectuosos

X:# de tornillos defectuosos en una caja de 200 tornillos.

X ~ B(200;0,04)

como np=200*0.04=8>5 y p<0.5

se puede utilizar la Normal como aproximación.

entonces X ~ N(np = 8; npq = 7.68)

1) P(2  X  5)=P(1.5 < X < 5.5)=P(1.5-8/7.68 < Z < 5.5-8/7.68 )

=P(-2.34 < Z <-0.9)

=P(Z>0.9)-P(Z>2.34)=0.1841-0.00964

=0.1745

2) P(X=4)=P(3.5<X<4.5)=P(3.5-8/7.68<Z<4.5-8/7.68 )

=P(-1.62<Z<-1.26)

=P(Z>1.26)-P(Z>1.62)=0.1038-0.0526

=0.0512

Aproximación Normal-Poisson.

También esta aproximación constituye una aplicación del TLC. Sabemos que la variable Poisson expresa X: # de ocurrencias de cierto suceso en un intervalo de duración t.

Si es relativamente grande se puede considerar al dividir el intervalo [0;t] en n sub-intervalos iguales que en cada uno de esos sub-intervalos hay o existe un flujo elemental de sucesos y por tanto en cada uno de ellos se puede definir una variable Poisson.

0 X1 X2 X3 X4 …… ………. Xn

|—-|—-|—-|—-|—-|—-|—-|—-|—–> t

y por tanto

X = X1+X2+….+Xn y sabemos que E(X) =  = V(X)

Entonces, por el TLC:

~N(0,1)

Utilizándose también la corrección de continuidad por las razones ya vistas en la aproximación anterior.

El criterio del valor de  grande que utilizan la mayoría de los autores es > 10;

Ejemplo:

A un taller de mecánica arriban como promedio 100 autos mensuales. Si los arribos de autos siguen una distribución Poisson. Calcule la probabilidad de que en un mes arriben más de 80 autos.

X: # de autos que arriban en un mes.

X~P(  =100) como es grande considero X~N(100;100)

P(X>80=P(X_81)=P(X>80.5 )=P(<Z>80.5-100/100)

=P(Z>-19.5/10)=P(Z>1.95)=1-P(Z>1.95)

=1-0.0256=.9744

Sistemas de dos variables aleatorias. Clasificación.

En la práctica nos encontramos con fenómenos aleatorios donde se hace necesario definir dos o más variables aleatorias.

La generalización de los conceptos vistos en una variable aleatoria al de sistema de n variables aleatorias, no debe verse simplemente como una cuestión de interés teórico, todo lo contrario; en la mayoría de los problemas prácticos que debemos resolver, interactúan más de una variable aleatoria. Un sistema de n variables aleatorias, se puede representar como: (X1, ….., Xn); ahora bien, sólo los extenderemos a los sistemas de dos variables aleatorias, el cual se denota por (X,Y)

Por ejemplo:

1. En el mantenimiento o reparación de un equipo puede interesar el sistema (X,Y), donde:

X: Tiempo de espera para ser reparado.

Y: Tiempo que demora la reparación.

2. En una central telefónica puede interesar:

X: # de llamadas telefónicas que recibe la central.

Y: # de llamadas en las que se estableció comunicación.

De acuerdo al tipo de las variables, los sistemas se clasifican en:

– de variables aleatorias discretas.

– de variables aleatorias continuas.

Centraremos la atención en sistemas de variables continuas.

Función de densidad probabilística conjunta de dos variables aleatorias (X,Y) contínuas.

Sea (X,Y) un sistema de dos variables aleatorias contínuas; f(x,y) será una función de densidad probabilística conjunta del sistema (X,Y) si:

P(a ≤ X ≤ b; c ≤ Y ≤ d) =

y cumple con las propiedades:

1. f(x,y) ≥ 0 para todo (x,y)  R²

2. = 1

Para calcular probabilidades se integra la función de densidad conjunta:

Ejemplo:

Sea el sistema de dos v.a. contínuas: (X,Y) y f(x,y) su función de densidad conjunta:

Calcule:

Función de densidad marginal para variables aleatorias continuas.

Cuando se trabaja con un sistema de dos variables aleatorias puede surgir la necesidad de calcular probabilidades relacionadas con una sola variable, siendo conveniente entonces, determinar la ley de probabilidad de esa variable, lo que es enteramente posible si se conoce la ley de probabilidad del sistema.

Para el caso de variables aleatorias continuas se define:

Si (X,Y) es un sistema de dos variables aleatorias continuas y f(x,y) la función de densidad conjunta correspondiente, entonces:

función de densidad marginal de X

función de densidad marginal de Y

Función de densidad condicional.

También en los sistemas de dos variables aleatorias continuas se definen las denominadas funciones condicionales, ya que en ocasiones resulta de interés el cálculo de probabilidades de determinados eventos de una variable dado que la otra toma un determinado valor.

Se podrán definir, dos funciones: de X dado Y y de Y dado X, esto es:

respectivamente

Variables aleatorias independientes.

La noción de variable aleatoria independiente es una de las nociones fundamentales de la teoría de las probabilidades.

Se dice que la variable aleatoria Y es independiente de la variable aleatoria X si la ley de probabilidad de Y no cambia, cuando cambian los valores de X y viceversa.

Si (X,Y) es un sistema de dos variables aleatorias contínuas y f(x,y) su función de densidad conjunta, diremos que X y Y son variables aleatorias independientes si y sólo si

f(x,y)=f(x) f(y) para todo (x,y) R²

Si no se cumple lo anterior diremos que las variables X y Y son dependientes.

Ejemplo:

Para el caso tratado anteriormente

Hallar f(x) y f(y)

de manera similar obtendremos que f(y) = 2y

de donde 4xy=2x2y; por tanto: f(x,y)=f(x)f(y) y podemos decir que estas variables son independientes.

Covarianza y coeficiente de correlación.

Existen características que nos permiten profundizar algo más en el conocimiento del comportamiento conjunto de dos variables aleatorias y en específico sobre la influencia que sobre una variable aleatoria ejerce la otra.

Para ejemplificar lo que queremos decir consideren que estamos estudiando el "desgaste que sufre una pieza dada de un tipo de transporte automotor", pero analizamos que sobre este pueden influir los kilómetros recorridos por dicho transporte y por tanto necesitaría un valor que nos características la relación entre esas variables o cuando estudiamos la molienda de un central azucarero y necesitamos tener información de como influye en ella los milímetros de lluvia caída en la zona durante los meses de zafra, etc.

Covarianza:

Al ver las propiedades del valor esperado y la varianza, se planteó valor esperado de una suma como la suma de los valores esperados. Para la varianza se planteó que la varianza de una suma es la suma de las varianzas si las variables eran independientes. Esto obedece a que la varianza de una suma no tiene igual expresión para cualquiera sean las variables aleatorias y basándose en el desarrollo de la varianza de una suma se puede llegar a la expresión que se define como covarianza.

Dadas dos variables aleatorias X y Y

V(X+Y) = E{[(X+Y)-E(X+Y)]²}

= E{[X+Y-E(X)-E(Y)]²}

Agrupando convenientemente, queda:

V(X+Y) = E{[(X-E(X))+(Y-E(Y))]²}

y ahora desarrollando el cuadrado perfecto

V(X+Y)=E{[X-E(X)]² + 2[X-E(X)][Y-E(Y)] + [Y-E(Y)]²}

Desarrollando el valor esperado se obtiene:

V(X+Y)=E{[X-E(X)]²} + 2E{[X-E(X)][Y-E(Y)]} + E{[Y-E(Y)]²}

El primer y tercer término de la ecuación representan la V(X) y V(Y) respectivamente.

Por lo tanto: V(X+Y) = V(X(c) + V(Y(c) + 2E{[X-E(X)][Y-E(Y)]}

La expresión E{[X-E(X)][Y-E(Y)]} recibe el nombre de covarianza

y se denota C(X,Y), o sea:

C(X,Y)= E{[X-E(X)][Y-E(Y)]}

Al desarrollar el producto contenido en la expresión se obtiene:

C(X,Y) = E(XY) – E(X) E(Y)

La expresión general de la varianza de una suma de dos variables aleatorias quedaría como:

V(X+Y) = V(X) + V(Y) + 2C(X,Y)

Del análisis de la expresión de la covarianza se puede concluir que puede ser positiva, negativa e incluso cero. Entonces la C(X,Y) puede tomar cualquier valor real.

Al interpretar prácticamente la Covarianza decimos que es una medida de la variación conjunta de dos variables aleatorias. Al analizar esta variación conjunta se pueden presentar 3 situaciones:

  • Si para los mayores valores de una de las variables aleatorias, la otra también toma los valores mayores con alta probabilidad, o si para los menores valores de una de las variables, la otra también toma sus menores valores con probabilidad grande, entonces puede afirmarse que la covarianza será un valor positivo grande.
  • Si para los mayores valores de una de las variables aleatorias, la otra toma sus menores valores con probabilidad alta y viceversa, entonces la covarianza de dichas variables será un número negativo grande.
  • Si para los mayores valores de una de las variables la otra toma con igual o similar probabilidad valores pequeños o grandes entonces la covarianza será cero o muy cercana a cero.

Propiedades de la covarianza

1) | C(X,Y) | ≤

2) C(X,Y) = C(Y,X)

3) C(aX,bY) = ab C(X,Y)

4(r) C(X,mx+b) = mV(X)

Coeficiente de correlación

De la definición de la covarianza se deduce que esta tiene una dimensión igual al producto de las dimensiones de las magnitudes aleatorias X y Y.

Si X y Y están en cm, C(x,y) estará en cm².

Esto es una deficiencia de esta característica numérica, puesto que se dificulta la comprensión de las covarianzas para distintos sistemas de variables aleatorias.

Para evitar esta deficiencia se define el coeficiente de correlación que se denota (X,Y) y se define como:

La magnitud del coeficiente de correlación no depende de la selección de las unidades de las variables aleatorias. En esto reside su ventaja con respecto a la covarianza.

(X,Y) es también una medida de la variación conjunta de las variables aleatorias X y Y , es una constante para cada sistema aleatorio (X,Y).

Propiedad del coeficiente de correlación

Interpretación de un valor dado de  (X,Y):

| (X,Y)| = 1 Cuando una variable aleatoria es una función lineal exacta de la

otra (y=mx+b)

(X,Y)=1 Si m es positiva

(X,Y)=-1 Si m es negativa

(X,Y) > 0 (cercano a 1); cuando una variable aumenta sus valores, la otra tiende a aumentar también (fuerte correlación lineal positiva)

(X,Y) < 0 (cercano a -1); cuando una variable aumenta sus valores, la otra tiende a disminuir (fuerte correlación lineal negativa)

Entonces el coeficiente de correlación brinda información sobre el grado de relación lineal entre las variables aleatorias.

Variables aleatorias incorrelacionadas

Si (X,Y) = 0 decimos que las variables aleatorias X y Y están incorrelacionadas o no correlacionadas.

(X,Y) = 0 sí y solo sí C(X,Y) = 0

si (X,Y) ≠ 0 X y Y están correlacionadas

Propiedades de las variables aleatorias incorrelacionadas

1. (X,Y) = 0

2. C(X,Y) = 0

3. E(XY)= E(X)E(Y)

4. V(X+Y) = V(X-Y) = V(X) + V(Y)

Relación entre las variables aleatorias incorrelacionadas y las independientes

Si X y Y son independientes, se cumple que:

f(x,y) =f (x)f(y)

entonces E(XY) = para X y Y pero como son independientes

E(XY) =

Por lo tanto: E(XY)=E(X)E(Y); por lo que concluimos que:

* Las variables aleatorias independientes son también incorrelacionadas

Pero no siempre se cumple en el otro sentido es decir:

* No todas las variables aleatorias incorrelacionadas serán independientes

Bibliografía:

  1. Guerra Bustillo, Caridad y otros: Estadística.
  2. Hernández Simón, Luis Manuel y otros: Probabilidades.
  3. Freund and Millar: Probabilidad y estadística para ingenieros.
  4. Walpole, Ronald E; Myers, Raimond H; Myers, Sharon L: Probabilidad y estadística para ingenieros

 

Autores;

MSc. Ing..I� Hilario Rodríguez Pérez

Profesor Auxiliar ISPJAE, Cuba.

hrodrig[arroba]ind.cujae.edu.cu

MSc. Ing. Regla Lamar Meneses

Profesor Auxiliar ISPJAE, Cuba.

Partes: 1, 2, 3
 Página anterior Volver al principio del trabajoPágina siguiente