lunes, 22 de abril de 2013

Unidad 3 Distribuciones de Probabilidad Discretas

3.1 Definición de variable aleatoria discreta. Una variable aleatoria X es discreta si su recorrido es finito o infinito numerable, recorrido que denotaremos de la forma {x1, x2,..., xk,...}. El ejemplo más sencillo de variable aleatoria discreta lo constituyen las variables indicadoras. Sea A un suceso observable, se llama indicador de A, a la variable aleatoria definida por:

 3.2 Función de probabilidad y de distribución valor esperado, varianza y desviación estándar. Función de probabilidad En teoría de la probabilidad, una función de probabilidad (también denominada función de masa de probabilidad) es una función que asocia a cada punto de su espacio muestral X la probabilidad de que ésta lo asuma.

 La gráfica de una función de probabilidad de masa, note que todos los valores no son negativos, y la suma de ellos es igual a 1.

 La función de masa de probabilidad de un Dado. Todos los números tienen la misma probabilidad de aparecer cuando este es tirado.
 En concreto, si el espacio muestral, E de la variable aleatoria X consta de los puntos x1, x2,..., xk, la función de probabilidad P asociada a X es
 Donde pi es la probabilidad del suceso X = xi.
 Por definición de probabilidad,
 Hay que advertir que el concepto de función de probabilidad sólo tiene sentido para variables aleatorias que toman un conjunto discreto de valores. Para variables aleatorias continuas el concepto análogo es el de función de densidad.

Valor esperado
 Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la probabilidad de cada posible suceso aleatorio multiplicado por el valor de dicho suceso. Por lo tanto, representa la cantidad media que se "espera" como resultado de un experimento aleatorio cuando la probabilidad de cada suceso se mantiene constante y el experimento se repite un elevado número de veces. Cabe decir que el valor que toma la esperanza matemática en algunos casos puede no ser "esperado" en el sentido más general de la palabra - el valor de la esperanza puede ser improbable o incluso imposible.
 Por ejemplo, el valor esperado cuando tiramos un dado equilibrado de 6 caras es 3,5. Podemos hacer el cálculo
 Y cabe destacar que 3,5 no es un valor posible al rodar el dado. En este caso, en el que todos los sucesos son de igual probabilidad, la esperanza es igual a la media aritmética.
 Una aplicación común de la esperanza matemática es en las apuestas o los juegos de azar. Por ejemplo, la ruleta americana tiene 38 casillas equiprobables. La ganancia para acertar una apuesta a un solo número paga de 35 a 1 (es decir, cobramos 35 veces lo que hemos apostado y recuperamos la apuesta, así que recibimos 36 veces lo que hemos apostado). Por tanto, considerando los 38 posibles resultados, la esperanza matemática del beneficio para apostar a un solo número es:

 Varianza y desviación estándar
 Varianza
 La varianza (que es el cuadrado de la desviación estándar: σ2) se define así: Es la media de las diferencias con la media elevadas al cuadrado. En otras palabras, sigue estos pasos: 1. Calcula la media (el promedio de los números) 2. Ahora, por cada número resta la media y eleva el resultado al cuadrado (la diferencia elevada al cuadrado). 3. Ahora calcula la media de esas diferencias al cuadrado.
 Desviación estándar
 La desviación estándar o desviación típica (denotada con el símbolo σ o s, dependiendo de la procedencia del conjunto de datos) es una medida de centralización o dispersión para variables de razón (ratio o cociente) y de intervalo, de gran utilidad en la estadística descriptiva.
 Se define como la raíz cuadrada de la varianza. Junto con este valor, la desviación típica es una medida (cuadrática) que informa de la media de distancias que tienen los datos respecto de su media aritmética, expresada en las mismas unidades que la variable.
 Para conocer con detalle un conjunto de datos, no basta con conocer las medidas de tendencia central, sino que necesitamos conocer también la desviación que presentan los datos en su distribución respecto de la media aritmética de dicha distribución, con objeto de tener una visión de los mismos más acorde con la realidad al momento de describirlos e interpretarlos para la toma de decisiones.

 3.3 Distribución Binomial.
 En estadística, la distribución binomial es una distribución de probabilidad discreta que mide el número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre sí, con una probabilidad fija p de ocurrencia del éxito entre los ensayos. Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles dos resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado número de éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de Bernoulli.
 Ejemplo Supongamos que se lanza un dado (con 6 caras) 50 veces y queremos conocer la probabilidad de que el número 3 salga 20 veces. En este caso tenemos una X ~ B(50, 1/6) y la probabilidad sería P(X=20):
Las características de esta distribución son:
a) En los experimentos que tienen este tipo de distribución, siempre se esperan dos tipos de resultados, ejem. Defectuoso, no defectuoso, pasa, no pasa, etc., etc., denominados arbitrariamente “éxito” (que es lo que se espera que ocurra) o “fracaso” (lo contrario del éxito).
 b) Las probabilidades asociadas a cada uno de estos resultados son constantes, es decir no cambian.
c) Cada uno de los ensayos o repeticiones del experimento son independientes entre sí. d) El número de ensayos o repeticiones del experimento (n) es constante.




 3.4 Distribución Hipergeométrica.
 Es una distribución discreta relacionada con muestreos aleatorios y sin reemplazo. Supóngase que se tiene una población de N elementos de los cuales, d pertenecen a la categoría A y N-d a la B. La distribución hipergeométrica mide la probabilidad de obtener x elementos de la categoría A en una muestra sin reemplazo de n elementos de la población original.
 Ejemplo: en una urna hay 7 bolas blancas y 5 negras. Se sacan 4 bolas ¿Cuál es la probabilidad de que 3 sean blancas?
 Entonces:
 N = 12; N1 = 7; N2 = 5; k = 3; n = 4
Si aplicamos el modelo:
 Por lo tanto, P (x = 3) = 0,3535. Es decir, la probabilidad de sacar 3 bolas blancas es del 35,3%.

 3.4.1 Aproximación de la Hipergeometrica por la Binomial.
 En teoría de la probabilidad la distribución hipergeométrica es una distribución discreta relacionada con muestreos aleatorios y sin reemplazo. Supóngase que se tiene una población de N elementos de los cuales, d pertenecen a la categoría A y N-d a la B. La distribución hipergeométrica mide la probabilidad de obtener x elementos de la categoría A en una muestra de n elementos de la población original.
 La función de probabilidad de una variable aleatoria con distribución hipergeométrica puede deducirse a través de razonamientos combinatorios y es igual a
 Donde es el tamaño de población, es el tamaño de la muestra extraída, es el número de elementos en la población original que pertenecen a la categoría deseada y es el número de elementos en la muestra que pertenecen a dicha categoría. La notación hace referencia al coeficiente Binomial, es decir, el número de combinaciones posibles al seleccionar elementos de un total.

 3.5 Distribución Geométrica.
 Esta distribución toma en cuenta el número de veces que debe repetirse el experimento hasta que ocurra éxito por primera vez, en cuyo caso, termina de realizarse el experimento. Aquí sólo ocurre éxito una sola vez. No interesa cuántos veces se deba repetir el ensayo.
 Definición
 Diremos que una variable aleatoria X tiene distribución Geométrica si X representa “El número de veces que debe repetirse un experimento hasta que ocurra éxito por primera vez”.
 En este caso denotaremos por X à G (p), donde p, la probabilidad de éxito, constituye el parámetro de la distribución cuya función viene dada por
 Observaciones
 El experimento termina cuando ocurre éxito por primera vez
 El valor esperado de X, E(X) = 1/p
 La varianza de X, V(X) = q/p²
 Ejemplo
 Usemos la simulación:
 Suponga que muchos clientes ingresan a una tienda de artefactos. A cada uno de ellos se le ofrece artefacto en particular. La probabilidad de que un cliente compre dicho artefacto es 0.25. ¿Cuál será la probabilidad de que el primer cliente que compre el artefacto sea el vigésimo quinto cliente a quien se le ofreció el producto? Construya la distribución de probabilidad del número de clientes a quienes se les ofreció el producto hasta obtener una venta. Obtenga la gráfica de esta distribución.

Solución
 Paso 1: Generemos 25 números de 1 hasta 25 almacenándolo en C1 que será X. Para ello usamos - - y completamos la ventana con los datos indicados 

Paso 2: Usando la calculadora, ingresamos en C2, la expresión 0.25*(0.75) ** (C1-1)
 Paso 3: Observando la fila 25 encontramos p (25) = P(X = 25) = 0.000251 
Paso 4: La gráfica. Usemos la siguiente secuencia - . En la columna Y ingresamos p(x) o C2 y en X ingresamos C1 La gráfica obtenida será similar a la figura de la derecha. 

3.6 Distribución Multinomial.
 Este modelo se puede ver como una generalización del Binomial en el que, en lugar de tener dos posibles resultados, tenemos r resultados posibles.
 Supongamos que el resultado de una determinada experiencia puede ser r valores distintos: A1, A2,..., Ar cada uno de ellos con probabilidad p1, p2,..., pr, respectivamente.

 Si repetimos la experiencia n veces en condiciones independientes, podemos preguntarnos la probabilidad de que el suceso A1 aparezca k1 veces, el suceso A2, k2 veces y así sucesivamente:

 Al modelo estadístico que nos da dicha probabilidad se le denomina Multinomial, y su función de densidad viene dada por:

 Como se ve, el modelo Multinomial queda definido por los parámetros (n, p1, p2,..., pr). La fórmula anterior puede deducirse de forma análoga al caso Binomial. En realidad, si tomamos r = 2 tenemos exactamente el modelo Binomial.
 Se debe destacar que este modelo es un ejemplo de distribución multivariante, es decir, de distribución conjunta de varias (r) variables aleatorio. En efecto, si definimos la variable aleatoria X1 como número de veces que se produce el suceso A1 de un total de n experiencias, y así sucesivamente, tenemos un conjunto de r variables aleatorias discretas cuya función de densidad conjunta (valorada a la vez) viene definida por la anterior fórmula. Nótese que si consideramos cada una de estas variables Xi (i = 1, 2,..., r) por separado, su distribución es la Binomial de parámetros n y pi.
 Propiedades del experimento Multinomial:
 1. El experimento consiste en n pruebas idénticas.
 2. Hay k posibles resultados de cada prueba
 3. Las probabilidades de los k resultados, denotadas por p1, p2, p3,…..pk.se mantienen constantes a lo largo de todas las pruebas, donde p1 + p2 +… +pk=1
 4. Las pruebas son independientes
 5. Las variables aleatorias de interés son las cuentas y1, y2,…, yk en cada una de Las k categorías de clasificación P(y1, y2,…,yk ) = (p1)y1( p2)y2…(pk)yk Donde pi= probabilidad del resultado i en una sola prueba p1 + p2 +… +pk=1 n= y1, y2,…, yk = numero de pruebas yi=numero de ocurrencias del resultado i en n pruebas La media y la varianza de las variables Multinomial yi son, respectivamente μ=np1 σ=npi (1-pi)

 3.7 Distribución de Poisson
. La distribución de Poisson es una distribución de probabilidad discreta que expresa, a partir de una frecuencia de ocurrencia media, la probabilidad que ocurra un determinado número de eventos durante cierto periodo de tiempo.
 Propiedades
 La función de masa de la distribución de Poisson es:

 Donde 
• k es el número de ocurrencias del evento o fenómeno (la función nos da la probabilidad de que el evento suceda precisamente k veces). 
• λ es un parámetro positivo que representa el número de veces que se espera que ocurra el fenómeno durante un intervalo dado. Por ejemplo, si el suceso estudiado tiene lugar en promedio 4 veces por minuto y estamos interesados en la probabilidad de que ocurra k veces dentro de un intervalo de 10 minutos, usaremos un modelo de distribución de Poisson con λ = 10×4 = 40. 
• e es la base de los logaritmos naturales (e = 2,71828...) 
Tanto el valor esperado como la varianza de una variable aleatoria con distribución de Poisson son iguales a λ. Los momentos de orden superior son polinomios de Touchard en λ cuyos coeficientes tienen una interpretación combinatoria. De hecho, cuando el valor esperado de la distribución de Poisson es 1, entonces según la fórmula de Dobinski, el enésimo momento iguala al número de particiones de tamaño n. 

3.8 Aproximación de la Binomial por la de Poisson.
 En este caso se determinarán probabilidades de experimentos Binomiales, pero que dadas sus características, es posible aproximarlas con la distribución de Poisson, estas características son, n ¥® (n es muy grande) y p®0 (p es muy pequeña), por lo que:

 La expresión anterior solo se cumple cuando n ®¥ y p®0, solo en este caso, si esto no se cumple, la aproximación no se puede llevar a efecto, por lo que la fórmula a utilizar en este caso sería:
 Donde:
 l =m= npi = número esperado de éxitos = tasa promedio de éxitos
 n = número de repeticiones del experimento
 p = probabilidad de éxito = p (éxito)
 Una regla general aceptable es emplear esta aproximación si n³20 y p£0.05: sí n³100, la aproximación es generalmente excelente siempre y cuando np£10.
EJEMPLO 2.
 Un fabricante de maquinaria pesada tiene instalados en el campo 3840 generadores de gran tamaño con garantía. Sí la probabilidad de que cualquiera de ellos falle durante el año dado es de 1/1200 determine la probabilidad de que a) 4 generadores fallen durante el año en cuestión, b) que más 1 de un generador falle durante el año en cuestión.
 Solución:
 a) n = 3840 generadores
 p = 1/1200 = probabilidad de que un generador falle durante el año de garantía
 l = np = (3840) (1/1200) = 3.2 motores en promedio pueden fallar en el año de garantía
 x = variable que nos define el número de motores que pueden fallar en el año de garantía
 = 0, 1, 2, 3,....,3840 motores que pueden fallar en el año de garantía
 b) p(x=2, 3,4,....,3840;l=3.2)=1-p(x=0,1;l=3.2) =
=1- (0.04078 + 0.13048) = 0.82874

 3.9 Distribución Binomial Negativa.
 La distribución Binomial es una distribución de probabilidad discreta que incluye a la distribución de Pascal.
 El número de experimentos de Bernoulli de parámetro independientes realizados hasta la consecución del k-ésimo éxito es una variable aleatoria que tiene una distribución Binomial negativa con parámetros k y .
 La distribución geométrica es el caso concreto de la Binomial negativa cuando k=1.
 Propiedades:
 Su función de probabilidad es:
 Para enteros x mayores o iguales que k, donde .
 Su media es
 Si se piensa en el número de fracasos únicamente y
 Si se cuentan también los k-1 éxitos.
 Su varianza es
 En ambos casos.
Ejemplos:
Si la probabilidad de que un niño expuesto a una enfermedad contagiosa la contraiga es 0,40, ¿Cuál es la probabilidad de que el décimo niño expuesto a la enfermedad sea el tercero en contraerla? En este caso, X es el número de niños expuestos la enfermedad y
 La solución es:
 En un proceso de manufactura se sabe que un promedio de 1 en cada 10 productos es defectuoso, ¿cual es la probabilidad que el quinto (5) articulo examinado sea el primero (1) en estar defectuoso?. La solución es: X= artículos defectuosos P= 1/10 = 0,1 q= 1- 0,1 = 0,9 x= 5 ensayos K= 1 b*(5;1,0.1)=(5-1\1-1)(0.1)^1*(0.9)^5-1= b*(5;1,0.1)= 6.6% de probabilidad que el quinto elemento extraído sea el primero en estar defectuoso.

 3.10 Distribución Uniforme.
 La distribución uniforme continua es una familia de distribuciones de probabilidad para variables aleatorias continuas, tales que cada miembro de la familia, todos los intervalos de igual longitud en la distribución en su rango son igualmente probables. El dominio está definido por dos parámetros, a y b, que son sus valores mínimo y máximo. La distribución es a menudo escrita en forma abreviada como U(a, b)
 La función de distribución se obtiene integrando la función de densidad y viene dada por:


4 comentarios: