lunes, 22 de abril de 2013

Unidad 3 Distribuciones de Probabilidad Discretas

3.1 Definición de variable aleatoria discreta. Una variable aleatoria X es discreta si su recorrido es finito o infinito numerable, recorrido que denotaremos de la forma {x1, x2,..., xk,...}. El ejemplo más sencillo de variable aleatoria discreta lo constituyen las variables indicadoras. Sea A un suceso observable, se llama indicador de A, a la variable aleatoria definida por:

 3.2 Función de probabilidad y de distribución valor esperado, varianza y desviación estándar. Función de probabilidad En teoría de la probabilidad, una función de probabilidad (también denominada función de masa de probabilidad) es una función que asocia a cada punto de su espacio muestral X la probabilidad de que ésta lo asuma.

 La gráfica de una función de probabilidad de masa, note que todos los valores no son negativos, y la suma de ellos es igual a 1.

 La función de masa de probabilidad de un Dado. Todos los números tienen la misma probabilidad de aparecer cuando este es tirado.
 En concreto, si el espacio muestral, E de la variable aleatoria X consta de los puntos x1, x2,..., xk, la función de probabilidad P asociada a X es
 Donde pi es la probabilidad del suceso X = xi.
 Por definición de probabilidad,
 Hay que advertir que el concepto de función de probabilidad sólo tiene sentido para variables aleatorias que toman un conjunto discreto de valores. Para variables aleatorias continuas el concepto análogo es el de función de densidad.

Valor esperado
 Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la probabilidad de cada posible suceso aleatorio multiplicado por el valor de dicho suceso. Por lo tanto, representa la cantidad media que se "espera" como resultado de un experimento aleatorio cuando la probabilidad de cada suceso se mantiene constante y el experimento se repite un elevado número de veces. Cabe decir que el valor que toma la esperanza matemática en algunos casos puede no ser "esperado" en el sentido más general de la palabra - el valor de la esperanza puede ser improbable o incluso imposible.
 Por ejemplo, el valor esperado cuando tiramos un dado equilibrado de 6 caras es 3,5. Podemos hacer el cálculo
 Y cabe destacar que 3,5 no es un valor posible al rodar el dado. En este caso, en el que todos los sucesos son de igual probabilidad, la esperanza es igual a la media aritmética.
 Una aplicación común de la esperanza matemática es en las apuestas o los juegos de azar. Por ejemplo, la ruleta americana tiene 38 casillas equiprobables. La ganancia para acertar una apuesta a un solo número paga de 35 a 1 (es decir, cobramos 35 veces lo que hemos apostado y recuperamos la apuesta, así que recibimos 36 veces lo que hemos apostado). Por tanto, considerando los 38 posibles resultados, la esperanza matemática del beneficio para apostar a un solo número es:

 Varianza y desviación estándar
 Varianza
 La varianza (que es el cuadrado de la desviación estándar: σ2) se define así: Es la media de las diferencias con la media elevadas al cuadrado. En otras palabras, sigue estos pasos: 1. Calcula la media (el promedio de los números) 2. Ahora, por cada número resta la media y eleva el resultado al cuadrado (la diferencia elevada al cuadrado). 3. Ahora calcula la media de esas diferencias al cuadrado.
 Desviación estándar
 La desviación estándar o desviación típica (denotada con el símbolo σ o s, dependiendo de la procedencia del conjunto de datos) es una medida de centralización o dispersión para variables de razón (ratio o cociente) y de intervalo, de gran utilidad en la estadística descriptiva.
 Se define como la raíz cuadrada de la varianza. Junto con este valor, la desviación típica es una medida (cuadrática) que informa de la media de distancias que tienen los datos respecto de su media aritmética, expresada en las mismas unidades que la variable.
 Para conocer con detalle un conjunto de datos, no basta con conocer las medidas de tendencia central, sino que necesitamos conocer también la desviación que presentan los datos en su distribución respecto de la media aritmética de dicha distribución, con objeto de tener una visión de los mismos más acorde con la realidad al momento de describirlos e interpretarlos para la toma de decisiones.

 3.3 Distribución Binomial.
 En estadística, la distribución binomial es una distribución de probabilidad discreta que mide el número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre sí, con una probabilidad fija p de ocurrencia del éxito entre los ensayos. Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles dos resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado número de éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de Bernoulli.
 Ejemplo Supongamos que se lanza un dado (con 6 caras) 50 veces y queremos conocer la probabilidad de que el número 3 salga 20 veces. En este caso tenemos una X ~ B(50, 1/6) y la probabilidad sería P(X=20):
Las características de esta distribución son:
a) En los experimentos que tienen este tipo de distribución, siempre se esperan dos tipos de resultados, ejem. Defectuoso, no defectuoso, pasa, no pasa, etc., etc., denominados arbitrariamente “éxito” (que es lo que se espera que ocurra) o “fracaso” (lo contrario del éxito).
 b) Las probabilidades asociadas a cada uno de estos resultados son constantes, es decir no cambian.
c) Cada uno de los ensayos o repeticiones del experimento son independientes entre sí. d) El número de ensayos o repeticiones del experimento (n) es constante.




 3.4 Distribución Hipergeométrica.
 Es una distribución discreta relacionada con muestreos aleatorios y sin reemplazo. Supóngase que se tiene una población de N elementos de los cuales, d pertenecen a la categoría A y N-d a la B. La distribución hipergeométrica mide la probabilidad de obtener x elementos de la categoría A en una muestra sin reemplazo de n elementos de la población original.
 Ejemplo: en una urna hay 7 bolas blancas y 5 negras. Se sacan 4 bolas ¿Cuál es la probabilidad de que 3 sean blancas?
 Entonces:
 N = 12; N1 = 7; N2 = 5; k = 3; n = 4
Si aplicamos el modelo:
 Por lo tanto, P (x = 3) = 0,3535. Es decir, la probabilidad de sacar 3 bolas blancas es del 35,3%.

 3.4.1 Aproximación de la Hipergeometrica por la Binomial.
 En teoría de la probabilidad la distribución hipergeométrica es una distribución discreta relacionada con muestreos aleatorios y sin reemplazo. Supóngase que se tiene una población de N elementos de los cuales, d pertenecen a la categoría A y N-d a la B. La distribución hipergeométrica mide la probabilidad de obtener x elementos de la categoría A en una muestra de n elementos de la población original.
 La función de probabilidad de una variable aleatoria con distribución hipergeométrica puede deducirse a través de razonamientos combinatorios y es igual a
 Donde es el tamaño de población, es el tamaño de la muestra extraída, es el número de elementos en la población original que pertenecen a la categoría deseada y es el número de elementos en la muestra que pertenecen a dicha categoría. La notación hace referencia al coeficiente Binomial, es decir, el número de combinaciones posibles al seleccionar elementos de un total.

 3.5 Distribución Geométrica.
 Esta distribución toma en cuenta el número de veces que debe repetirse el experimento hasta que ocurra éxito por primera vez, en cuyo caso, termina de realizarse el experimento. Aquí sólo ocurre éxito una sola vez. No interesa cuántos veces se deba repetir el ensayo.
 Definición
 Diremos que una variable aleatoria X tiene distribución Geométrica si X representa “El número de veces que debe repetirse un experimento hasta que ocurra éxito por primera vez”.
 En este caso denotaremos por X à G (p), donde p, la probabilidad de éxito, constituye el parámetro de la distribución cuya función viene dada por
 Observaciones
 El experimento termina cuando ocurre éxito por primera vez
 El valor esperado de X, E(X) = 1/p
 La varianza de X, V(X) = q/p²
 Ejemplo
 Usemos la simulación:
 Suponga que muchos clientes ingresan a una tienda de artefactos. A cada uno de ellos se le ofrece artefacto en particular. La probabilidad de que un cliente compre dicho artefacto es 0.25. ¿Cuál será la probabilidad de que el primer cliente que compre el artefacto sea el vigésimo quinto cliente a quien se le ofreció el producto? Construya la distribución de probabilidad del número de clientes a quienes se les ofreció el producto hasta obtener una venta. Obtenga la gráfica de esta distribución.

Solución
 Paso 1: Generemos 25 números de 1 hasta 25 almacenándolo en C1 que será X. Para ello usamos - - y completamos la ventana con los datos indicados 

Paso 2: Usando la calculadora, ingresamos en C2, la expresión 0.25*(0.75) ** (C1-1)
 Paso 3: Observando la fila 25 encontramos p (25) = P(X = 25) = 0.000251 
Paso 4: La gráfica. Usemos la siguiente secuencia - . En la columna Y ingresamos p(x) o C2 y en X ingresamos C1 La gráfica obtenida será similar a la figura de la derecha. 

3.6 Distribución Multinomial.
 Este modelo se puede ver como una generalización del Binomial en el que, en lugar de tener dos posibles resultados, tenemos r resultados posibles.
 Supongamos que el resultado de una determinada experiencia puede ser r valores distintos: A1, A2,..., Ar cada uno de ellos con probabilidad p1, p2,..., pr, respectivamente.

 Si repetimos la experiencia n veces en condiciones independientes, podemos preguntarnos la probabilidad de que el suceso A1 aparezca k1 veces, el suceso A2, k2 veces y así sucesivamente:

 Al modelo estadístico que nos da dicha probabilidad se le denomina Multinomial, y su función de densidad viene dada por:

 Como se ve, el modelo Multinomial queda definido por los parámetros (n, p1, p2,..., pr). La fórmula anterior puede deducirse de forma análoga al caso Binomial. En realidad, si tomamos r = 2 tenemos exactamente el modelo Binomial.
 Se debe destacar que este modelo es un ejemplo de distribución multivariante, es decir, de distribución conjunta de varias (r) variables aleatorio. En efecto, si definimos la variable aleatoria X1 como número de veces que se produce el suceso A1 de un total de n experiencias, y así sucesivamente, tenemos un conjunto de r variables aleatorias discretas cuya función de densidad conjunta (valorada a la vez) viene definida por la anterior fórmula. Nótese que si consideramos cada una de estas variables Xi (i = 1, 2,..., r) por separado, su distribución es la Binomial de parámetros n y pi.
 Propiedades del experimento Multinomial:
 1. El experimento consiste en n pruebas idénticas.
 2. Hay k posibles resultados de cada prueba
 3. Las probabilidades de los k resultados, denotadas por p1, p2, p3,…..pk.se mantienen constantes a lo largo de todas las pruebas, donde p1 + p2 +… +pk=1
 4. Las pruebas son independientes
 5. Las variables aleatorias de interés son las cuentas y1, y2,…, yk en cada una de Las k categorías de clasificación P(y1, y2,…,yk ) = (p1)y1( p2)y2…(pk)yk Donde pi= probabilidad del resultado i en una sola prueba p1 + p2 +… +pk=1 n= y1, y2,…, yk = numero de pruebas yi=numero de ocurrencias del resultado i en n pruebas La media y la varianza de las variables Multinomial yi son, respectivamente μ=np1 σ=npi (1-pi)

 3.7 Distribución de Poisson
. La distribución de Poisson es una distribución de probabilidad discreta que expresa, a partir de una frecuencia de ocurrencia media, la probabilidad que ocurra un determinado número de eventos durante cierto periodo de tiempo.
 Propiedades
 La función de masa de la distribución de Poisson es:

 Donde 
• k es el número de ocurrencias del evento o fenómeno (la función nos da la probabilidad de que el evento suceda precisamente k veces). 
• λ es un parámetro positivo que representa el número de veces que se espera que ocurra el fenómeno durante un intervalo dado. Por ejemplo, si el suceso estudiado tiene lugar en promedio 4 veces por minuto y estamos interesados en la probabilidad de que ocurra k veces dentro de un intervalo de 10 minutos, usaremos un modelo de distribución de Poisson con λ = 10×4 = 40. 
• e es la base de los logaritmos naturales (e = 2,71828...) 
Tanto el valor esperado como la varianza de una variable aleatoria con distribución de Poisson son iguales a λ. Los momentos de orden superior son polinomios de Touchard en λ cuyos coeficientes tienen una interpretación combinatoria. De hecho, cuando el valor esperado de la distribución de Poisson es 1, entonces según la fórmula de Dobinski, el enésimo momento iguala al número de particiones de tamaño n. 

3.8 Aproximación de la Binomial por la de Poisson.
 En este caso se determinarán probabilidades de experimentos Binomiales, pero que dadas sus características, es posible aproximarlas con la distribución de Poisson, estas características son, n ¥® (n es muy grande) y p®0 (p es muy pequeña), por lo que:

 La expresión anterior solo se cumple cuando n ®¥ y p®0, solo en este caso, si esto no se cumple, la aproximación no se puede llevar a efecto, por lo que la fórmula a utilizar en este caso sería:
 Donde:
 l =m= npi = número esperado de éxitos = tasa promedio de éxitos
 n = número de repeticiones del experimento
 p = probabilidad de éxito = p (éxito)
 Una regla general aceptable es emplear esta aproximación si n³20 y p£0.05: sí n³100, la aproximación es generalmente excelente siempre y cuando np£10.
EJEMPLO 2.
 Un fabricante de maquinaria pesada tiene instalados en el campo 3840 generadores de gran tamaño con garantía. Sí la probabilidad de que cualquiera de ellos falle durante el año dado es de 1/1200 determine la probabilidad de que a) 4 generadores fallen durante el año en cuestión, b) que más 1 de un generador falle durante el año en cuestión.
 Solución:
 a) n = 3840 generadores
 p = 1/1200 = probabilidad de que un generador falle durante el año de garantía
 l = np = (3840) (1/1200) = 3.2 motores en promedio pueden fallar en el año de garantía
 x = variable que nos define el número de motores que pueden fallar en el año de garantía
 = 0, 1, 2, 3,....,3840 motores que pueden fallar en el año de garantía
 b) p(x=2, 3,4,....,3840;l=3.2)=1-p(x=0,1;l=3.2) =
=1- (0.04078 + 0.13048) = 0.82874

 3.9 Distribución Binomial Negativa.
 La distribución Binomial es una distribución de probabilidad discreta que incluye a la distribución de Pascal.
 El número de experimentos de Bernoulli de parámetro independientes realizados hasta la consecución del k-ésimo éxito es una variable aleatoria que tiene una distribución Binomial negativa con parámetros k y .
 La distribución geométrica es el caso concreto de la Binomial negativa cuando k=1.
 Propiedades:
 Su función de probabilidad es:
 Para enteros x mayores o iguales que k, donde .
 Su media es
 Si se piensa en el número de fracasos únicamente y
 Si se cuentan también los k-1 éxitos.
 Su varianza es
 En ambos casos.
Ejemplos:
Si la probabilidad de que un niño expuesto a una enfermedad contagiosa la contraiga es 0,40, ¿Cuál es la probabilidad de que el décimo niño expuesto a la enfermedad sea el tercero en contraerla? En este caso, X es el número de niños expuestos la enfermedad y
 La solución es:
 En un proceso de manufactura se sabe que un promedio de 1 en cada 10 productos es defectuoso, ¿cual es la probabilidad que el quinto (5) articulo examinado sea el primero (1) en estar defectuoso?. La solución es: X= artículos defectuosos P= 1/10 = 0,1 q= 1- 0,1 = 0,9 x= 5 ensayos K= 1 b*(5;1,0.1)=(5-1\1-1)(0.1)^1*(0.9)^5-1= b*(5;1,0.1)= 6.6% de probabilidad que el quinto elemento extraído sea el primero en estar defectuoso.

 3.10 Distribución Uniforme.
 La distribución uniforme continua es una familia de distribuciones de probabilidad para variables aleatorias continuas, tales que cada miembro de la familia, todos los intervalos de igual longitud en la distribución en su rango son igualmente probables. El dominio está definido por dos parámetros, a y b, que son sus valores mínimo y máximo. La distribución es a menudo escrita en forma abreviada como U(a, b)
 La función de distribución se obtiene integrando la función de densidad y viene dada por:


UNIDAD 2 FUNDAMENTOS DE PROBABILIDAD

2.1 CONJUNTO Y TECNICAS DE CONTEO. Podemos definir de manera intuitiva a un conjunto, como una colección o listado de objetos con características bien definidas que lo hace pertenecer a un grupo determinado. Para que exista un conjunto debe basarse en lo siguiente: • La colección de elementos debe estar bien definida. • Ningún elemento del conjunto se debe contar más de una vez, generalmente, estos elementos deben ser diferentes, si uno de ellos se repite se contará sólo una vez. • El orden en que se enumeran los elementos que carecen de importancia. • El orden en que se enumeran los elementos que carecen de importancia.

TIPOS DE CONJUNTOS CONJUNTO VACIÓ O NULO: Es aquel que no tiene elementos y se simboliza por Ø o { }. A = {x2 + 1 = 0 | x _ R} El conjunto A, es un conjunto vacío por que no hay ningún número real que satisfaga a x2+1 = 0 CONJUNTO UNIVERSAL: Es el conjunto de todos los elementos considerados en una población o universo, en un problema en especial. No es único, depende de la situación, denotado por U.

2.2 CONCEPTO CLASICO Y COMO FRECUENCIA RELATIVA. Concepto clásico Está basado en el concepto de resultados igualmente verosímiles y motivado por el denominado Principio de la Razón Insuficiente, el cual postula que si no existe un fundamento para preferir una entre varias posibilidades, todas deben ser consideradas equiprobables. Así, en el lanzamiento de una moneda perfecta la probabilidad de cara debe ser igual que la de cruz y, por tanto, ambas iguales a 1/2. De la misma manera, la probabilidad de cada uno de los seis sucesos elementales asociados al lanzamiento de un dado debe ser 1/6. Frecuencia relativa La frecuencia absoluta, es una medida que está influida por el tamaño de la muestra, al aumentar el tamaño de la muestra aumentará también el tamaño de la frecuencia absoluta. Esto hace que no sea una medida útil para poder comparar. Para esto es necesario introducir el concepto de frecuencia relativa, que es el cociente entre la frecuencia absoluta y el tamaño de la muestra. La denotaremos por fi. Donde N = Tamaño de la muestra

2.3 ESPACIO MUESTRAL Y EVENTOS. Espacio muestral Es el conjunto de todos los posibles resultados de una experiencia aleatoria, lo representaremos por E (o bien por la letra griega Ω). Por citar un caso a modo de ejemplo concreto: si la prueba se basa en arrojar un dado, el espacio muestral estará constituido por los puntos muestrales identificados como los números 1, 2, 3, 4, 5 y 6, ya que esos son los resultados posibles de la acción de tirar el dado. Por lo tanto, se puede establecer que el espacio muestral del experimento es U = {1, 2, 3, 4, 5, 6}. Los espacios muestrales pueden clasificarse como discretos (cuando la cantidad de sucesos elementales es finito o numerable) o continuos (en los casos en los cuales la cantidad de sucesos básicos posee carácter infinito y, por lo tanto, resulta imposible de contar). Tipos de eventos Un evento se denomina cierto si ocurre siempre, siendo igual al espacio muestral. Por lo tanto su probabilidad es 1. Un evento se denomina imposible si no puede ocurrir. Por lo tanto, su probabilidad es 0. Dos eventos se denominan complementarios cuando su unión da el espacio muestral y su intersección es vacía. La suma de las probabilidades de dos eventos complementarios es igual a 1. Se denomina Ac al evento complementario del evento A. Por ejemplo, la probabilidad de obtener un múltiplo de 3 al tirar un dado es , y la probabilidad de no obtener un múltiplo de 3 será de 2/3

 2.4 AXIOMAS Y TEOREMAS. Axioma. Un axioma es una premisa que, por considerarse evidente, se acepta sin demostración, como punto de partida para demostrar otras fórmulas. Tradicionalmente, los axiomas se eligen de entre las consideradas «verdades evidentes» porque permiten deducir las demás fórmulas.
EJEMPLOS: Axiomas básicos 1- El espacio tiene infinitos puntos, rectas y planos. 2- El plano tiene infinitos puntos y rectas. 3- La recta tiene infinitos puntos. 4- Por un punto pasan infinitas rectas. 5- Por una recta pasan infinitos planos. Los axiomas son ciertas fórmulas en un lenguaje que son universalmente válidas, esto es, fórmulas que son satisfechas por cualquier estructura y por cualquier función variable. Teoremas. Un teorema es una afirmación que puede ser demostrada dentro de un sistema formal. Demostrar teoremas es un asunto central en la matemática. Un teorema generalmente posee un número de premisas que deben ser enumeradas o aclaradas de antemano. Luego existe una conclusión, una afirmación matemática, la cual es verdadera bajo las condiciones dadas. El contenido informativo del teorema es la relación que existe entre la hipótesis y la tesis o conclusión. 2.4 EJEMPLO: Teorema de Pitágoras. En un triángulo rectángulo el cuadrado del lado más largo (la “hipotenusa”) es igual a la suma de los cuadrados de los otros dos lados (los catetos). Se establece en esta fórmula: a2 + b2 = c2

2.5 PROBABILIDAD CLASICA ESPACIO FINITO EQUIPARABLE. La probabilidad clásica El enfoque clásico o a priori de la probabilidad se basa en la consideración de que los resultados de un experimento son igualmente posibles. Empleando el punto de vista clásico, la probabilidad de que suceda un evento se calcula dividiendo el número de resultados favorables, entre el número de resultados posibles. Espacios finitos equiprobables Una de las suposiciones más usadas, cuando se calculan las probabilidades de eventos de un espacio muestral finito U, es afirmar que cada punto muestral de U tiene un mismo valor de probabilidad. Dicho de otra forma, si U consta de n elementos, entonces la probabilidad de cada uno de ellos es 1 / n . A estos espacios muéstrales se les denomina espacios finitos equiprobables (o uniformes).

2.6 PROBABILIDAD CONDICIONAL E INDEPENDIENTE. Probabilidad condicionada Es la probabilidad de que ocurra un evento A, sabiendo que también sucede otro evento B. La probabilidad condicional se escribe P (A|B), y se lee «la probabilidad de A dado B. No tiene por qué haber una relación causal o temporal entre A y B. A puede preceder en el tiempo a B, sucederlo o pueden ocurrir simultáneamente. A puede causar B, viceversa o pueden no tener relación causal. Las relaciones causales o temporales son nociones que no pertenecen al ámbito de la probabilidad. Pueden desempeñar un papel o no dependiendo de la interpretación que se le dé a los eventos. Probabilidad independiente Dos sucesos son independientes si la probabilidad de que ocurran ambos simultáneamente es igual al producto de las probabilidades de que ocurra cada uno de ellos, es decir, si A y B son dos sucesos, y P(A) y P (B) son las probabilidades de que ocurran respectivamente entonces:

2.7 TEOREMA DE BAYES. La interpretación más aceptada del teorema de Bayes, es que su estructura permite el calculo de probabilidades después de haber sido realizado un experimento (probabilidades aposteriori), basándose en el conocimiento de la ocurrencia de ciertos eventos que dependan del evento estudiado, o sea, se parte de probabilidades conocidas antes de efectuar el experimento (probabilidades apriori), las cuales son afectadas por las probabilidades propias del experimento (las que aparecen durante la ocurrencia del evento). Sea un conjunto de sucesos mutuamente excluyentes y exhaustivos, y tales que la probabilidad de cada uno de ellos es distinta de cero (0). Sea B un suceso cualquiera del que se conocen las probabilidades condicionales . Entonces, la probabilidad viene dada por la expresión: Donde: Son las probabilidades a priori. Es la probabilidad de en la hipótesis . Son las probabilidades a posteriori. Ejemplo. Una fábrica que produce material para la construcción tiene 3 máquinas, a las que se les denomina A, B y C. La máquina A produce tabique, la B adoquín y la C losetas. La máquina A produce el 50% de la producción total de la fábrica, la B el 30% y la C el 20%. Los porcentajes de artículos defectuosos producidos por las máquinas son, respectivamente, 3%, 4% y 5%. Si se selecciona un artículo al azar y se observa que es defectuoso, encontrar la probabilidad de que sea un tabique. Solución Definamos el evento D como sea un artículo defectuoso. De acuerdo a esto tenemos que: P(A) = 0.5 P(D | A) = 0.03 P(B) = 0.3 P(D | B) = 0.04 P(C) = 0.2 P(D | C) = 0.05 Si el artículo del que deseamos calcular la probabilidad es un tabique, significa que es producido por la máquina A. También observamos que en la solución solamente participan los artículos defectuosos, ya que se pone por condición esta característica. Por lo tanto:

 2.8 DISTRIBUCION MARGINAL CONJUNTA. Tengo dos variables aleatorias: X= (1,2,1) Y= (2,1,1) ¿Cómo se calcularían la distribución de probabilidad conjunta y la distribución de probabilidad marginal? Supongo que los dos conjuntos de valores X=(1,2,1) Y=(2,1,1) Representen los resultados de tres mediciones de las dos variables X, Y, y que los resultados vayan en pares, o sea: X = 1 con Y = 2 X = 2 con Y = 1 X = 1 con Y = 1 Como cada par de mediciones aparece 1 vez entre 3, la probabilidad conjunta es 1/3 por cada par (1, 2), (2, 1) y (1, 1), mientras el cuarto par posible, o sea (2, 2) tiene probabilidad 0. La distribución conjunta es entonces X\Y 1 2 ---------------- 1 | 1/3 1/3 2 | 1/3 0 Las distribuciones marginales son las distribuciones separadas de X e Y, y se obtienen de la tabla conjunta sumando las probabilidades por lineas horizontales y verticales: X P(X) 1 2/3 2 1/3 Y P(Y) 1 2/3 2 1/3


BIBLIOGRAFIA. http://www.itescam.edu.mx/principal/sylabus/fpdb/recursos/r48023.PDF http://probabilidadestadistic.blogspot.mx/2010/09/tecnicas-de-conteo.html http://yakoto.tripod.com/orochi/concepto_clasico.htm http://www.monografias.com/trabajos69/teoria-elemental-probabilidad/teoria-elemental-probabilidad.shtml http://thales.cica.es/rd/Recursos/rd99/ed99-0278-01/probab2.html http://www.ditutor.com/probabilidad/espacio_muestral.html http://definicion.de/espacio-muestral/ http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo2/B0C2m1t1.htm http://www.slideshare.net/neneantrox/22-probabilidad-de-aventos http://www.educarchile.cl/Portal.Base/Web/VerContenido.aspx?ID=137622 http://www.roberprof.com/2009/08/16/axiomas-y-teoremas/ http://geometriaytrigonometria.wordpress.com/2011/05/09/3-teorema-axioma-corolario/ http://www.sites.upiicsa.ipn.mx/polilibros/portal/Polilibros/P_terminados/Probabilidad/doc/Unidad%201/1.3.5.htm http://es.wikipedia.org/wiki/Teorema_de_Bayes http://colimp.blogspot.mx/2010/09/probabilidad-condicional-e.html

lunes, 11 de febrero de 2013

Representaciones Graficas



MEDIDAS DE ASIMETRIA Y CURTOSIS.
ASIMETRÍA
Es una medida de forma de una distribución que permite identificar y describir la manera como los datos tiende a reunirse de acuerdo con la frecuencia con que se hallen dentro de la distribución. Permite identificar las características de la distribución de datos sin necesidad de generar el gráfico.

MEDIDAS DE ASIMETRÍA
Coeficiente de Karl Pearson

Donde:
= media aritmética.
Md = Mediana.
s = desviación típica o estándar.
Nota:
El Coeficiente de Pearson varía entre -3 y 3
Si As < 0? la distribución será asimétrica negativa.
Si As = 0? la distribución será simétrica.
Si As > 0? la distribución será asimétrica positiva.

Medida de Yule Bowley o Medida Cuartílica

Donde:
= Cuartil uno;
= Cuartil dos = Mediana;
= Cuartil tres.
Nota:
La Medida de Bowley varía entre -1 y 1
Si As < 0? la distribución será asimétrica negativa.
Si As = 0? la distribución será simétrica.
Si As > 0? la distribución será asimétrica positiva.

Medida de Fisher
Para datos sin agrupar se emplea la siguiente fórmula:

Para datos agrupados en tablas de frecuencias se emplea la siguiente fórmula:

Para datos agrupados en intervalos se emplea la siguiente fórmula:

Donde:
= cada uno de los valores; n = número de datos; = media aritmética; f = frecuencia absoluta
= cubo de la desviación estándar poblacional; xm = marca de clase
Nota:
Si As < 0 ?Indica que existe presencia de la minoría de datos en la parte izquierda de la media, aunque en algunos casos no necesariamente indicará que la distribución sea asimétrica negativa
Si As = 0? la distribución será simétrica
Si As > 0? Indica que existe presencia de la minoría de datos en la parte derecha de la media, aunque en algunos casos no necesariamente indicará que la distribución sea asimétrica positiva.

CURTOSIS
La curtosis mide el grado de agudeza o achatamiento de una distribución con relación a la distribución normal, es decir, mide cuán puntiaguda es una distribución.

TIPOS DE CURTOSIS
La curtosis determina el grado de concentración que presentan los valores en la región central de la distribución. Así puede ser:

Leptocúrtica.- Existe una gran concentración.
Mesocúrtica.- Existe una concentración normal.
Platicúrtica.- Existe una baja concentración.


MEDIDAS DE CURTOSIS
Medida de Fisher
Para datos sin agrupar se emplea la siguiente fórmula:

Para datos agrupados en tablas de frecuencias se emplea la siguiente fórmula:

Para datos agrupados en intervalos se emplea la siguiente fórmula:

Donde:
= cada uno de los valores;
 n = número de datos; = media aritmética;
= Cuádruplo de la desviación estándar poblacional;
f = frecuencia absoluta;
xm = marca de clase
Nota:
Si a < 3 ? la distribución es platicútica
Si a = 3 ? la distribución es normal o mesocúrtica
Si a > 3 ? la distribución es leptocúrtica

Medida basada en Cuartiles y Percentiles

(Letra griega minúscula kappa) = Coeficiente percentil de curtosis
Nota:
Si < 0,263? la distribución es platicúrtica
Si =0,263? la distribución es normal o mesocúrtica
Si > 0,263? la distribución es leptocúrtica
Esta medida no es muy utilizada.


REPRESENTACIONES GRAFICAS.

En los análisis estadísticos, es frecuente utilizar representaciones visuales complementarias de las tablas que resumen los datos de estudio. Con estas representaciones, adaptadas en cada caso a la finalidad informativa que se persigue, se transmiten los resultados de los análisis de forma rápida, directa y comprensible para un conjunto amplio de personas.


DIAGRAMA DE DISPERCION.

La representación gráfica más útil para describir el comportamiento conjunto de dos variables es el diagrama de dispersión o nube de puntos, donde cada caso aparece representado como un punto en el plano definido por las variables y

El cuadro de diálogo siguiente recoge diferentes tipos de diagramas de dispersión.


Éstos pueden ser:
Simple: si el diagrama sólo recoge el comportamiento simultáneo de dos variables, una definida en el eje X (abscisas) y la otra en el eje Y (ordenadas). Con el botón Definir se abre el siguiente cuadro:


En Eje X se selecciona la variable que se considera independiente y en Eje Y la dependiente.
En Establecer marcas por puede indicarse alguna variable de control cuyas categorías o valores se representan con un símbolo o color distintivo. Esto permite identificar los puntos pertenecientes a cada categoría y poner de manifiesto si existen comportamientos diferenciados.
En Etiquetar los casos mediante se puede indicar alguna variable cuyos valores se tomarán como etiquetas de los casos. Para visualizar las etiquetas es preciso activar la opción Mostrar el gráfico con las etiquetas de caso del cuadro de diálogo Opciones.
El botón Títulos ofrece la posibilidad de definir dos líneas de título y un subtítulo, y dos líneas de nota al pie del gráfico.



Superpuestos: presenta dos o más parejas de variables en un mismo gráfico.


En Pares Y-X se indican las parejas de variables a representar seleccionándolas de dos en dos en la lista de variables. Si se quiere intercambiar X por Y se utiliza el botón Intercambiar par.
Etiquetar los casos mediante tiene la misma función que en el diagrama simple.
Los botones Titulos y Opciones ofrecen las mismas posibilidades ya vistas para el diagrama de dispersión simple.

Matricial: ofrece una matriz de diagramas de dispersión simples de todos los pares y todas las ordenaciones posibles que se pueden formar con las variables seleccionadas. En el cuadro de diálogo que aparece con el botón Definir se deben seleccionar las variables cuyos diagramas de dispersión simples aparecerán en la matriz.

3-D: proporciona en tres dimensiones el diagrama de dispersión de tres variables.
Si el diagrama de dispersión es Simple o Superpuesto se puede visualizar con la recta que mejor se ajusta a la nube de puntos. Para ello se edita el gráfico en el visor de resultados haciendo doble clic sobre el mismo.



En la barra de menú del editor de gráficos se activa Diseño > Opciones y se abre el cuadro de diálogo:


Se selecciona Ajustar línea > Total. En Opciones de ajuste se puede elegir el método de ajuste deseado entre: Regresión lineal (activado por defecto), Regresión cuadrática, Regresión cúbica y Minsce. También es posible incluir en el diagrama de dispersión una línea paralela al eje de abscisas que pasa por la media de la variable Y con la opción Línea de referenciapara la media en Y > Total.

Cuando el diagrama recoge un gran número de observaciones algunos puntos representan a más de un caso ya que estos se superponen . Con la opción Girasoles > Mostrar girasoles cada punto aparece con tantas rayas o 'pétalos' como casos representa. Ésta es una forma gráfica de indicar cuantos casos están representados por un punto.





DIAGRAMA DE TALLO Y HOJAS.
El diagrama "tallo y hojas" (Stem-and-Leaf Diagram) permite obtener simultáneamente una distribución de frecuencias de la variable y su representación gráfica. Para construirlo basta separar en cada dato el último dígito de la derecha (que constituye la hoja) del bloque de cifras restantes (que formará el tallo).
Esta representación de los datos es semejante a la de un histograma pero además de ser fáciles de elaborar, presentan más información que estos.

Edad de 20 personas (ejemplo)

Supongamos la siguiente distribución de frecuencias
                                              36  25  37  24  39  20  36  45  31  31
                                             39  24  29  23  41  40  33  24  34  40

Que representan la edad de un colectivo de N = 20 personas y que vamos a representar mediante un diagrama de Tallos y Hojas.
Comenzamos seleccionando los tallos que en nuestro caso son las cifras de decenas, es decir 3, 2, 4, que reordenadas son 2, 3 y 4.
A continuación efectuamos un recuento y vamos «añadiendo» cada hoja a su tallo
Por último reordenamos las hojas y hemos terminado el diagrama


HISTOGRAMA.

En estadística, un histograma es una representación gráfica de una variable en forma de barras, donde la superficie de cada barra es proporcional a la frecuencia de los valores representados. En el eje vertical se representan las frecuencias, y en el eje horizontal los valores de las variables, normalmente señalando las marcas de clase, es decir, la mitad del intervalo en el que están agrupados los datos.
Se utilizan para variables continuas o para variables discretas, con un gran número de datos, y que se han agrupado en clases.
Se utiliza cuando se estudia una variable continua, como franjas de edades o altura de la muestra, y, por comodidad, sus valores se agrupan en clases, es decir, valores continuos. En los casos en los que los datos son cualitativos (no-numéricos), como sexto grado de acuerdo o nivel de estudios, es preferible un diagrama de sectores.

 

Tipos de histograma


  • Diagramas de barras simples
Representa la frecuencia simple (absoluta o relativa) mediante la altura de la barra la cual es proporcional a la frecuencia simple de la categoría que representa.
  • Diagramas de barras compuesta
Se usa para representar la información de una tabla de doble entrada o sea a partir de dos variables, las cuales se representan así; la altura de la barra representa la frecuencia simple de las modalidades o categorías de la variable y esta altura es proporcional a la frecuencia simple de cada modalidad.
  • Diagramas de barras agrupadas
Se usa para representar la información de una tabla de doble entrada o sea a partir de dos variables, el cual es representado mediante un conjunto de barras como se clasifican respecto a las diferentes modalidades.
  • Polígono de frecuencias
Es un gráfico de líneas que de las frecuencias absolutas de los valores de una distribución en el cual la altura del punto asociado a un valor de las variables es proporcional a la frecuencia de dicho valor.
  • Ojiva porcentual
Es un gráfico acumulativo, el cual es muy útil cuando se quiere representar el rango porcentual de cada valor en una distribución de frecuencias.
                                        
OJIVAS.

Una distribución de frecuencia acumulativa nos permite ver cuantas observaciones se hallan por arriba o por debajo de ciertos valores, en lugar de limitarnos a anotar los números de elementos dentro de los intervalos. Por ejemplo, si queremos saber cuantos galones contienen menos de 17.0 ppm, podemos servirnos de una tabla que incluya frecuencias acumulativas “menores que” en nuestra muestra.

Distribución de frecuencia acumulativa “menor que” de las concentraciones de cloro en ppm
 

Se llama ojiva a la gráfica de una distribución de frecuencia acumulativa. La ojiva de una distribución de este tipo se muestra en la figura. Los puntos graficados representan la cantidad de galones que tienen menos cloro que las partes por millón indicadas sobre el eje horizontal.
Ojiva “menor que” de la distribución de las concentraciones de cloro en ppm para 30 galones de agua tratada.

En ocasiones la información que se utiliza se presenta a partir de frecuencias “mayores que”. La ojiva apropiada para tal información tendrá una pendiente hacia abajo y hacia la derecha.
También es posible construir una ojiva de una distribución de frecuencia relativa, de la misma manera que una absoluta.

POLIGONO DE FRECUENCIA.
Es el nombre que recibe una clase de gráfico que se crea a partir de un histograma de frecuencia. Estos histogramas emplean columnas verticales para reflejar frecuencias): el polígono de frecuencia es realizado uniendo los puntos de mayor altura de estas columnas.
Es decir, por tanto, podríamos establecer que un polígono de frecuencia es aquel que se forma a partir de la unión de los distintos puntos medios de las cimas de las columnas que configuran lo que es un histograma de frecuencia. Este se caracteriza porque utiliza siempre lo que son columnas de tipo vertical y porque nunca debe haber espacios entre lo que son unas y otras.
Se conoce como polígonos de frecuencia para datos agrupados a aquellos que se desarrollan mediante la marca de clase que tiene coincidencia con el punto medio de las distintas columnas del histograma. En el momento de la representación de todas las frecuencias que forman parte de una tabla de datos agrupados, se genera el histograma de frecuencias acumuladas que posibilita la diagramación del polígono correspondiente.
                                                           

El punto de más altura de un polígono de frecuencia equivale a la mayor frecuencia, mientras que el área que se sitúa debajo de la curva incluye todos los datos que existen. Cabe recordar que la frecuencia es la repetición mayor o menor de un evento, o el número de veces que un acontecimiento periódico se reitera en una unidad temporal.


DIAGRAMA DE CAJA Y EJES.
Una gráfica de este tipo consiste en una caja rectangular, donde los lados más largos muestran el recorrido intercuartílico. Este rectángulo está dividido por un segmento vertical que indica donde se posiciona la mediana y por lo tanto su relación con los cuartiles primero y tercero (recordemos que el segundo cuartil coincide con la mediana).
Esta caja se ubica a escala sobre un segmento que tiene como extremos los valores mínimo y máximo de la variable. Las líneas que sobresalen de la caja se llaman bigotes. Estos bigotes tienen tienen un límite de prolongación, de modo que cualquier dato o caso que no se encuentre dentro de este rango es marcado e identificado individualmente


Ejemplo distribución de edades
Utilizamos la ya usada distribución de frecuencias (en tallos y hojas), que representan la edad de un colectivo de 20 personas.
                                              36  25  37  24  39  20  36  45  31  31



                                              39  24  29  23  41  40  33  24  34  40

Ordenar los datos
Para calcular los parámetros estadístico, lo primero es ordenar la distribución
20  23  24  24  24  25  29  31  31  33  34  36  36  37  39  39  40  40  41  45
Calculo de Cuartiles
Q1, el cuartil Primero es el valor mayor que el 25% de los valores de la distribución. Como N = 20 resulta que N/4 = 5; el primer cuartil es la media aritmética de dicho valor y el siguiente:
Q1= (24 + 25) / 2 = 24,5
Q2, el Segundo Cuartil es, evidentemente, la mediana de la distribución, es el valor de la variable que ocupa el lugar central en un conjunto de datos ordenados. Como N/2 =10; la mediana es la media aritmética de dicho valor y el siguiente:
me= Q2 = (33 + 34)/ 2 =33,5
Q3 , el Tercer Cuartil, es el valor que sobrepasa al 75% de los valores de la distribución. En nuestro caso, como 3N / 4 = 15, resulta
Q2= (39 + 39) / 2 = 39
Dibujar la Caja y los Bigotes

El bigote de la izquierda representa al colectivo de edades (Xmín, Q1)
La primera parte de la caja a (Q1, Q2),
La segunda parte de la caja a (Q2, Q3)
El bigote de la derecha viene dado por (Q3, Xmáx).

Información del diagrama
Podemos obtener abundante información de una distribución a partir de estas representaciones. Veamos alguna:
  • La parte izquierda de la caja es mayor que la de la derecha; ello quiere decir que las edades comprendidas entre el 25% y el 50% de la población está más dispersa que entre el 50% y el 75%.
  • El bigote de la izquierda (Xmím, Q1) es más corto que el de la derecha; por ello el 25% de los más jóvenes están más concentrados que el 25% de los mayores.
  • El rango intercuartílico = Q3 - Q1 = 14,5; es decir, el 50% de la población está comprendido en 14,5 años.

DIAGRAMA DE SECTORES.
Un diagrama de sectores se puede utilizar para todo tipo de variables, pero se usa frecuentemente para las variables cualitativas.
Los datos se representan en un círculo, de modo que el ángulo de cada sector es proporcional a la frecuencia absoluta correspondiente.
El diagrama circular se construye con la ayuda de un transportador de ángulos.

Ejemplo

En una clase de 30 alumnos, 12 juegan a baloncesto, 3 practican la natación, 9 juegan al fútbol y el resto no practica ningún deporte.


Alumnos
Ángulo
Baloncesto
12
144°
Natación
3
36°
Fútbol
9
108°
Sin deporte
6
72°
Total
30
360°









BIBLIOGRAFIA

http://www.vitutor.com/estadistica/descriptiva/a_5.html