Marzo a Junio
Esta parte se basa en el estudio del libro Estadistica para los Negocios y la Economía de Paul Newbold
Introducción. Probabilidad e inferencia
Esta es la unidad de introducción solamente
Teoría de la probabilidad (Cap 3)
- Conceptos Básicos
- Experimento: tirar un dado
- Resultado: Sale un 3 (resultado básico)
- Espacio Muestral: todos los resultados posibles del experimento
- Suceso: Conjunto de algunos resultados básicos.
- Operaciones con sucesos: intersección, unión
-
- Tipos: colectivamente exhaustivos, mutuamente excluyentes, complementarios
- Probabilidad
- Puede ser Frecuencia Relativa
- Puede ser Probabilidad Subjetiva
- Postulados:
- Entre 0 y 1
- Prob de suceso A es la suma de los resultados básicos que lo componen
- Prob Espacio Muestral es 1
- Consecuencias del postulado:
- Si n Resultados Basicos Equiprobables. P(Ri) = 1 / n
- P(A) = na/n (equiprobables y A un suceso)
- P(A U B) = P(A) + P(B) (si son mutuamente excluyentes)
- Si Sucesos excluyentes y colectivamente exhaustivos, su suma es 1
- Leyes:
- P(Complementario A) = 1 - P(A)
- P(A U B) = P(A) + P(B) - P ( A ∩ B)
- P(A / B) = P (A ∩ B)/ P(B) y P(A ∩ B) = P (B/A) * P(A) = P (A/B) * P (B)
(producto de probabilidades)
- Si P(B/A) = P(B) entonces independencia estadística, o sea P(A ∩ B) = P(A) * P(B)
Teorema de Bayes: P(B/A) = P(A/B) * P(B) / P(A) (un suceso en función de otro)
Distribuciones de probabilidad (Cap 4 y 5)
- Variable Aleatoria: Valor númerico según experimento.
- Discreta (valores concretos) o Continua
- Función de Probabilidad: Px(x) = P (X = x) (masa de probabilidad). >0 y ∑Px(x) = 1
- Función de Probabilidad Acumulada Fx(xo) = ∑Px(x), para x < xo
- Valor Esperado E (X) = ∑x Px(x). Llamado media o μx
- Varianza σx² = E (X - μx)² ) = ∑(x - μx)² Px(x) = ∑xi² Px(x) - μx²
- Si Z = a + bx ⇒ μz = a + b μx y σz² = b²σx²
- Funcion de Probabilidad Conjunta Px,y(x,y) = P (X ∩ Y)
- Función de Probabilidad Marginal Px(x) ∑Px,y(x,y) para todo y
- X y Y son independientes si Px,y(x,y) = Px(x) Py(y)
- Covarianza Cov(x,y) = E ( (X-μx)(Y-μy) ) = ∑∑(x-μx)(y-μy)Px,y(x,y) = ∑∑x y Px,y(x,y) - μxμy
Si independientes ⇒ Cov(x,y) = 0 (pero no viceversa)
- Propiedades
- E (X ± Y) = μx ± μy
- Var (X & plusmn; Y) = σx² + σy² ± 2 Cov(X,Y), Si Independientes Cov(X,Y) = 0
- Distribuciones Discretas
- Bernouilli: Exito (p) ó Fracaso (1-p). μ=p, σ²= p (1-p)
- Binomial: n repeticiones independientes tipo Bernouilli. μ=np; σ²=n p (1 - p)
- Hipergeométrica (Binomial si N >>> n): n muestras de un conjunto de N elementos, S son éxitos. μ=n p y σ²=(N-n)/(N-1)*n p (1-p), con p=S/N
- Distribución de Poisson: ocurrencias dependen del tiempo, μ=λ y σ²=λ siendo λ numero medio de ocurrencias entre 0 y t
- Aproximación Poisson de Binomial: si np≤7 λ=np
- Conceptos Básicos similares a las Discretas: Px(x), Fx(x)
- Función de densidad fx(x): P(a < X < b) = Fx(b) - Fx(a) = Area debajo de la curva
- Variable Aleatoria: X - μ / &sigma tiene media 0 y varianza 1
- Distribuciones Continuas
- Teorema Central del Límite
Teoría de la estimación (Cap 6, 7 y 8)
- Población: todos los individuos
- Muestra: un subconjunto de la población
- Estimador: variable aleatoria en función de la muestra
- Estimadores habituales: media muestral, varianza muestral, proporción muestral, etc
- Distribución Muestral: es una variable aleatoria
- Error Estándar: σ/√n
- Media Muestral:
- Cálculo: 1/n*∑ Xi.
- μ = la poblacional,
- σ² muestral = σ² poblacional / n
- Para n < 6*N ⇒ σ² muestral = σ² poblacional / n * (N - n) / (N -1 )
- Proporción Muestral:
- Cálculo: X/n (X los que cumplen el criterio)
- μ=p
- σ²=p*(1-p)/n
- Para n < 6*N ⇒ σ² = p(1-p)/n * (N - n) / (N -1 )
- Varianza Muestral:
- Sx² = (1 / (n-1) ) * ∑ (Xi - Xest)²
- μ varianza = σ²
- Medidas de los Estimadores
- Sesgo = S(θ) = E (θ) - θ S(θ) = 0 ⇒ insesgado
- Si Var (θ1) < Var (θ2) ⇒ 1 más eficiente que 2
- Interesará conocer el estimador insesgado de mínima varianza (el más eficiente)
- Valor cuadrático Medio: E (θestimado - θ )² = S²(θestimado) - σ²(θ)
- Consistencia (con n infinito no hay error)
- Intervalos de Confianza
- Medidas de Calidad para los estimadores
- Intervalo de Confianza (1-α) * 100%
- z es Valor para α/2
- Media Muestral:
- X ± zα/2 * Sx / &radical;n. Z dist normal
- Población Pequeña, Z ⇒ t (Distribución Student, grado n-1 y α/2 )
- Proporcion Muestral: px ± zα/2 * &radical;(p (1-p)/n)
- Varianza Muestral:
- (n - 1) Sx² / σ² es χ²
- (n-1) * Sx² / χ² n-1 grados de libertad, pero cambia uso de α
- Diferencia de Medias (μx - μy)
- Datos Emparejados: d ± t Sd / √n
- Datos Independientes: (μx - μy) ± z √(σ²x/nx + (σ²y/ny)
- Diferencia de Proporciones: Revisar el texto
Contraste de hipótesis (Cap 9 y 11)
- Hipótesis Nula (H0): cierta a no ser que los datos digan lo contrario
- Hipótesis Alternativa (H1): se acepta al rechazar H0
- Pueden ser simples o compuestas (más de un valor), unilaterales / bilaterales
- Tipos de Errores:
- Tipo I: rechazar H0 siendo cierta. Prob α nivel de significación
- Tipo II: aceptar H0 siendo falsa. Prob β potencia del contraste
- media de población normal y σ conocida
- Z = Med X - μo/(&sigma/&radical;n). Sigue una N(0,1)
- P(Z > z0) = α
- Según H0 la comparación pues ser < z0 ó < - z0 ó > z0 y < - z0
- Si n > 30 entonces aunque la distribución no sea normal, vale lo anterior (Teor Limite)
- media de población normal y σdesconocida. Considerar t = X - μ / (Sx/√n). t de Student, n-1 grados de libertad
- varianza de distribución normal. Considerar que χ² = (n - 1) * S²x / σ²
- proporción poblacional. Considerar que Z = (px - p) / √(p (1 - p)/n)
- diferencia de medias (según datos pareados o independientes)
- diferencia entre proporciones
- igualdad de varianzas
- Constraste sobre Distribuciones: Método χ²
Muestreo (Cap 18)
- Muestreo Aleatorio Simple:
- independientes y equiprobables
- Estimador Media: 1/n*∑xi
- Estimador Varianza: s²/n * (N - n) / N
- Intervalo Confianza X ± z * Estσ
- Población total:
- Estimacion Media: N * μ
- Estimación Varianza: s²/n * N * (N - n )
- Intervalo Confianza para Nμ NX ± z*N*Estimσ
- Proporción Muestral:
- Estimador Media: p
- Estimador Varianza: p(1-p)/(n-1) * (N - n)/N
- Intervalo de Confianza: p ± z * Estimσ
- Muestreo Estratificado:
- N individuos en K grupos de n muestras cada grupo
- Estim μi = xi
- Estimador σi = s²i/n* (Ni - ni)/Ni
- Estim μpoblacional = 1/N*∑Ni²* σ²i, con σ²i,= S²i/n * (Ni - ni)/Ni
- Intervalo de Confianza Estimador μpoblacional ± z * σpoblacional
- Proporción Poblacional:
- Estimador media = 1/N * ∑Ni*pi (pi estimador media de cada estrato)
- Estimador Varianza = 1/N²*∑N²i * σ²i, con σ²i = pi (1 - pi)/(ni - 1) * (Ni - ni)/Ni
- Intervalo de Confianza Estimador p poblacional ± z * σp poblacional
- Tamaños Muestrales:
- Como determinar el tamaño del estrato?
- Asignación Proporcional: ni = Ni/N * n
- Asignación Óptima: ni = n * Ni * σi/∑(Nj * σj)
Analisis de Varianza y Diseño de experimentos (Cap 15)
- El diseño del experimento influye en la decisión
- Diseño por parejas vs Muestras Independientes
- Análisis de Varianza: para ver la variabilidad de los datos
- Un factor:
- Ho: medias de cada grupo iguales
- Suma de Cuadrados:
- Dentro de los Grupos SCD=∑∑(xij - Media i)²
- Entre Grupos SCG= ∑ni(Media xi - Media)²
- Total SCT= ∑∑(xij - Media)²
- SCT = SCD + SCG
- Cuadrados Medios
- CMD = SCD / (n - K) , K grupos, n muestras
- CMG = SCG / (K - 1)
- Rechazar Ho si CMG / CMD > Fk-1,n-k,α
- Tabla de análisis de varianza
- Dos Factores:
- n=KH, K grupos, H bloques
- SCT = SCG (entre grupos) + SCB (entre bloques) + SCE (error)
- Rechazar Ho si CMG / CME > Fk-1,(k-1)*(h-1),α ó si CMB / CME > Fh-1,(k-1)*(h-1),α
- Tabla de análisis de la varianza de dos factores
Control de Calidad (Cap 16)
- Controlar el Proceso y Controlar la Calidad
- Gráficos de Control
- Grafico X (medias): Muestras de las medias en el tiempo
- Gráfico S (stdev): Muestras de la desviación estándar en el tiempo
- K el número de muestras y n el número de observaciones en cada muestra
- E(s) = c4 σ c4 depende de n (Estimador Insesgado de σ )
- Falsa Alarma: a
- 3σ de la media. Si es Normal, probabilidad de 0,0028
- Límite Control de Medias: x ± A3 * s (A3 depende de n)
- Límite de Control de Desv Estandar: LCI= B3 * s, LCS= B4 * s
- Comportamientos Anómalos:
- Valores Fuera de los límites de control
- Variabilidad Excesiva
- Existencia de Tendencias
- Ojo a los datos poco fiables
- Límite de Control de Proporciones: p ± √(p*(1-p)/n)