Altillo.com > Exámenes > UBA - Económicas > Estadística
Estadística |
Resumen para el Segundo Parcial |
Cátedra: Capriglioni |
Prof: Cristian Kaplan | 1º Cuat. de 2012 | Altillo.com |
Variables aleatorias
Los resultados de los experimentos aleatorios, cualesquiera que sean, tienen que
estar expresados cuantitativamente. Para ello, hay que contar con métodos
capaces de definir reglas precisas que asignen números reales a los resultados
de los experimentos aleatorios, teniendo en cuenta que se quiere medir y como se
quiere medir.
Variable aleatoria: Es una función, o regla bien definida, que asigna, a cada
elemento del espacio muestral, un vector perteneciente a un espacio vectorial.
Variables aleatoria unidimensional: Cuando, a cada elemento del espacio muestral,
se asigna un escalar perteneciente al conjunto de números reales.
Recorrido de una variable aleatoria unidimensional: Conjunto formado por los
números reales que se pueden asignar a dicha variable.
Es conveniente recalcar el hecho de que se puede concebir una variable aleatoria
de dos maneras:
• Se realiza un Experimento aleatorio E que tiene un resultado u=U, y luego se
le asigna a este resultado el valor numérico x(U)€R
• Se realiza un experimento aleatorio E que tiene un resultado u=U. Si la
observación consiste en realizar mediciones cuantitativas, el resultado u, es un
número real. Si la unidad de medida correspondiente a dicho resultado coincide
con “como se quiere medir” o sea, la unidad de medida de la variable aleatoria
definida, entonces, u es igual a x(u), y U es igual a R(x). Si la unidad de
medida de la magnitud de la variable no coincide con la medición realizada son
dos números reales distintos.
Variable aleatoria discreta unidimensional: Es aquella variable aleatoria cuyo
recorrido es finito o infinito numerable.
Distribución de probabilidad univariada
Funciona de probabilidad puntual: Asigna a cada valor del recorrido de dicha
variable, un numero real no negativo, llamado probabilidad puntual, de modo tal
que la suma de todos estos valores, a través del recorrido de la variable , debe
será igual a la unidad. Debe cumplir dos condiciones:
1) Condición de no negatividad; El número real asignado debe ser no negativo.
2) Condición de cierre: La suma de todos los números reales asignados por la
función de probabilidad puntual, a cada valor de la variable discreta, debe ser
igual a uno.
Una variable discreta, X, queda estrictamente definida cuando se establece su
función de probabilidad puntual. La función de probabilidad puntual puede ser
graficada utilizando las coordenadas ortogonales, donde los valores de la
variable se ubican en el eje de abscisas y los correspondientes valores puntual,
en el eje de ordenadas. (Grafico de Bastones)
Función de distribución: Función que asigna a cada valor del recorrido, un
número real que representa la suma de todas las probabilidades puntuales, desde
el primero hasta el valor en cuestión.
La función de distribución acumulada puede ser graficada utilizando las
coordenadas cartesianas ortogonales, donde los valores de la variable se ubican
en el eje de abscisas y los correspondientes valores de probabilidad acumulada,
en el eje de ordenadas. (Grafico escalonado)
El conjunto de pares ordenados {Xi; F(Xi)}, para todo i, se llama función de
distribución de probabilidad. Es la distribución acumulada hasta un valor de la
variable, o simplemente Distribución acumulada.
Función de distribución complementaria: Función que asigna a cada valor del
recorrido, un número real que representa la suma de todas las probabilidades
puntuales, desde el valor en cuestión hasta el último.
El conjunto de pares ordenados {Xi; G(Xi)}, para todo i, se llama función de
distribución complementaria de probabilidad. Es la distribución acumulada desde
un valor de la variable, o simplemente Distribución desacumulada.
• La suma entre el valor de la función de distribución correspondiente a un
valor de la variable y el valor de la función de distribución complementaria
correspondiente al siguiente valor de la variable, es siempre igual a uno.
Percentiles
Percentil de orden K (O<K<100 / K€r) de una variable aleatoria discreta a un
valor Xk, tal que, hasta el valor de variable inmediato anterior, se acumule, a
lo sumo, una probabilidad igual a K/100 y, desde el valor de variable inmediato
posterior se acumule, a lo sumo, una probabilidad igual a (1-K/100).
Variables aleatorias continuas unidimensionales
Las variables continuas por tener un recorrido infinito no numerable, no
permiten una clasificación puntual de sus valores, sino que su análisis debe
hacerse utilizando intervalos de clase. También, el histograma de las
frecuencias relativas simples, debe cubrir una superficie igual a uno.
Por otro lado, la cantidad de intervalos de clase que se necesitan para
clasificar a las unidades experimentales dentro de la amplitud total, depende de
la cantidad de observaciones. Si esta cantidad tiende a infinito,
consecuentemente la amplitud de cada intervalo tiende a cero.
Una variable con recorrido infinito no numerable es una variable aleatoria
continua en un determinado intervalo de números reales, si existe una función
real que en dicho intervalo, cumpla con las siguientes dos condiciones: Sea no
negativa y cubra una superficie igual a 1.
Función de densidad de probabilidad: Es la función real que cumple con la
condición de no negatividad y con la condición de cierre.
Una variable aleatoria continua queda definida cuando se conoce su función de
densidad de probabilidad. Una función de densidad de probabilidad está definida
únicamente en el recorrido de la variable aleatoria, o sea, el intervalo {a;b},
fuera de este intervalo dicha función es nula.
La función de densidad de probabilidad de una variable aleatoria continua
explica el comportamiento probabilístico de esta variable.
Con la función de densidad de probabilidad es posible calcular la probabilidad
de ocurrencia de los valores de una variable aleatoria continua, teniendo en
cuenta las siguientes reglas:
• Dados dos valores de la variable continua X, X1<X2 que pertenezcan al
intervalo {a;b} la probabilidad de encontrar un valor de la variable entre ellos
esta dadas por la superficie que encierra la función entre dichos puntos.
• La probabilidad de que la variable X tome un valor individual X3 es nula. En
un punto no hay superficie.
• Si la probabilidad puntual es igual a cero, cuando se calcula la probabilidad
de que un valor de la variable pertenezca a un intervalo determinado, es
indistinto que este sea cerrado o abierto.
Función de distribución
Sea X una variable aleatoria continua con función de densidad de probabilidad
f(x) definida en el intervalo de números reales {a;b}. Se llama función de
distribución, F(x), a un modelo matemático o función no decreciente, que asigna
a cada valor de la variable aleatoria un valor de probabilidad acumulada desde
el límite inferior del recorrido, hasta ese valor.
Función de distribución complementaria
Sea X una variable aleatoria continua con función de densidad de probabilidad
f(x) definida en el intervalo de números reales {a;b}. Se llama función de
distribución complementaria, G(x), a un modelo matemático o función no
creciente, que asigna a cada valor de la variable aleatoria un valor de
probabilidad acumulada desde un valor de la variable, hasta el límite superior
del recorrido.
La suma entre el valor de la función de distribución correspondiente a un valor
de la variable y el valor de la función de distribución complementaria
correspondiente a dicho valor de la variable es igual a uno.
Percentil de orden K (O<K<100 / K€r) de una variable aleatoria continua al valor
de la variable Xk, donde se acumule, una probabilidad igual a K/100.
Es posible obtener una función de proporciones lo percentiles (o fractiles)
buscando la inversa de la función de distribución. Esta función recibe el nombre
de Función percentilar.
La función de distribución surge de integrar la función de densidad de
probabilidad de la variable aleatoria continua utilizando como límite inferior
de integración el límite inferior del recorrido, y como límite superior de
integración, el valor de la variable.
Momentos teóricos
Una función de probabilidad o una función de densidad de probabilidad, por ser
Modelos Matemáticos, son Modelos Teóricos. Con estas funciones se puede predecir
el comportamiento probabilístico de las variables aleatorias. Permiten calcular
valores teóricos relacionados con dichas variables. Valores que se esperan, en
promedio, si el experimento aleatorio se desarrolla bajo las mismas condiciones.
Se llama Momento de una variable aleatoria al valor esperado o esperanza
matemática de una función de la variable.
Se llama Momento o esperanza matemática de una función generada con una variable
aleatoria discreta, a la suma del producto de cada valor numérico de la función
por el correspondiente valor de probabilidad puntual, a través del recorrido de
la variable.
Se llama Esperanza matemática de una función generada con una variable aleatoria
continua, a la integral, a través del recorrido de la variable, del producto de
la función dada por la función de densidad de probabilidad de la variable.
Momento absoluto de orden K: Es la esperanza matemática de la potencia K-esima
de la variable aleatoria.
El momento absoluto de orden 1 es el promedio o media aritmética esperada de la
variable aleatoria. La interpretación del promedio esperado o media aritmética
esperada es el valor que se espera obtener, en promedio, si el experimento es
repetido bajo las mismas condiciones, una cantidad muy grande de veces.
Momento centrado teórico de orden K: Es la esperanza matemática de la potencia
k-esima de la desviación de la variable aleatoria con respecto a la media
aritmética esperada.
El momento centrado de orden 2 es la varianza esperada de la variable aleatoria.
Función generatriz de momentos
Sea X una variable aleatoria y t una variable real, no aleatoria, se llama
función generatriz de momentos de la variable X, a la esperanza matemática de la
potencia X.t del numero E.
• La función generatriz de momentos es única y determina por completo la
distribución de probabilidad de una variable aleatoria. Esto quiere decir que si
dos variables tienen la misma función generatriz de momentos, entonces tienen la
misma distribución de probabilidad.
• El momento absoluto de orden K se obtiene realizando la derivada k-esima de la
función generatriz de momentos, con respecto a la variable t y valorizando dicha
derivada en el origen de la variable t(t=0)
Desvío estándar: Es la raíz cuadrada positiva de la varianza esperada.
Coeficiente de variación: Es el cociente entre el desvío estándar y el promedio
o media aritmética esperada.
Mediana:
• De una variable aleatoria discreta es el valor tal que, hasta el valor de
variable inmediato anterior, se acumule, a lo sumo, una probabilidad de 0,50 y
desde el valor de variable inmediato posterior se acumule, a lo sumo, una
probabilidad de 0,50.
• De una variable aleatoria continua al valor de la variable hasta donde se
acumula una probabilidad exactamente igual a 0,50.
Modo:
• De una variable aleatoria discreta al valor de la variable mas probable, o de
máxima probabilidad, dentro de un entorno de dicho valor. Si todos los valores
de una variable aleatoria discreta tienen igual valor de probabilidad puntual
entonces no existe modo.
• De una variable aleatoria continua al valor de la variable con el que la
función de densidad de probabilidad alcanza un máximo relativo.
Coeficiente de asimetría
• Función de probabilidad: Una distribución de probabilidad de una variable
discreta es simétrica, si las probabilidades puntuales correspondientes a
valores de la variable que equidistan de la media aritmética esperada son
iguales
• Función de densidad de probabilidad: Una distribución de probabilidad de una
variable continua es simétrica, si las imágenes de la función de densidad de
probabilidad correspondientes a valores de la variable que equidisten de la
media aritmética esperada son iguales.
Propiedades del promedio y de la varianza
• El promedio esperado de una constante, es la constante misma y la varianza
esperada de una constante es nula.
• El promedio esperado de la suma de una constante mas una variable, es igual a
la constante mas el promedio esperado de la variable y la varianza de la suma de
una constante mas una variable es igual a la varianza de la variable.
• La esperanza matemática o promedio del producto de una constante por una
variable, es igual al producto entre la constante y la esperanza matemática o
promedio de la variable y la varianza del producto de una constante por una
variable es igual al producto entre el cuadrado de la constante y la varianza de
la variable.
Teorema de tchebycheff
Sea X una variable aleatoria, discreta o continua, con esperanza matemática
finita y varianza finita, y sea K un número real positivo mayor a uno.
Cualquiera sea la distribución de probabilidad de la variable aleatoria X,
siempre se cumple que:
La probabilidad de que, el modulo de la desviación ente un valor de la variable
y el promedio esperado, sea mayor o igual, a k veces el desvío estándar (K>1),
es a lo sumo 1/K₂
Variable estandarizada
Se llama variable estandarizada de una variable aleatoria, discreta o continua,
a la variable que se genera haciendo el cociente entre, la diferencia entre la
variable original y su esperanza matemática, y la raíz cuadrada positiva de la
varianza. Toda variable aleatoria estandarizada, tiene esperanza igual a cero y
varianza igual a uno, cualquiera sea la naturaleza de la variable original que
se está estandarizando.
Aplicaciones de la variable estandarizada
Estandarizar una variable aleatoria, la variable original, es transformar los
valores de ella, que están expresados en unidades de la magnitud original, a
valores en unidades de desvió estándar. En otras palabras, el valor de la
variable estandarizada indica a qué distancia, a cuantos desvíos estándares, y
en qué posición (izquierda o derecha) se encuentra el correspondiente valor
observado de la variable en estudio, con respecto a su media aritmética.
Esta transformación hace posible que se pueda comparar la desviación con
respecto al promedio aritmético, de valores individuales correspondientes a
variables aleatorias que representan distintas circunstancias, o distintos
grupos, o medidas en distintas unidades de magnitudes.
Leyes de probabilidad específicas
Experimento aleatorio dicotómico: Aquel experimento aleatorio cuyo espacio
muestral tiene solo dos resultados posibles mutuamente excluyentes.
Permutaciones: Dado un conjunto formado por n elementos, se llama permutación de
n a cualquier arreglo ordenado de los n elementos. La cantidad de permutaciones
que se pueden formar ordenando los n elementos de distinta manera, se calcula
con un numero llamado factorial de n.
Espacio continuo: Es un recinto de infinitos puntos donde en cualquiera de ellos
es posible encontrar un elemento. Son las magnitudes (longitud; superficie;
tiempo)
Distribución de Bernoulli: Es una función que proporciona valores de
probabilidad a una variable aleatoria discreta que denota la presencia o
ausencia de un determinado atributo. Si el atributo no se presenta, se asigna a
la variable el valor cero; si el atributo se presenta se asigna a la variable el
valor uno.
La cantidad de elementos con un determinado atributo que se presenta en una
observación de un experimento aleatorio dicotómico, es una variable aleatoria
discreta, r, cuya función de probabilidad es llamada distribución de bernoulli.
Repetición de un experimento aleatorio dicotómico: Cada vez que el experimento
aleatorio dicotómico se repite, los elementos que tengan el atributo que se está
considerando pueden presentarse o no, es aleatorio, entonces, en las n
repeticiones del experimento, habrá algunos elementos que tengan el atributo, o
puede ser que ninguno tenga el atributo, o todos tengan el atributo.
Distribución Hipergeometrica:
• Modelo probabilístico para una variable aleatoria discreta.
• Modelo que corresponde a aquellos experimentos aleatorios donde se realizan
sucesivas observaciones de unidades experimentales sin reposición.
• La no reposición provoca un cambio en el valor de probabilidad de ocurrencia
del atributo por tal motivo las observaciones no son independientes.
• Las n repeticiones del experimento aleatorio dicotómico no son independientes,
o sea, la probabilidad de que se presente un elemento con un determinado
atributo no permanece constante a través de las n observaciones.
La cantidad de elementos con un determinado atributo, que se presentan en n
observaciones dependientes de un experimento aleatorio dicotómico, es una
variable aleatoria discreta, r, cuya función de probabilidad es llamada
distribución hipergeometrica.
Distribución Binomial
• Las n observaciones son independientes: la probabilidad de que se presente un
elemento con un determinado atributo permanece constante a través de las n
pruebas.
La cantidad de elementos con un determinado atributo, que se presentan en n
observaciones independientes de un experimento aleatorio dicotómico, es una
variable aleatoria discreta, r, cuya función de probabilidad es llamada
distribución binomial.
Distribución geométrica
• La variable aleatoria es la cantidad de repeticiones independientes del
experimento que son necesarias para encontrar un elemento que tenga un
determinado atributo.
• Si n es la cantidad de observaciones o repeticiones independientes del
experimento aleatorio dicotómico, entonces en las primeras (n-1) observaciones
no se tiene que haber presentado el elemento con el atributo.
La cantidad de observaciones independientes de un experimento aleatorio
dicotómico necesarias para encontrar 1 elementos con un determinado atributo, es
una variable aleatoria discreta, ñ, cuya función de probabilidad es llamada
distribución geométrica
Distribución Pascal
• La variable aleatoria es la cantidad de repeticiones del experimento pero que
son necesarias para encontrar una cantidad fija, mayor a uno, de elementos que
tengan un determinado atributo.
• Esta variable es útil cuando se quieren concreta algunos trabajos de
investigación, o tener una correcta información acerca de determinadas
situaciones, donde es necesario contar con una cantidad fija de elementos que
tengan un determinado atributo. Para ello, habrá que repetir el experimento
aleatorio tantas veces como sea necesario. Es decir, se observan unidades
experimentales sucesivamente hasta conseguir la cantidad con atributo que se
necesita, y recién, cuando ello se logra, se detienen las pruebas.
La cantidad de observaciones independientes de un experimento aleatorio
dicotómico necesarias para encontrar r elementos con un determinado atributo, es
una variable aleatoria discreta, ñ, cuya función de probabilidad es llamada
distribución pascal.
Relación entre la distribución de pascal y la distribución binomial
Los valores de probabilidad puntual de la distribución de pascal se pueden
obtener a partir de la distribución binomial.
Si hay que encontrar exactamente r elementos que tengan un determinado atributo,
o sea r éxitos, y para ello hay que hacer exactamente n pruebas, necesariamente,
el último éxito encontrado, debe coincidir con el último elemento observado,
porque cuando se lo encuentra se detienen las pruebas.
Los (r-1) primeros éxitos pueden obtenerse en cualquiera de las primeras (n-1)
pruebas independientes, pero el r-esimo éxito debe estar en la n-esima
observación.
Para calcular la probabilidad de encontrar (r-1) éxitos en (n-1) observaciones
independientes, hay que utilizar la distribución binomial. Si esta probabilidad
se multiplica por p, o sea por la probabilidad de encontrar el r-esimo éxito que
falta se obtiene el mismo valor de probabilidad que el que se obtiene cuando se
calcula usando la distribución de Pascal.
Distribución de Poisson
La distribución que se estudia en este punto se origino en el estudio de la
cantidad de elementos (personas, automóviles, llamadas telefónicas, etc.) que
arriban en un determinado periodo de tiempo. Posteriormente el análisis fue
generalizado para otros espacios continuos.
Dado un espacio muestral continuo de extensión t. En dicho continuo ocurren
ciertos acontecimientos en forma aleatoria formando una secuencia o flujo de
acontecimientos. Se supone que este flujo de acontecimientos satisfaces las
siguientes condiciones:
1) Sean (t1;t2) y (t3;t4) dos intervalos cualesquiera del continuo, no
superpuestos y estadísticamente independientes, o sea que la probabilidad de que
se produzcan acontecimientos en uno de los intervalos, no depende de los que
ocurrieron en el otro.
2) La probabilidad de que un acontecimiento se produzca en un intervalo
infinitesimal (t0;t0+∆t) es un infinitésimo de orden ∆t.
3) La probabilidad de que se produzcan dos o más acontecimiento en el intervalo
infinitesimal (t0;t0+∆t) es un infinitésimo de orden ∆t.
4) Los acontecimientos ocurren con una tasa media o frecuencia media o promedio
de presentación en el continuo conocido.
La cantidad de acontecimientos que se presentan en un continuo es una variable
aleatoria discreta.
La cantidad de elementos que se presentan al azar en un continuo de extensión t,
y con un promedio de presentación en el continuo igual a , es una variable
aleatoria discreta, r~, cuya función de probabilidad es llamada distribución de
Poisson.
Aproximación de la distribución hipergeometrica a la distribución Binomial
Cuando hay que calcular un valor de probabilidad para una variable con
distribución hipergeometrica, frecuentemente, el tamaño del universo N es una
cantidad grande en relación con la cantidad de observación n. Tan grande es, que
el numero combinatorio se torna incalculable con los métodos corrientes. Cuando
ello ocurre, el cálculo de las probabilidades de la distribución hipergeometrica
se hace utilizando la distribución binomial.
El límite de la distribución hipergeometrica, cuando el tamaño del universo N
tiende a infinito, es la distribución binomial. Esto quiere decir que, si el
tamaño del universo es suficientemente grande, con relación al número de
observaciones, aun cuando las observaciones sean sin reposición, los valores de
probabilidad puntual de la distribución hipergeometrica se pueden calcular,
aproximadamente con la distribución binomial.
Aproximación de la distribución binomial a la distribución de Poisson
Cuando hay que calcular un valor de probabilidad para una variable con
Distribución binomial, puede ocurrir que la cantidad de observaciones n, sea
grande y la probabilidad de encontrar un elemento con el atributo p, sea
pequeña. Si n es muy grande el número combinatorio se torna incalculable con los
métodos corrientes. Si p es muy pequeño, la potencia es prácticamente cero.
El límite de la distribución binomial, cuando la cantidad de observaciones n
tiende a infinito y la probabilidad de que se presente un elemento con un
determinado atributo p tiene a 0 es la distribución de Poisson.
Esto quiere decir que, si la cantidad de observación es suficientemente grande y
la probabilidad de encontrar un elemento con un determinado atributo es
suficientemente chica, los valores de probabilidad puntual de la distribución
binomial, se pueden calcular, aproximadamente, con la distribución de Poisson.
Variables aleatorias continuas
Para poder estudiar el comportamiento probabilístico de una variable aleatoria
continua, calcular los momentos, calcular los valores de probabilidad dentro de
un intervalo dado, etc. Es necesario conocer cuál es la función de densidad de
probabilidad que las define.
Algunas variables están definidas por funciones de densidad de probabilidad
cuyas ecuaciones tienen ciertas características especiales y por ello se les ha
asignado un nombre con el que se las reconoce.
Distribución Uniforme
Una variable aleatoria continua X, definida en el intervalo de números reales
{a;b} tiene distribución uniforme si su función de densidad de probabilidad es
Características
1) a y b son los parámetros matemáticos de la función.
2) Por ser función de densidad de probabilidad la función de densidad uniforme
cumple con la condición de no negatividad y con la condición de cierre.
3) La función de distribución de la distribución uniforme es:
4) La función percentilar de la distribución uniforme es:
5) La función generatriz de Momentos es:
6) La esperanza matemática o promedio aritmético de la variable es
7) La varianza esperada de la variable es:
8) Dado que la función de densidad de probabilidad de la distribución uniforme
es simétrica se verifica que:
9) Dado que la función de densidad de probabilidad de la distribución uniforme
no tiene máximo relativo entonces la variable no tiene Modo.
Distribución Normal
La distribución normal es quizá, una de las más importantes, dado que es un
modelo teórico que se presenta con extraordinaria frecuencia como función de
densidad de probabilidad de las variables aleatorias continuas que se estudian
en todas las ciencias. No obstante, es necesario verificar, mediante
metodologías que se estudiaran en cursos más avanzados, la validez de la
“normalidad” en las variables que se analizan, para evitar errores en las
decisiones.
Por otro lado, la distribución normal posee importantes propiedades que permiten
analizar el comportamiento de variables originadas en la suma o diferencia de
otras variables; como así también, bajo ciertas condiciones, puede ser utilizada
como aproximación de funciones de probabilidad para variables aleatorias
discretas.
Una variable aleatoria continua X, definida para todos los números reales, tiene
distribución normal, si su función de densidad de probabilidad es
Características
1) Los números µ y ∂ de la función de densidad normal son los parámetros
matemáticos de la función
2) La función de densidad normal alcanza un máximo relativo cuando x= µ
3) La función de densidad normal tiene dos puntos de inflexión cuando:
X= µ - ∂ X= µ + ∂
4) La función de densidad normal es simétrica con respecto al punto de máxima
ordenada
5) La función de densidad normal es asíntota al eje de abscisa.
Variable normal estandarizada o tipificada
El valor de la función de distribución de una variable aleatoria con
distribución normal, para el valor x, es igual al valor de la función de
distribución de la variable estandarizada Z con distribución normal, para el
correspondiente valor.
Si x se distribuye normalmente con media mu y varianza sigma cuadrado, entonces
X se distribuye normalmente con media cero y varianza uno
Función de distribución de la variable estandarizada
Los valores de la función de distribución de la variable estandarizada X se
encuentran tabulados, por lo tanto, no es necesario lograr su expresión
funcional.
Si bien el recorrido de la variable es el conjunto de los números reales, los
valores de probabilidad acumulada significativos más usuales, corresponden a los
valores de la variable que se encuentran en el intervalo -3,99< Z < 3,99
Para calcular la probabilidad de que el valor de una variable aleatoria
distribuida normalmente pertenezca a un determinado intervalo, primero hay que
estandarizar los valores de la variable original X, y con el correspondiente
valor de Z, obtener el valor de probabilidad en la tabla de la función de
distribución Z.
Calculo de los percentiles
Para calcular el percentil de orden k de una variable aleatoria continua X,
distribuida normalmente, se utiliza la Tabla de percentiles de la variable
estandarizada Z, ubicando el orden del percentil, expresado en probabilidad, en
la columna F(z) y, de esta manera, localizar el correspondiente valor de Zk.
Transformación lineal de variables aleatorias normales
Toda transformación afín de una variable aleatoria con distribución normal, se
distribuye normalmente.
Toda combinación lineal de variables aleatorias normales independientes, tiene
distribución normal.
Proposiciones
• La esperanza matemática de la suma de variables aleatorias independientes es
igual a la suma de las Esperanzas Matemáticas Individuales de cada una de las
variables.
• La Varianza de la suma de variables aleatorias independientes es igual a la
suma de las varianzas individuales de cada una de las variables.
• La suma de variables aleatorias normales independientes, se distribuye
normalmente.
Primer caso: Todas las variables están multiplicadas por una constante no nula y
cada una de las variables tiene distinta esperanza matemática y distinta
varianza.
Segundo caso: Todas las constantes son iguales a uno, y todas las variables
tienen distinto promedio o esperanza matemática y distinta varianza.
Tercer caso: Todas las constantes son iguales a uno, y todas las variables
tienen el mismo promedio o esperanza matemática y la misma varianza.
Aproximación de la distribución binomial a la distribución normal
El límite de la distribución binomial, cuando la cantidad de observaciones n
tiende a infinito y la probabilidad de que se presente un elemento con un
determinado atributo p tiende a 0,50 es la distribución normal.
La variable en estudio es una variable aleatoria discreta, pero para el cálculo
de probabilidad se utiliza la distribución normal, que es una distribución para
variable continua, por ello, para calcular el valor de la variable estandarizada
haciendo una “corrección por continuidad” que consiste en sumar o restar, según
corresponda, medio punto al valor de la variable r~, de modo que el valor
puntual quede estrictamente incluido en un intervalo