Altillo.com > Exámenes > UBA - Psicología > Estadística


Resumen para el Segundo Parcial  |  Estadística (Cátedra: Muiñoz - 2018)  |  Psicología  |  UBA
  1. Coeficiente de correlación R de Pearson. Que indica? Cuál es su rango de variación? Cómo se interpretan sus valores especiales? Graficar.

El coeficiente de correlación de Pearson es una medida de la relación lineal entre dos variables aleatorias cuantitativasEs un instrumento adecuado para la tarea de detectar y cuantificar la relación entre series de observaciones. Indica los problemas referentes a la variación de dos variables, su intensidad y su sentido. Sus gráficos se denominan Diagramas de Dispersión, y la configuración de puntos resultantes Nube de Puntos. El coeficiente de correlación puede valer cualquier número comprendido entre -1 y +1

Relación lineal directa: Se detecta entre dos variables cuando covarían en el mismo sentido., a valores bajos de una de ellas corresponden valores bajos de los otros, medios medios y altos y altos.

Relación lineal inversa: Se detecta entre dos variables cuando covarían en sentido contrario. Valores altos con bajos, y bajos con altos.

Relación lineal nula: No hay relación lineal.

La suma de productos indica el sentido de la relación lineal. Si el coeficiente tiene signo positivo el sentido es directo, si el coeficiente tiene signo negativo el sentido es inverso. Si es 0 no están asociadas de manera lineal.

 

  1. Modelo de distribución Normal. Sus características. Tipo de variables a las que se aplica. Significado de los parámetros µ y σ. Importancia de este modelo. Ejemplos

La distribución normal o Gaussiana es la distribución de probabilidad más importante de la estadística y corresponde a una variable aleatoria continua.

Una distribución normal de media U y desviación típica O se designa por N (U-O). Su grafica es la campana de Gauss:

La importancia de la curva normal estriba no sólo en su utilidad para el análisis estadístico, sino que en muchas variables de interés para los psicólogos. La estatura, el peso, la agudeza visual, la fuerza son variables que se ajustan a este modelo. Ya dentro de la psicología, variables como el cociente intelectual, la extraversión son variables con distribución normal. En la mayor parte de las variables existe un valor central (la media) en torno a la cual se concentran la mayor parte de los individuos, y a medida que nos vamos fijando en valores más alejados de la media observamos que éstos son menos frecuentes.  Esta reducción gradual en la frecuencia no es lineal, sino que es mayor al principio y menor después (pasa de convexa a cóncava al alejarse de la media).

 Una variable aleatoria se distribuye según el modelo normal, con parámetros µ y o. Las variables cuya distribución se ajusta al modelo normal adoptan una representación gráfica en la que se pueden apreciar algunas de las propiedades que vamos a enumerar:

  1. a) Es simétrica con respecto a un valor central (µ) y en ese valor central coinciden la media, la mediana o la moda.
  2. b) Es asintótica con respecto al eje de abscisas.
  3. c) Hay toda una familia de curvas normales, dependiendo de los valores de µ y o. De entre ellas, la más importante es aquella que tienen media 0 y de desviación típica 1.
  4. d) Los puntos de inflexión se encuentran en los puntos correspondientes a la media más/menos una desviación típica (µ ± o)
  5. e) Cualquier combinación lineal de variables aleatorias normales se ajusta también al modelo normal.

La mayor parte del trabajo práctico con variables aleatorias normales consiste en hallar probabilidades asociadas a valores. Esto significaría integrar la función de densidad entre los valores de interés. Para evitar tener que resolver este tipo de operaciones se han construido tablas apropiadas con las áreas ya halladas y cuyo eso se basa en el teorema de tipificación. Según este teorema, la función de distribución asociada a un valor de una variable aleatoria, X, con distribución normal, es la misma que la función de distribución de la tipificada de ese valor en la normal unitaria. Para obtener las áreas asociadas a un valor de cualquier otra distribución normal basta con tipificar ese valor y acudir con la z obtenida en la tabla correspondiente.

Para referirnos a un valor concreto de la distribución normal unitaria utilizaremos la letra Z y a su derecha el subíndice correspondiente a la probabilidad acumulada para ese valor. Así:  Z0,67= 0,44

El trabajo con variables aleatorias normales, al igual que con otras variables continuas, se reduce a la obtención de las probabilidades de obtener un valor menor o igual que uno concreto, la de obtener un valor mayor o igual que uno concreto, o la de obtener un valor comprendido entre dos valores concretos.

 

  1. Distribución de la media muestral según teorema central del límite. Importancia de este resultado.

Teorema Central del Límite: cuando el tamaño muestral es suficientemente grande la distribución de media es aproximadamente normal (tanto más normal cuanto mayor el tamaño de la muestra) con media U y varianza O. Esto es un corolario del teorema central del límite, estandarizando media obtenemos el estadístico (E) que sigue aprox. La distribución normal y se usa en inferencia estadística para probar hipótesis acerca de la media poblacional.

  1. Inferencia estadística. Objetivo y método.

Es una rama de la estadística que se encarga de definir estrategias racionales que permiten generalizar, inferir o inducir las propiedades de un conjunto de datos empíricos (muestra) al conjunto total de datos  (población)  a los que intenta representar.

Para efectuar esta generalización (inferencia) de lo concreto a lo general es imprescindible que el conjunto de datos recogidos para obtener la muestra sea representativo de la población. Esto ese consigue mediante las técnicas de muestreo, que También es una rama de la estadística.

Por lo tanto el objetivo de la estadística inferencial es extraer conclusiones acerca de las poblaciones a partir de muestras, conclusiones que no son certeras o exactas, sino que están asociadas a cierto grado de confianza o de error.

Se recurre a la teoría de probabilidades, que es una rama de la matemática, para estimar el error que se comete al hacer la inferencia estadística: salto de lo observado a lo desconocido.

  1. Contraste de HIPOTESES. En que consiste y cuál es su lógica.

 El primer paso del proceso de verificación de una hipótesis consiste en formular estadísticamente la hipótesis científica que se desea contrastar; es decir, en transformar la hipótesis científica en hipótesis estadística.

Formulada la hipótesis estadística, el segundo paso del proceso de verificación consiste en buscar evidencia empírica relevante capaz de informar sobre si la hipótesis establecida es o no sostenible. Una hipótesis será compatible con los datos empíricos cuando a partir de ella sea posible deducir o predecir un resultado muestral (un estadístico) con cierta precisión.

Una discrepancia importante entre la afirmación propuesta en nuestra hipótesis y el resultado muestral encontrado puede estar indicando 2 cosas diferentes: bien nuestra hipótesis es correcta y la discrepancia observada es producto de fluctuaciones esperables por azar; bien nuestra hipótesis es incorrecta y, por tanto, incapaz de proporcionarnos predicciones acertadas. La cuestión clave que se nos plantea en ese momento es la de determinar cuándo la discrepancia encontrada es lo bastante grande como para poder considerar que el resultado muestral observado es Página 8 de 8 incompatible con la hipótesis formulada y, en consecuencia, para hacernos pensar que esa discrepancia encontrada no es explicable por fluctuaciones debidas al azar sino por el hecho de que la hipótesis planteada es incorrecta.

Necesitamos, y este es el tercer paso del proceso, una regla de decisión. Y esa regla de decisión debe establecerse en términos de probabilidad. La necesidad de trabajar con muestras en lugar de con poblaciones nos obliga a establecer una regla de decisión en términos de probabilidad.

 En general, la regla de decisión que utilizaremos será una afirmación de este tipo: si el resultado muestral observado es, suponiendo correcta nuestra hipótesis, muy poco probable, consideraremos que nuestra hipótesis es incompatible con los datos; por el contrario, si el resultado muestral observado es, suponiendo correcta nuestra hipótesis, probable, consideraremos que nuestra hipótesis es compatible con los datos.

 En resumen, un contraste de hipótesis es un proceso de decisión en el que una hipótesis formulada en términos estadísticos es puesta en relación con los datos empíricos para determinar si es o no compatible con ellos.

  1. Hipótesis estadística. Que es y cómo se vincula con una hipótesis científica. Ejemplos

El uso del método científico  en investigación obliga a la formulación de hipótesis de trabajo.

En psicología, un ejemplo de una investigación podría ser:

¿Difieren los varones en inteligencia respecto a las mujeres?

Ante este interrogante, el paso siguiente es afirmar una hipótesis, para poder desarrollar la investigación correspondiente.

Una hipótesis a plantear podría ser: “los varones y las mujeres no difieren en inteligencia”.

Para que esta hipótesis sea científica se tendría que definir con precisión que se entiende por inteligencia y como mediarla (constructo).

Se está entonces en condiciones de iniciar el proceso de verificación de esa hipótesis mediante el método estadístico de contraste o prueba de hipótesis.

Una hipótesis científica puede ser o no ser susceptible de ser formulada en términos estadísticos. Si lo es, puede ponerse a prueba utilizando el método de contraste de hipótesis.

Una hipótesis estadística es una afirmación referida a la distribución de probabilidades de una o más variables, ya sea en cuanto a su forma, ya sea en cuanto a sus parámetros.

En el ejemplo se plantearía:

“igualdad de las medias de los coeficientes de inteligencia de varones y mujeres”.

  1. Estadístico de contraste y regla de decisión. Conceptos. Que se entiende por “mantener” Y por “rechazar” la hipótesis nula.

Un contraste de hipótesis es un proceso de decisión en el que una hipótesis formulada en términos estadísticos es puesta en relación con los datos empíricos para determinar si es o no compatible con ellos. El primer paso consiste en formular estadísticamente la hipótesis científica que se desea contraste, es decir, en trasformar la hipótesis científica en hipótesis estadística. El segundo paso, consiste en buscar evidencia empírica capaz de informar sobre su la hipótesis establecida es o no sostenible. La regla de decisión es: si el resultado muestral observado es, suponiendo correcta nuestra hipótesis, muy poco probable, consideramos que nuestra hipótesis es incompatible con los datos, por el contrario, si el resultado muestral observado es, suponiendo correcta nuestra hipostesis, probable, consideramos que nuestra hipótesis es compatible con los datos.

Todo contraste de hipótesis se basa en la formulación de dos hipótesis: la hipótesis nula (Ho) y la hipótesis alternativa, H1. Estas deben ser mutuamente excluyentes y una y sola una es verdadera. La Ho  es la hipótesis que se somete a contraste, consiste en una afirmación  sobre la forma de una distribución de probabilidad o sobre alguno de los parámetros de esa distribución. La H1 es la negación de la Ho.

“MANTENER” O “RECHAZAR” Ho: si la rechazamos, estamos afirmando que esa hipótesis es falsa, es decir, estamos afirmando, con una probabilidad a equivocarnos, que hemos conseguido probar que esa hipótesis es falsa. Por el contrario, si la mantenemos, no estamos afirmando, que hemos probado que esa hipótesis es verdadera, simplemente estamos afirmando que no disponemos de evidencia empírica suficiente para rechazarla, y que por tanto, podemos considerarla compatible con los datos. En los contrastes bilaterales, la zona crítica está repartida en partes iguales. En los contrastes unilaterales se encuentran en una de los dos extremos.

  1. Posibles consecuencias que se siguen de una prueba de hipótesis: decisiones correctas, errores de tipo I Y II. Conceptos de nivel de significación y de potencia. Concepto de nivel crítico y su utilidad.

 Todo contraste de hipótesis desemboca en una decisión consistente en mantener o rechazar la H0 planteada. Si la H0 es verdadera y la mantenemos, estaremos tomando una decisión correcta; si es falsa y la rechazamos, también estaremos tomando una decisión correcta. Pero si H0 es verdadera y la rechazamos, estaremos cometiendo un error; e igualmente estaremos cometiendo un error si H0 es falsa y la mantenemos. Llamamos error de tipo I al que se comete cuando se decide rechazar una H0 que en realidad es verdadera. La probabilidad de cometer ese error es α. Llamamos error de tipo II al que se comete cuando se decide mantener una H0 que en realidad es falsa. La probabilidad de cometer ese error es β. Por tanto, 1 – α será la probabilidad de tomar una decisión correcta cuando H0 es verdadera. Y 1 – β será la probabilidad de tomar una decisión correcta cuando H0 es falsa.

La probabilidad de cometer un error de tipo I con nuestra decisión es una probabilidad conocida, pues el valor de α lo fija el propio investigador. Sin embargo, la probabilidad de cometer el error de tipo II, es decir, β, es un valor desconocido que, en un contraste concreto, depende de 3 factores: 1) la verdadera H1, 2) el valor de α y 3) el tamaño del error típico de la distribución muestral utilizada para efectuar el contraste.

Nivel crítico: la probabilidad asociada al estadístico de contraste. Un contraste unilateral, tenemos un nivel crítico que es la probabilidad asociada a los valores mayores  (CONTRASTE UNILATERAL DERECHO) o menores (CONTRASTE UNILATERAL IZQUIERDO) que el estadístico de contraste obtenido; en un CONTRASTE BILATERAL, el nivel crítico es la probabilidad asociada a los valores que se encuentran tan alejados de Ho como, al menos, el estadístico de contraste. El nivel crítico se obtiene una vez obtenido el estadístico de contraste.

 

  1. Supuestos que fundamentan cada una de las pruebas de hipótesis.

 

Preguntas y Respuestas entre Usuarios: