Primer parcial método
Textos: Primer capítulo Arnau Grass y Segundo capítulo de Pereda Marín
- Conocimiento científico: Se obtiene mediante la utilización del método científico. Sus principales características son:
- Origen empírico: Para que una teoría sea científica tengo que validarla mediante contrastación empírica. Todo conocimiento científico tiene su punto de arranque en la observación.
- Acuerdo intra e interobservadores: Debe existir un consenso básico con los miembros de la comunidad científica, esto es lo que le da a la ciencia su carácter fundamentalmente social. El acuerdo básico, el primero, es el acuerdo metodológico: El método científico (universalidad en el método).
- Capacidad de repetibilidad del hecho observado: Repetir investigaciones exactamente (método, instrumentos, muestra). Cuantas más repeticiones soporte una investigación, más sólida será.
- Objetividad: las observaciones deben hacerse como si se tratase de otro.
- Relacionabilidad: Las observaciones deben hacerse como si se tratase de otro
- Comunicabilidad: Tratar de publicar, de hacer pública la investigación realizada.
- Métodos descriptivos: Tiene 4 funciones principales:
- Ayudar a identificar importantes fenómenos conductuales
- Sugerir posibles variables a manipular en posteriores estudios experimentales
- Sugerir posibles conductas que más tarde pueden ser estudiadas por medio de experimentos adecuados
- Utilizarse como instrumentos de estudios cuando no pueden ser utilizados los métodos correlacionales o experimentales.
- Método experimental:
- Su objetivo principal es estudiar la posible relación de causalidad existente entre 2 variables o más. Tratar de ver hasta qué punto una variable que se manipula (variable independiente) es la causa de los cambios que se observan en otra variable (variable dependiente) que se mide a través de un criterio previamente establecido. Para esto, además de manipular al factor que se quiere estudiar, debe mantenerse constantes los efectos de las variables restantes que pueden afectar a la variable dependiente (las variables contaminadoras) y con ello contaminar la investigación. Las técnicas con las que se manipula a las variables independientes y controla a las variables contaminadoras se las denomina TÉCNICAS DE CONTROL EXPERIMENTAL.
- Método correlacional:
- Su objetivo no implica relación de causalidad entre las variables estudiadas. No se manipula ninguna variable, sólo se miden las diferentes variables incluidas en la investigación y luego se calcula la correlación existente entre ellas. Los métodos correlacionales se emplean principalmente en áreas nuevas de investigación, para determinar fiabilidad y validez de pruebas psicológicas y para estudiar la estructura factorial de la inteligencia a la personalidad.
Texto: Capítulo 10, Más allá de la descripción – Clark Carter
- Nunca puede probarse que una hipótesis es verdadera; si calculamos la probabilidad de cada resultado y sumamos esas probabilidades el resultado será 1
- Antes de probar una hipótesis, los investigadores establecen un nivel de probabilidad crítica, de modo que el resultado de su trabajo debe tener una probabilidad igual o menor que el nivel crítico antes de rechazar la hipótesis nula de que el resultado ocurrió por azar. El rango de resultados tan probable o menos probable que la probabilidad crítica se encuentra en la región de rechazo, es decir, es muy improbable que estos resultados ocurran al azar para rechazar la hipótesis nula. Si el resultado se encuentra en la región de rechazo, se dice que el resultado es estadísticamente significativo. Por convención en investigación suele fijarse en 0,05. ᾳ = 0,05
- Tipos de error:
- Error tipo I: Cuando elegimos rechazar la hipótesis nula aunque sea verdadera. Probabilidad de cometerlo = ᾳ
- Error tipo II: Cuando rechazamos nuestra hipótesis de investigación cuando es verdadera
Texto: Capítulo 5, La hipótesis – Pereda Marín
- Hipótesis:
- Es la explicación tentativa de un hecho o conducta. Será siempre una afirmación.
- La hipótesis experimental es la formulación de una relación potencial entre 2 o más variables: la independiente (la que manipulamos) y la dependiente (la que medimos).
- Definición de hipótesis experimental: Es la solución tentativa al problema por el que se comenzó a investigar, debiendo estar expresados en su enunciado lo más concretamente posible los resultados que se esperan encontrar en la misma; la relación que se cree existe entre la/s variable/s independiente/s que se manipula/n y la/s variable/s dependiente/s que se estudia/n.
- Clasificación de Hipótesis:
- Hipótesis inducidas: Consisten en suponer la existencia de 1 determinada relación entre 2 hechos. Nacen de la observación de los hechos.
- Hipótesis deducidas: Aparecen en 1 estadio más avanzado de la investigación y se deducen de las relaciones o teorías ya conocidas, es decir, de 1 cuerpo de conocimientos ya elaborado.
- Clasificación según su valor explicativo:
- Hipótesis relacionales: Son aquellas cuyo contenido se refiere sólo a la relación existente entre 2 o más variables
- Hipótesis relacionales con 1 término sin caracterizar: Son las que además de establecer la posible relación existente entre 2 variables postulan la presencia de 1 término hipotético sin caracterizar
- Hipótesis experimentales: Son los que implican la presencia de 1 relación de causalidad entre las variables incluidas en las mismas
- Clasificación según el grado de generalización:
- Hipótesis universales: las que plantean 1 relación entre las variables es válida siempre y en cualquier lugar. Son poco frecuentes en psicología.
- Hipótesis existenciales: Las que afirman que la relación establecida en la hipótesis es válida, por lo menos, para 1 caso particular.
Texto: Capítulo 7, Las variables en la investigación psicológica – Pereda Marín
- Clasificación de variables:
Tradición psicológica:
- Variables respuesta o de conducta: Son las que se refieren a 1 acción o respuesta de 1 organismo. Generalmente hacen el papel de variable dependiente. Por ejemplo: mantener el tiempo constante y contar el número de respuestas de 1 cierto tipo que ocurren en el período de tiempo fijado; se cuenta el número de respuestas dadas por el sujeto sin tener en cuenta el tiempo; se cuenta el tiempo utilizado por el sujeto para responder.
- Variables estímulo: Hacen referencia a los estímulos que se presentan a los sujetos en 1 situación experimental. Exigen una respuesta. Generalmente hacen el papel de variable independiente. Pueden ser (a) Variables ambientales (son las que hacen referencia a las condiciones físicas en que se lleva a cabo la recogida de datos, por ejemplo la luz, el ruido, la temperatura); y (b) Variables de tarea (son las referidas a la actividad que llevan a cabo los sujetos del experimento).
- Variables organísmicas: Son las que resultan de los estados en que pueden ser clasificados los organismos y de las observaciones y medidas de las características físicas, fisiológicas y psicológicas de los mismos. Son las propias del organismo y se presentan como aspectos relativamente estables del sujeto. Por ejemplo: sexo, edad, ceguera. Pueden ser (a) Variables físicas; (b) Variables de estado hipotético (son aquellas que no son medibles directamente en sí mismas, sino por los efectos que producen); (c) Variables de sujeto (organísmicas); y (d) Variables temporales de sujeto (se refieren a aspectos no estables propios del sujeto y pueden ser producidas por los tratamientos experimentales.
Clasifcación desde el punto de vista metodológico:
- Variables contaminadoras:
- Factores presentes en 1 experimento que no se tratan de someter a estudio y que pueden afectar al fenómeno conductual (variable dependiente).
· Definición: Aquello que en una situación experimental tiene efectos sistemáticos sobre la variable dependiente y puede actuar conjuntamente con la variable independiente enmascarando sus efectos.
- Deben ser eliminadas o controladas en la investigación; como no se podrán eliminar todas el experimentador tratará que sus efectos sean mínimos e iguales para todos los grupos experimentales.
- Variables independientes:
Es la que el experimentador manipula deliberadamente para conocer sus efectos sobre algún aspecto de la conducta (variable dependiente). Para poder llevar a cabo 1 experimento se necesita que ésta adopte por lo menos 2 valores distintos.
· El factor utilizado como variable independiente debe reunir 2 requisitos: (a) ser capaz de variar; y (b) poder ser manipulado.
· Hay 2 tipos de Variables Independientes: (a) Situacionales (las variables de estímulo); (b) De sujeto (las variables organísmicas).
- Variables dependientes: Es el aspecto de la conducta en el que se esperan encontrar los efectos producidos por la variable independiente una vez manipulada. Es la variable que se mide para comprobar si la variable independiente tiene un efecto sobre ella.
- Definiciones operacionales: Son un conjunto de instrucciones tales que permitan a otros llevara cabo el experimento de la misma forma. Puede ser de dos tipos:
- Definición Operacional Experimental: indica los detalles (operaciones) de la manipulación de una variable por el experimentador. Sólo se puede aplicar a las variables independientes y variables contaminadoras.
- Definición Operacional de Medida: Describe cómo se medirá una variable. Se refiere a la variable dependiente.
Texto: Capítulo 8, El control experimental – Pereda Marín y Capítulo 8, Varianza y Control - Arnau Gras
- Varianza sistemática: Consiste en la desviación que presentan los datos en 1 dirección más que en otra. No siempre la causa de esta desviación de los datos hacia cierta dirección es por la variable independiente, a veces es por factores extraños que no han sido completamente controlados.
- Varianza total: Es la variabilidad entre las puntuaciones en la variable dependiente encontrada por el investigador al acabar un experimento.
- Varianza primaria: Es la variabilidad sistemática producida por los distintos tratamientos experimentales. Para maximizar esta varianza, hay que hacer que el efecto de la variable independiente sobre la variable dependiente sea lo más puro y fuerte posible. Para eso se usan diversas técnicas:
- Utilizar, si los conoce, valores óptimos de la variable independiente.
- Utilizar el mayor número posible de tratamientos experimentales, si se desconoce esos valores óptimos
- Utilizar valores extremos de la variable independiente, si no puede emplear más que 2 valores de la misma.
- Varianza secundaria: Variabilidad sistemática producida por alguna variable contaminadora.
- Varianza error: Variabilidad producida en los resultados experimentales por factores aleatorios. Para minimizar esta varianza hay que intentar que sean mínimos los efectos de las variables aleatorias. Para ello el experimentador debe:
- Elegir instrumentos de medida confiables
- Entrenar adecuadamente a los experimentadores
- Establecer criterios claros
- Establecer instrucciones objetivas.
- Fuentes de la varianza de error:
- Las diferencias individuales: no todos los sujetos reaccionan de una misma forma ante 1 situación experimental idéntica.
- Errores de medida: instrumentos de medida poco precisos, o el procedimiento experimental no se aplica por igual a todos los sujetos.
- Principio MÁXMINCON: MAXIMIZAR la varianza primaria. MINIMIZAR la varianza error y CONTROLAR la varianza secundaria. (OBJETIVO DE TODA INVESTIGACIÓN)
- Control: Se refiere a los métodos y técnicas que utiliza el experimentador para poder concluir si es la variable independiente la que ejerce o no algún efecto sobre la variable dependiente.
- Fuentes de variables contaminadoras:
- Sujetos: En las variables de sujeto no tiene que haber varianza intergrupos (variabilidad entre los grupos en la variable dependiente antes de aplicar los tratamientos experimentales).
- Experimentador
- De procedimiento
- Aparatos
- Error progresivo: Cuando los tratamientos experimentales se presentan siempre en 1 mismo orden temporal o espacial, puede ocurrir que el experimento quede contaminado. No se podrá saber si lso cambios en la variable dependiente son por los efectos de los tratamiento o a la interacción entre ellos y la práctica y fatiga que va generando su aplicación sucesiva de los diferentes tratamientos experimentales. Incluye todos los efectos que se producen en los sujetos por el hecho de pasarles medidas repetidas. Es llamado error progresivo a los efectos conjuntos de la práctica y fatiga. Es una variable que hay que tener en cuenta en las situaciones experimentales de tipo II, intragrupo y de tipo III, mixta.
- Técnicas de control en Tipo I (INTERGRUPOS)
- En la situación experimental de tipo I (o con medidas independientes), cada sujeto o grupo de sujetos es sometido a 1 sólo tratamiento experimental
- La varianza intergrupos (las diferencias existentes entre los grupos experimentales antes de la aplicación del tratamiento), es una de las más importantes fuentes de contaminación en los experimentos de este tipo. Las técnicas de control acá utilizadas van a intentar mantener la equivalencia inicial (además de asegurarla) entre los grupos experimentales. Las principales técnicas de control son:
- La eliminación de las variables contaminadoras: No se va a dejar variar esa variable, y para eso sólo utilizo 1 valor de la misma eliminando todos los demás. Hay que tener cuidado con eliminar muchos para no terminar limitando la muestra y que quede reducida a 1 sólo sujeto.
- El balanceo de las variables contaminadoras: Cuando no es posible eliminar las variables contaminadoras, se puede usar el balanceo. Consiste en equilibrar el efecto de la variable contaminadora manteniendo constante la proporción de cada valor de la misma que afecta a cada grupo, a cada tratamiento experimental.
- La constancia de las variables contaminadoras: Es un caso particular de la técnica de balanceo. Se presentan unos mismos valores de la variable contaminadora a cada grupo experimental; así, cada valor de la variable contaminadora afecta por igual a todos los grupos de sujetos.
- La aleatorización de las variables contaminadoras: consiste en confiar al azar la distribución equivalente de las variables contaminadoras entre todos los grupos de sujetos del experimento. Cuando la muestra es pequeña, la aleatorización es poco fiable.
- Técnicas de control en tipo II (INTRAGRUPOS):
- En la situación experimental de tipo II (o con medidas repetidas), los mismos individuos reciben sucesivamente distintos tratamientos. La amenaza es el error progresivo.
- Método de equiponderación intrasujeto (método a1 a2 a2 a1): Su finalidad es distribuir de forma equivalente los niveles o unidades de error progresivo entre los diferentes tratamientos experimentales. Se basa en el supuesto de que cada tratamiento experimental genera la misma cantidad de error progresivo y del mismo signo. La práctica y la fatiga adquiridas por el sujeto en el tratamiento a1 son iguales a la práctica y la fatiga adquiridas por el sujeto en el tratamiento a2.
- Métodos de equiponderación intersujetos:
- Método a1 a2 a2 a1 – a2a1a1a2: Se utiliza cuando aparecen efectos asimétricos del error progresivo. Consiste en dividir al grupo de sujetos en 2 subgrupos iguales distribuyéndolos aleatoriamente entre ellos. Después, también de forma aleatoria se asigna a 1 de los subgrupos (G1) la secuencia a1 a2 a2 a1 y al otro (G2) la secuencia a2 a1 a1 a2. Así se obtendrán las medias de las puntuaciones de los sujetos en la variable dependiente bajo a1 y a2 en cada 1 de los subgrupos. Al ser asimétricos se deberán calcular las medias totales.
- Equiponderación total o contrabalanceo completo: Se basa en que cada tratamiento experimental genera la misma cantidad de error progresivo. Al aplicarlo se deben cumplir 2 requisitos: (1) Cada tratamiento experimental debe aparecer 1 mismo número de veces en cada nivel de práctica; (2) cada tratamiento experimental debe preceder y seguir 1 mismo número de veces a todos los demás (considerados tanto aislada como conjuntamente). Gracias a estas 2 condiciones, el investigador va a tener que utilizar todas las secuencias posibles que se puedan construir con los tratamientos experimentales de que consta el experimento. Al utilizar todas las secuencias posibles, los efectos del error progresivo afectan por igual a cada tratamiento experimental o a cada combinación de tratamientos.
- Equiponderación parcial o contrabalanceo incompleto:
· Debe cumplir un requisito básico: Cada tratamiento experimental debe aparecer un mismo número de veces en cada nivel de práctica.
· No es necesario emplear todas las posibles secuencias que se puedan construir con los tratamientos experimentales de que consta la investigación. El número mínimo de secuencias que se necesitan es igual al de tratamientos experimentales con los que se trabaja. Los resultados en la variable dependiente, bajo cada tratamiento experimental resultan de unir las medias obtenidas por los sujetos bajo cada tratamiento independientemente del nivel de práctica que ocupe, es decir, que se agruparán las medidas siguiendo el mismo sistema que en el método de equiponderación total.
· En experimentos con un número par de tratamientos experimentales se incluye otro requisito adicional: Cada tratamiento debe preceder y seguir un mismo número de veces a los restantes tratamientos experimentales considerados aisladamente.
· Hay 2 variaciones del método de equiponderación parcial:
- Equiponderación parcial sistemática: Las secuencias de tratamientos experimentales son seleccionadas deliberadamente por el experimentador cuidando de que cumplan el requisito básico del método de equiponderación parcial o los requisitos cuando el parcial o los requisitos cuando el número de tratamientos experimentales es par
- Equiponderación parcial aleatoria: Las secuencias son elegidas aleatoriamente por el investigador cuidando de que cumplan el o los requisito/s básico/s del método de equiponderación parcial.
- Aleatorización total: Su finalidad es conseguir que los efectos de la práctica y la fatiga se distribuyan por igual entre todos los tratamientos experimentales. Su único requisito es que se seleccione aleatoriamente las secuencias que se aplican a los sujetos. Se supone que los efectos del error progresivo se distribuirán por igual entre todos los tratamientos experimentales gracias al azar.
Texto: Capítulo 11, El diseño – Pereda Marín
- Diseño:
· Un buen diseño permitirá al investigador comprobar si existen efectos sistemáticos de la variable independiente sobre la variable dependiente y le ayudará a controlar las potenciales variables contaminadoras.
- 5 requisitos esenciales para considerar bueno el diseño:
- Ausencia del error sistemático, que a lo largo del experimento no actúen variable ajenas a las que se están manipulando, ejerciendo efectos sistemáticos diferenciales sobre los distintos grupos experimentales, es decir, que se controlen las posibles variables contaminadoras
- Precisión: la sensibilidad del experimento para captar las mínimas diferencias producidas por los distintos tratamientos experimentales
- Validez:
- Validez interna: Hasta qué punto la variación observada en la variable dependiente ha sido causada por la variación introducida por el investigador en la variable independiente. Sus principales amenazas son:
- Maduración: Conjunto de cambios biológicos y psicológicos que se operan en los sujetos como consecuencia del paso del tiempo
- La selección diferencial de los sujetos: se refiere a la falta de equivalencia de los grupos antes de introducir la variable independiente. Para que no existan sesgos en la selección es preciso que la distribución de los sujetos en los distintos grupos experimentales se haga de forma aleatoria.
- La mortalidad experimental: Consiste en que se atribuye a la variable independiente un efecto que proviene de la pérdida sistemática del tamaño de la muestra
- La regresión a la media: Se refiere a la tendencia de los resultados extremos a sufrir una regresión a la media cuando se hacen nuevas mediciones.
- Efectos de la historia: Son los cambios ocurridos en factores ajenos al sujeto que pueden producirse dentro o fuera del marco del experimento, e influir en los resultados del mismo
- La propia situación experimental: La medida tomada a los sujetos antes de aplicarles al tratamiento, el simple hecho de que los sujetos del experimento se sometan a los instrumentos de medida, etc., pueden desencadenar reacciones en los sujetos que no se deban a la manipulación de la variable independiente.
- Efectos reactivos de la medida pretratamiento
- Amenazas de instrumentación.
- Validez externa: El nivel en que se puede generalizar/trasladar los resultados de los experimentos a la situación no experimental. Sus principales amenazas son:
- Representividad:
- De la muestra: Para que una muestra sea representativa de la población de que se ha extraído, los sujetos de la misma deberán seleccionarse siguiendo las técnicas adecuadas de muestreo
- De los tratamientos experimentales: los niveles que se eligen del factor manipulado en el experimento se suele elegir de una forma arbitraria, por lo que no serán representativos de los infinitos niveles que puede adoptar dicho factor por lo que habrá que tener cuidado al generalizar
- Efectos reactivos de:
- La situación experimental: Los sujetos del experimento son colocadas en una situación totalmente artificial para que den sus respuestas. Ante esta situación, pueden reaccionar distinto a como lo harían en la vida normal
- De los tratamientos múltiples: La multiplicidad de tratamientos se aleja de lo que ocurre en la vida real, donde a la población a que van a generalizar los resultados generalmente no se le dan tratamientos múltiples.
- Simplicidad
- Posibilidad de determinar 1 grado de incertidumbre a las conclusiones obtenidas
Texto: Capítulo 12, Investigaciones Pre-experimentales Y Capítulo 13, Investigaciones cuasiexperimentales – Pereda Marín
- Investigaciones pre-experimentales:
- Tienen baja validez interna
- Baja capacidad de producir comparaciones formales
· Modelos de diseño que se emplean en las investigaciones pre-experimentales:
- Investigaciones con diseño de grupo único sólo con medida postratamiento: Será imposible establecer una relación de causalidad entre ambos. No tiene validez científica, es un diseño inválido.
- Investigaciones con diseño de grupo único con medidas pre y postratamiento: Se suele utilizar este tipo cuando no es posible llegar a un grado mayor de control de la situación. Sus amenazas son: historia, maduración, efecto de medida pre tratamiento, instrumentación, regresión estadística.
- Investigaciones con diseño estático utilizando 2 grupos: Sus amenazas son: historia, maduración, selección diferencial, mortalidad experimental, interacción entre la selección y maduración.
- Investigaciones cuasi-experimentales
- Resultados más válidos que en una investigación pre-experimental
- Símil a una investigación experimental pero sin control absoluto total sobre la situación
· Principales características de 1 investigación cuasi-experimental:
- Empleo de escenarios naturales, generalmente de tipo social
- Carencia de un control experimental completo
- El uso de procedimientos (como el de producir observaciones múltiples) como sustitutos del control experimental intentando minimizar o eliminar los efectos de tantas fuentes de validez interna como sea posible.
- Su disponibilidad. Pueden utilizarse cuando no se pueda realizar una investigación experimental, o a veces ayudar a explotar alguna situación social dada.
- Algunos de los diseños que se emplean en las investigaciones cuasiexperimentales:
- Investigaciones con diseños de seres temporales interrumpidas: consiste en tomar una serie de medidas de la variable dependiente a lo largo de un determinado tiempo, interrumpir la serie con la aplicación del tratamiento y luego continuar con otra serie de medidas. Los tipos de efectos que se pueden encontrar son:
- Cambio de nivel: la serie de medidas puede mostrar una discontinuidad en el punto de interrupción, en el punto en que se aplicó el tratamiento.
- Cambios de tendencia o inclinación: la inclinación de la serie de medidas post cambió en relación a la inclinación de la serie de medidas pre.
- Efectos continuos o discontinuos: (1) Efectos continuos: Aquel que no decae con el paso del tiempo, también se llama Efecto Permanente; (2) Efecto discontinuo: Pasajero, momentáneo, es el que no se mantiene a lo largo del tiempo.
- Efectos instantáneos o retardados: (1) Efectos instantáneos: son fáciles de interpretar, ya que pueden ser asociados con la introducción del tratamiento al producirse, al ser aplicado a éste; (2) Efectos retardados: Se producen como consecuencia al tratamiento pero no en el momento de su aplicación, sino en un momento posterior de la secuencia de medidas post.
- Investigaciones con diseños de grupo de control no equivalente con medidas pre y post tratamiento: Se parte de grupos no equivalentes porque fueron previamente formados naturalmente; por ejemplo, las clases de un colegio. Esto es lo único que la diferencia de una investigación experimental.
Unidad 14, 15 y 16, Diseños aleatorios:
- Diseño de 2 grupos aleatorios (o diseños de experimentos bivalentes):
- Se manipula el factor haciéndolo adoptar 2 niveles
- Su fundamento básico es la equivalencia inicial entre los grupos experimentales gracias a la aleatorización
- Sirven para indicar de una forma “grosera” si el factor manipulado ejercer algún efecto sobre el criterio, y de hacerlo cuál es su dirección (si tiende a haber 1 relación directa o inversa), así como su magnitud.
- Características principales:
- asignación al azar de sujeto de la muestra a los grupos experimentales
- aleatorización para asignar a los sujetos los tratamientos experimentales
- cada sujeto o grupo de sujetos se asigna exclusivamente a uno de los 2 tratamientos experimentales (uno de los 2 tratamientos puede ser la ausencia del mismo, siendo éste el grupo de control)
- Son diseños excesivamente simples
- Problemas principales que pueden aparecer en estos diseños:
- pseudoaleatorización: procedimiento que parece aleatorio pero que no lo es
- inequivalencia inicial entre los grupos experimentales: poco probable con una muestra grande
- Desventajas:
- dependencia de muestras grandes
- proporcionan información incompleta por su falta de sensibilidad por utilizar sólo 2 niveles del factor manipulado
- Ventajas:
- su simplicidad
- su economía
- Su forma de trabajar es:
- selección aleatoria de 1 grupo de sujetos (la muestra) de una 1 población
- asignación de los sujetos de la muestra aleatoriamente a cada 1 de los grupos experimentales
- asignación aleatoria de cada tratamiento experimental a cada grupo de sujetos
- Hay dos tipos de diseños de 2 grupos aleatorios:
- Sólo con medidas postratamiento
- Con medidas pre y postratamiento
- Diseños aleatorios multigrupos:
- Se manipula un factor haciéndolo adoptar más de 2 niveles
- Su objetivo es el estudio de los efectos de más de 2 valores del factor sobre la conducta estudiada.
- Proporcionan más información que los bivalentes; permiten conocer cuánto afecta una serie de tratamientos a la variable criterio, y además si los efectos por le tratamiento mantienen entre sí una relación de tipo lineal, curvilinea, etc. Son diseños univariados
- Uno de sus mayores incovenientes es la variación interindividual grande
- Su mayor ventaja es que se establece de forma más adecuada el tipo de relación entre un factor manipulado y una conducta estudiada
- Utilizando este diseño aumentan las posibilidades de determinar con exactitud si 1 variable dada tiene alguna influencia sobre la conducta que se estudia; además también aumentan las posibilidades de especificar la relación existente entre el factor manipulado y la variable criterio.
- Los diseños multigrupos pueden ser de dos tipos:
- Sólo con medidas postratamiento
- Con medidas pre y postratamiento
- Diseños factoriales:
- Se manipula más de un factor. Se estudian en un mismo experimento los efectos de 2 o más factores sobre la conducta de los sujetos. Permite comprobar los efectos de 2 o más factores sobre el fenómeno que se está estudiando así como saber si dichos factores interactúan entre sí a la hora de influir sobre el fenómeno que se estudia.
- Sus aportaciones fundamentales respecto de los otros diseños aleatorios son:
- estudiar la interrelación de 2 o más factores
- aportar una mayor posibilidad de generalización de las conclusiones
- permitir una mayor economía en el trabajo
- favorecer el control en la investigación
- Clasificaciones de los factores:
- En función del nivel de manipulación:
- Factores de clasificación: No es posible la manipulación intencional. Integran características que ya posee el sujeto y sólo permiten establecer grupos de sujetos con niveles diferentes de los mismos. Ejemplos: sexo, nivel cultural, edad.
- Factores experimentales: permiten una manipulación intencional por parte del experimentador, permiten su asignación libre y aleatoria a las unidades experimentales a los sujetos. Ejemplos: instrucciones dadas a los sujetos o las dosis de la droga aplicadas a éstos.
- En función del procedimiento seguido para elegir los niveles de los factores:
- Aleatoriamente a partir del infinito número posible de niveles del factor.
- Seleccionar de entre los infinitos niveles de un factor aquellos que merecen ser estudiados en función del fenómeno que investigo. (Arbitrariamente).
- Niveles de un factor: Se representa el número de niveles del factor por medio de una serie de letras minúsculas (p, q, r,…). Cuando se habla de un diseño factorial se emplea la notación
A x B. “A” son los p niveles que adopta el primer factor y “B” son los q niveles que adopta el segundo factor. Así por ejemplo:
- Un diseño factorial 2 x 2 es un diseño factorial con dos factores y dos niveles en cada uno de ellos
- Un diseño factorial 4 x 2 x 3 es un diseño factorial con 3 factores, el primero con 4 niveles, el segundo con 2 niveles y el tercero con 3 niveles.
* A medida que aumenta el número de niveles de los factores aumenta el número de tratamientos experimentales*. Así:
- Un diseño factorial 2 x 2 tiene 4 tratamientos y un diseño factorial 4 x 3 x 2 tiene 24 tratamientos.
- Clasificación de los diseños factoriales:
- Según el tipo de situación experimental en que se prueban los efectos de los factores:
- Diseños factoriales con medidas independientes: Los efectos de cada tratamiento experimental son probados en un grupo diferente de sujetos. Cada grupo de sujetos pasa sólo por un tratamiento experimental (corresponde a la situación experimental de tipo I). Por ejemplo, en un diseño factorial 2 x 2 con medidas independientes habría 4 tratamientos y 4 grupos experimentales.
- Diseños factoriales con medidas repetidas: 1 mismo grupo de sujetos son sometidos a todos los tratamientos experimentales (corresponde a la situación experimental de tipo II). Por ejemplo, en un diseño factorial 2 x 2 con medidas repetidas hay 4 tratamientos y 1 grupo experimental.
- Diseños factoriales con medidas repetidas en algunos factores: Hay tantos grupos experimentales como correspondiesen a los factores estudiados con medidas independientes y tantos tratamientos como correspondiesen a las dimensiones del diseño (corresponde a la situación experimental de tipo III). Por ejemplo, en un diseño factorial 2 x 2 con medidas repetidas en B habría 4 tratamientos y 2 grupos experimentales. En un diseño factorial 2 x 3 x 4 con medidas repetidas en C habría 24 tratamientos y 6 grupos experimentales.
- Según el criterio de selección utilizado para elegir los niveles de los factores:
- Modelo fijo: Sólo utilizan factores fijos. Se dan cuando los niveles de los distintos factores incluidos en el experimento agotan el número total de posibles niveles que pueden adoptar esos factores o cuando la selección de los niveles de los factores se hace de forma sistemática sin seguir el procedimiento aleatorio. Por ejemplo: 1 determinada droga (A) y 1 serie de materiales (B) se manipulan para investigar su influencia sobre la memoria de los sujetos. Arbitrariamente se le hace adoptar a la droga 3 niveles (a1, a2, a3) y a los materiales 2 (b1, b2). Este diseño sería 1 diseño factorial 3 x 2 modelo fijo.
- Modelo al azar: sólo utilizan factores al azar. Cuando todos los factores siguen 1 criterio totalmente aleatorio se tiene un modelo factorial al azar.
- Modelo mixto: utilizan factores fijos y factores al azar. Por ejemplo: supongamos que un psicólogo clínico desea conocer los efectos que el hospital (A) y el tipo de tratamiento empleado (B) tienen sobre la recuperación de los pacientes que sufren un determinado trastorno psicológico. Elige al azar un grupo de 4 hospitales (a1, a2, a3, a4) y estudia los efectos de 3 tipos de tratamientos en cada uno de ellos elegidos por él arbitrariamente de entre todos los posibles (b1, b2, b3). El diseño empleado sería un diseño factorial 4 x 3 modelo mixto.
- Los efectos que se pueden observar al emplear un diseño factorial son:
- Efectos que producen los factores aisladamente:
- Efectos principales: el efecto principal es la diferencia existente entre la medida paramétrica de la variable criterio bajo un nivel determinado de uno de los factores y la media paramétrica total.
- Efectos diferenciales: hacen referencia a las diferencias existentes entre los efectos principales de dos niveles de un factor.
- Efectos producidos por la combinación de factores:
- Efectos simples: vienen a expresar los efectos principales de los niveles de un factor bajo cada nivel de los otros factores.
- Efectos de interacción: la interacción en un diseño factorial expresa la medida en que la media obtenida en la variable criterio bajo un determinado tratamiento no puede ser explicado a partir de la suma de los efectos principales de los niveles de cada factor.
- Efectos del error experimental: efectos producidos por todas las fuentes de variables contaminadoras no controladas.
- Ventajas de los diseños factoriales:
- Información sobre los efectos de la posible interacción entre los factores, además de sobre los efectos de cada uno de los factores
- Se reduce el tiempo necesario para el experimento
- Es más fácil controlar las posibles variables contaminadoras
- Hay más posibilidades de generalización de los resultados
Capítulo 22
Diseños de bloques (apareados)
- El investigador recurre a una modificación de la técnica del bloqueo para partir de grupos experimentales equivalentes: el apareo. Cuando se utiliza la técnica del apareo se habla de diseños de grupos apareados.
- Técnica del apareo: consiste en tomar una medida de la variable criterio a los sujetos antes de formar los grupos experimentales. Después se forman bloques de sujeto con la misma puntuación en la variable de apareo y después se asignan un mismo número de sujetos de cada bloque a cada grupo experimental. Se consigue iniciar el experimento con grupos de sujetos equivalentes, con grupos que tienen la misma media y la misma desviación típica en la variable criterio.
- Si, por ejemplo, en un experimento se va a utilizar un diseño de cuatro grupos apareados, en cada bloque habrá 4 sujetos o un múltiplo de 4. Una vez formados los bloques se procede a formar los grupos experimentales asignando al azar un mismo número de sujetos de cada bloque a cada grupo experimental.
· Las técnicas más importantes y utilizadas de apareamiento son:
- Apareo mediante variables correlacionadas: El apareo se consigue formando bloques de sujetos en relación con una variable altamente correlacionada con la variable criterio.
- Apareo mediante la variable criterio: Se puede tomar una medida previa a los sujetos en la variable criterio y a partir de esa medida aparear a los sujetos
- Apareo según un rendimiento previo: Se utilizan los primeros ensayos del experimento como criterio de apareamiento. A partir de los resultados obtenidos en los mismos se pueden llegar a formar dos grupos equivalentes, pudiéndose eliminar incluso aquellos sujetos que se apartan de la media del grupo.
- Con la utilización del diseño de grupos apareados se aumentó sensiblemente la validez interna, disminuirá la varianza integrupos en función de la equivalencia de los grupos; sin embargo, lo que gana en validez interna lo pierde en validez externa. El apareamiento va a exigir que se eliminen todos los sujetos que no encajen en los bloques por falta de equivalencia con otros, pudiendo así quedar sesgada la muestra, y así dificultarse la generalización de los resultados.
Capítulo 23
Diseños con medidas repetidas (diseños intragrupos)
- La varianza intergrupos se elimina por completo gracias a los diseños intragrupos correspondientes a la situación experimental de tipo II. Con grupos experimentales más equivalentes se tendrá una mayor probabilidad de verificar la influencia del factor sobre la variable criterio.
- Forma de trabajar: En el diseño intragrupo se aplican todos los tratamientos experimentales al mismo grupo de sujetos. Se les administran dos o más niveles del factor al mismo grupo de sujetos, obteniéndose así para cada tratamiento experimental una puntuación diferente en la variable criterio. Después se comparan entre sí las diferentes puntuaciones obtenidas por el sujeto y a partir de estas comparaciones se induce si el factor ejerce alguna influencia sobre el fenómeno que se está estudiando sobre la variable criterio.
- Propósito del diseño intragrupo: controlar al máximo los efectos de las diferencias individuales. En estos diseños cada sujeto es considerado como un bloque independiente, actuando de esta forma como su propio control y al comparar entre sí los distintos valores que ha adoptado la variable criterio se elimina la posible influencia que hay podido ejercer la varianza intergrupos, las diferencias individuales.
- En el diseño intragrupo aparece un conjunto de varianzas:
- Varianza intrasujeto: Sería la variabilidad existente entre las diferentes respuestas dadas por un mismo sujeto bajo los diferentes tratamientos experimentales. La varianza intrasujeto se puede descomponer en otras dos:
- Varianza intertratamientos: Variabilidad encontrada en las respuestas dadas por un mismo sujeto en la variable criterio ante los distintos tratamientos experimentales y es debida a los diferentes efectos que producen en el mismo dichos tratamientos. Es la varianza que interesa maximizar en el experimento y que explica, una vez eliminados los efectos del error experimental, el efecto que el factor manipulado ejerce sobre el fenómeno que se está estudiando (correspondería a la varianza primaria).
- Varianza error: Es la variabilidad existente entre las diferentes respuestas dadas por un sujeto en la variable criterio bajo los diferentes tratamientos por un sujeto en la variable criterio bajo los diferentes tratamientos experimentales, que ha sido producida por cualquier otra variable distinta al factor manipulado y que no tiene efectos sistemáticos sobre la conducta estudiada.
- Varianza intersujetos: Es la variabilidad existente entre las respuestas dadas por los diferentes sujetos bajo cada uno de los tratamientos experimentales
- Varianza total: Es la suma de las dos varianzas (intersujetos e intrasujetos).
- Ventajas del diseño intragrupo: Es más preciso y eficiente que los diseños completamente al azar y que los diseños de bloques. Además, elimina una de las principales fuentes de error experimental: la varianza intergrupos.
- Posible efecto del orden dado a los tratamientos experimentales, ya que éstos son aplicados en una secuencia temporal al mismo grupo de sujetos, pudiendo aparecer los efectos de la variable contaminadora del error progresivo.
- Cuando los tratamientos experimentales tienen efectos irreversibles este diseño no debe utilizarse nunca.
- La validez externa también puede disminuir ya que en la vida real los sujetos no pasan habitualmente por varios tratamientos experimentales; sin embargo, siempre que se haya controlado adecuadamente el error progresivo, se aumenta la validez interna de la investigación con relación a los diseños de grupos al azar y los de bloques.
Capítulo 7
- Interacción: Se puede definir como el efecto adicional a la suma de los efectos individuales de las variables independientes. No hay interacción cuando este efecto es nulo, no aparece, una variable actúa independientemente de las condiciones que se den en la otra.
Caso de interacción nula: Siempre que la representación gráfica de los resultados de un diseño complejo sea un conjunto de líneas paralelas podemos asegurar que no existe interacción entre las variables.
Caso de interacción: Hay efecto de interacción de A x B (de ambos factores) cuando la p es significativa, lo cuál significa que son cambios sistemáticos y que no ocurrieron por azar, y además también hay porque los patrones de los efectos simples son diferentes y no son paralelos.
- Interacción ordinal y no ordinal:
- Tanto en la gráfica de interacción ordinal como en la de interacción no ordinal, ambas representaciones no son paralelas.
- En la gráfica de interacción ordinal la línea condicionada por A1, está siempre por encima, en un orden superior, a la línea condicionada por A2. El criterio para decir que una interacción tiene categoría de ordinal es que las líneas están unas por encima de las otras, sin juntarse. Podemos concluir que A1 produce sobre la variable dependiente unos valor superiores a A2
- En el caso de la interacción NO ordinal, la línea condicionada por A1 no mantiene un orden respecto a la línea condicionada por A2. Estas líneas se juntan al cruzarse. Evitamos utilizar el criterio cruzarse ya que no clasifica adecuadamente el caso en que se junten, sin cruzarse, situación que responde al caso no ordinal. Cuando la interacción es del tipo no ordinal, no podemos concluir nada sobre A1 respecto de A2, de forma global.
Capítulo 32
- Diseños de un solo sujeto (reversión y líneas base múltiples)
- Ventajas de los diseños de un solo sujeto:
- Reduce al mínimo los efectos de uno de los factores de confusión más poderosos en la investigación de la conducta, las diferencias del cliente individual
- Permite hacer comparaciones entre la conducta de un individuo bajo una condición y bajo otras condiciones
- Se evita que otras variables afecten al resultado y así es posible comprobar los efectos que tiene el procedimiento sobre la conducta.
- Si una variable independiente particular (ejemplo: presentación de alabanza) está relacionada de modo funcional con la conducta de un individuo determinado (ejemplo: tasa de responder preguntas), la presentación contingente de la V.I. deberá afectar sistemáticamente a esa conducta. Si la alabanza es un reforzador, la tasa de responder preguntas se incrementaría; si la alabanza es un estímulo aversivo, la tasa se reduciría.
- Forma de trabajar: En los diseños de reversión primero se mide el rendimiento en la línea base. Después, se introduce la variable independiente. Luego, se elimina esta última. Normalmente la V.I. se introduce de nuevo. La primera línea base se identifica como fase A; la condición experimental, en la que se introduce la V.I. es la fase B. el retorno a las condiciones de línea base es la reversión o sondeo; las condiciones son entonces idénticas a las de línea base ya la denominación A vuelve a ser apropiada. La reintroducción de la variable independiente se denomina B. Así, un diseño de reversión suele llamarse “diseño ABAB”.
- Ventajas de los diseños de reversión: su principal ventaja es que demuestra una relación funcional entre la conducta dependiente y la intervención. Le proporciona explicabilidad al programa. Además ese diseño puede usarse como un instrumento de enseñanza, para demostrarla a los manejadores de contingencia qué tan efectivos son sus nuevos procedimientos. También les proporciona una base para contrastar los efectos de sus enfoques típicos (línea base) con los de otro que haya demostrado su efectividad. Como un diseño de reversión puede implicar la alternación de reforzamiento y condiciones de extinción, también puede facilitar la transferencia del cliente de los programas continuos a los intermitentes.
- Deventajas de los diseños de reversión: Primero, se encuentra el establecimiento y la medición de las condiciones de línea base que lleva tiempo y las condiciones mismas no contribuyen al cambio conductual real. Además, los profesionales temen a menudo que la conducta modificada tal vez no se recobre después del regreso a las condiciones de línea base.
- Las reversiones se pueden justificar desde un punto de vista ético debido a que “comprueban la independencia”. Lo que el sondeo hace es proporcionar información sobre el funcionamiento del cliente en ausencia del programa conductual.
- Diseños de línea base múltiple
- Estos tipos de diseños ofrecen alternativas viables a los diseños de reversión. Tienen algunas variaciones de uso frecuente:
- A través de conductas: en la técnica de línea base múltiple, varias respuestas se identifican y se miden en el transcurso del tiempo para proporcionar líneas base en comparación con las cuales pueden evaluarse los cambios. Con estas líneas base establecidas, el experimentador aplica una variable experimental a una de las conductas, produce un cambio en ésta y puede observar poco o ningún cambio en las otras líneas base. Si es así, en vez de revertir el cambio acabado de producir, aplica la variable experimental a una de las otras respuestas que aún no han cambiado. Si se alerta en ese momento, aumenta la evidencia de que la variable experimental es en verdad efectiva y que el cambio anterior no fue tan solo una coincidencia. La variable podrá aplicarse a otra respuesta más y así sucesivamente. Este diseño resulta útil/adecuado cuando las conductas sean tan distintas como sea posible
- A través de individuos: este diseño de línea base múltiple resulta útil para los que trabajan con clientes, pacientes, padres, maestros. El analista conductual recopila líneas base de la misma conducta con varias personas. Los efectos de la intervención se comprueban primero con un cliente, mientras se contiúan las condiciones de línea base con los otros clientes. Después, se introduce la intervención con otro cliente. El objetivo es demostrar que independientemente del tiempo, sujeto específico y condiciones ambientales, la conducta de cada cliente cambia de modo sustancial sólo cuando se introduce la intervención. Este diseño es más adecuado para conductas que no requieren atención inmediata.
- A través de situaciones: En este diseño se recopilan datos de una conducta meta para uno o más sujetos a través de diferentes circunstancias o situaciones. Su mayor desventaja es que cuando hay mucha generalización no programada de las conductas meta seleccionadas a través de situaciones, el diseño no funcionará según lo previsto. Si se sospecha que cuando se cambia la conducta de un cliente en una situación, cambiará en otras también, será mejor seleccionar otro diseño.
Capítulo 11
- Muestras:
- Aleatorias (Cada elemento de la población tiene una probabilidad igual o cuantificable de ser seleccionado):
- Muestreo aleatorio simple: Una vez elegida la población, la primera etapa consiste en determinar el tamaño de la muestra. Cuanto mayor sea la muestra, más exactas serán las probables generalizaciones a la población respectiva. Segunda etapa: se identificará cada elemento de la población. Tercera etapa: si los elementos carecen aún de código, se asignará a cada uno de ellos un código de identificación único. Cuarta etapa: los códigos se seleccionarán al azar, hasta que se identifiquen todos los elementos de la posible muestra. Para la selección aleatoria puede utilizarse un programa de computadora o una tabla de números aleatorios; también pueden colocarse todos los números en hojas de papel y extraerse de un sombrero.
- Muestreo aleatorio sistemático: Requiere que se decida un tamaño de muestra y que luego se divida el de la población entre el de la muestra. Esto da una cifra que se usa como base del muestreo. Ejemplo: si se necesita una muestra de 100 personas de una población de 2500 la cifra se 2500/100= 25. Al azar, se elige un número de inicio entre la población, digamos 70. La primera persona de la muestra es la 70ª, la siguiente es la 70 + 25 = 95, y así sucesivamente.
- Muestreo estratificado: Requiere la división de la población en subgrupos o estratos mutuamente excluyentes. Ejemplo: división de la muestra por género en estratos de hombres y mujeres. Una vez elegidos los estratos puede aplicarse el muestreo aleatorio simple o el sistemático en cada estrato para elegir la muestra. Una ventaja del muestreo estratificado es que se garantiza que ésta contendrá representantes suficientes de cada uno de los estratos. Hay dos maneras de conducir el muestreo estratificado:
- Muestreo proporcionado: Se aplica si el muestreo del estrato refleja las proporciones de la población
- Muestreo desproporcionado: se aplica si los investigadores no requieren que su muestra tenga las proporciones de la población
- Muestreo aleatorio de conglomerados: Requiere un muestreo inicial con base en una unidad mayor que el elemento de población. Esto puede hacerse:
- Muestreo de conglomerados de un sola etapa: ejemplo: los investigadores desean encuestar a estudiantes que cursen psicología en Gran Bretaña, pero en lugar de identificarlos a todos identifican todos los lugares donde se imparten cursos en la materia. Podrían seleccionar al azar varios cursos y luego encuestar a todos los inscriptos en ellos.
- Muestreo de conglomerados de varias etapas: Una muestra de conglomerados de varias etapas podría usarse cuando los investigadores desean encuestar a jóvenes de secundaria. Empezarían por identificar a todas las autoridades educativas de Gran Bretaña y seleccionar al azar entre ellos. Después, de las autoridades seleccionadas identificarían todas las escuelas y elegirían al azar entre éstas. Luego, podrían encuestar a todos los alumnos de las instituciones seleccionadas o tomar muestras al azar de cada una de ellas. El muestreo de conglomerados tiene la ventaja de que, si los elementos de la población están muy dispersos geográficamente, la muestra se aglomera en un número limitado de lugares. Si en el estudio se requiere que los investigadores se encuentren con los participantes, sería necesario visitar la menor cantidad de sitios. De igual manera, si entrevistadores capacitados deben conducir el experimento, podría concentrárseles en un número reducido de lugares.
- No aleatorias:
- Muestreo accidental/de oportunidad/de conveniencia: implica el muestreo de las personas que uno encuentra por casualidad
- Muestra de cuota: Es una oportunidad, pero con cuotas establecidas para el número de personas que habrán de incluirse en las submuestras. A veces la cuota puede basarse en algo, como un grupo de edad o un estatus socioeconómico, donde se necesitaría acercarse a todos y plantear una pregunta de filtro para saber si se encuentran en uno de los subgrupos por incluir en la muestra. Si las cuotas se establecerán en varias dimensiones, suele usarse el término muestreo dimensional.
- Principal ventaja de una muestra aleatoria: Es posible generalizar con cierto grado de exactitud los resultados obtenidos de la muestra a la población
- Intervalos de confianza: nunca podemos estar totalmente seguros de que nuestro estimado de un parámetro es exacto, pero sí podemos encontrar un rango de valores que nos dé cierto nivel de confianza de que el parámetro debe caer en él; a este rango se le llama intervalo de confianza. Un nivel común de confianza es de 95%. Cuanto mayor sea el porcentaje de confianza que requerimos, mayor será el intervalo donde el parámetro puede caer a fin de que podamos tener más confianza de que hemos incluido el parámetro en el intervalo. Hay tres factores que influyen en el tamaño del intervalo de confianza: (1) la proporción de la muestra para la que se calcula el intervalo de confianza; (2) el tamaño de la muestra y (3) los tamaños relativos de la muestra y de la población.
Cuanto mayor sea la muestra, menor será el rango del intervalo de confianza para el mismo nivel de confianza; podemos determinar con mayor exactitud el parámetro de la población. Cuanto mayor sea la muestra, mayor será el aumento del tamaño de la muestra que se precisa para reducir el intervalo de confianza en una cantidad equivalente. Mayor sea la muestra como proporción de la población, más exacto será el intervalo de confianza.
- Cuanto más se aleje de 0,5 (o 50%) la proporción para la que se estima el intervalo de confianza, tanto menor será este.
- Margen de error: es la mitad del intervalo de confianza
Capítulo 5
- Para que las mediciones sean válidas deben ser objetivas, aunque las mediciones objetivas no necesariamente sean válidas.
- Selección de sistemas de observación
- Selección de variables dependientes
- Cuando una conducta meta (ejemplo: acto de compartir) se traduce en términos cuantificables (ejemplo: tenderles juguetes a otros sobre pedido en un máximo de 10 segundos) la medida del suceso (en el ejemplo la frecuencia) se denomina variable dependiente. La medida de la conducta es la variable dependiente clave, aunque también puede ser importante medir otras variables (o parámetros), las medidas de las cuales pueden alterarse en función del programa (ejemplo: se puede querer determinar si el incremento del acto de compartir es acompañado o no de un cambio en el comportamiento de golpear, entonces también se mediría la conducta de golpear).
- Para elegir las variables dependientes debe verificarse el análisis de secuencia e identificar las conductas meta y las contingencias más frecuentes, aquellas que son más aptas para suprimir las conductas meta, interferir con ellas o facilitarlas. Una vez que se han seleccionado las variables dependientes, debe escogerse un sistema de medición apropiado.
- Selección de medidas válidas
- Un sistema de medición válida tiene que ser apropiado a la variable que intenta medir. En el análisis conductual aplicado es importante que todas las personas participantes estén de acuerdo en que las medidas seleccionadas sean apropiadas. Sin un consenso inicial, todas estas personas trabajarían en pos de metas diferentes, y por esto lo más probable es que no estarían de acuerdo al final de que el programa tuvo éxito.
- Selección de medidas confiables
- Los análisis conductuales deben demostrar que sus sistemas de registro son confiables; una forma de hacer esto es al hacer registros simultáneos con dos observadores independientes. Debe haber un gran acuerdo entre los dos para demostrar que la conducta bajo observación se mide de la misma manera. Si no se obtiene un alto porcentaje de acuerdo, cualquier cambio que registre un solo observador en la conducta observada puede reflejar un cambio en la observación y registro de respuestas más que en el comportamiento mismo. Por ejemplo, una fuente de error podría encontrarse en las expectativas del observador. Los observadores confiables no deberán estar informados de la manipulación experimental; sólo deberá informárseles de la conducta que habrán de observar. Para asegurarse a sí mismos la consistencia, los observadores pueden registrar sus medidas directamente mientras el comportamiento se graba o se filma y después pueden registrar la misma conducta independientemente del a grabación.
- El nivel de acuerdo puede evaluarse en busca de su confiabilidad si un segundo o tercer observador independiente califica a la misma muestra conductual. El porcentaje de acuerdo entre los dos conjuntos de observaciones deberá ser de 80 y de preferencia más elevado. Para una conducta relativamente sencilla y clara, como deletrear palabras, sumar o abrochar botones, deberá exigirse un coeficiente mucho más elevado.
- Técnicas de registro de la conducta: Una vez identificadas las mediciones válidas y confiables, hay que seleccionar un método para registrar esas mediciones y para esto los analistas conductuales pueden adoptar varias técnicas.
- Mediciones de productos permanentes:
· Ciertos comportamientos dejan evidencia física en la forma de un producto duradero.
· Hay diversas ventajas en la medición de productos permanentes; la validez de las mediciones cuantitativas o cualitativas puede demostrarse con facilidad si se les pide a jueces independientes que valoren los productos mediante sus propios criterios: “¿Cuál examen de aritmética es mejor?”. Un gran consenso entre las clasificaciones conductuales y las de los jueces ayuda a validar las mediciones. La reactividad, los efectos ocasionados por los mismos procedimientos experimentales, puede distorsionar la validez de los datos. Es más fácil medir los productos permanentes para evaluar la confiabilidad de la medición.
- Medición de los sucesos transitorios:
· Muchos tipos de comportamientos por los que se interesan los analistas conductuales no generan productos permanentes, su medición es más difícil. Para medir estas conductas, es necesario registrar observaciones conforme ocurran a encontrar algún método para preservarlas. Para registrar la conducta en el momento que ocurre, suele necesitarse la presencia de un observador en vivo, algunos instrumentos como grabadoras magnetofónicas o de video tape, o un circuito cerrado de televisión para transmitir la imagen del suceso a otras área de observación.
· Registro de sucesos: consiste en contar las veces que ocurre una conducta determinada en un intervalo específico: 10 minutos, una sesión, un día, un período de clases. Estos registros los pueden hacer observadores entrenados empleados para ese fin, manejadores de contingencia o hasta los mismos clientes. El registro de sucesos es particularmente apropiado para medir respuestas discretas, aquellas que tienen un inicio y un final claramente definidos. Son sucesos discretos el número de páginas terminadas, las respuestas correctas, las mordidas de los hermanos. Estos sucesos pueden registrarse de diversas formas (en una lista de verificación, con papel y lápiz, con contadores electromecánicos)
· Confiabilidad del registro de sucesos:
- Se podría colocar a un segundo observador a cierta distancia del primero y pedirle a ambos que registraran el comportamiento. Entonces podrían compararse los dos totales. La fórmula para estimar la confiabilidad es:
Total más pequeño
Total más grande
- Cuando la observación informal sugiere que los observadores han perdido algunas respuestas meta, entonces para asegurar la confiabilidad del registro de sucesos, los períodos de observación deberán dividirse en intervalos. Con este tipo de observación se puede tener confianza en que ambos observadores hayan registrado los mismos sucesos. La confiabilidad podría estimarse con esta fórmula:
Acuerdos
X 100 = porcentaje acuerdo
Acuerdos + desacuerdos
- La confiabilidad de la puntuación del análisis de tarea se verifica al calcular un coeficiente de acuerdo entre las puntuaciones independientes que hacen dos individuos del suceso con el empleo de la siguiente fórmula:
Número de acuerdos
Número de acuerdos + desacuerdos
Registro de duración
- Si la duración de un suceso tiene un interés particular, entonces podrá usarse un reloj de pared, un cronómetro o un registrador de tiempo. Al igual que en el registro de sucesos, la confiabilidad de un sistema de registro de duración se calcula con la siguiente fórmula:
Duración menor
= Índice de acuerdo
Duración mayor
* Para una mayor precisión pueden compararse las duraciones dentro de los intervalos.
Capítulo 6 - Registro de intervalo e implementación de sistemas de observación
Registro de muestra temporal de intervalo
- Muestreo temporal de intervalo: Es el registro que proporciona datos más claros para tipos de conducta que no son claramente discretas, cuando es difícil decir cuándo comienza y finaliza una respuesta. Con este muestreo es posible evaluar la presencia o ausencia de tales respuestas dentro de cuadros temporales breves. Estos datos se pueden usar entonces como muestras de la conducta del cliente.
- Sistema de muestreo temporal de intervalo completo
- Será este sistema si el sistema requiere que la respuesta se emita en todo el intervalo completo para que su presencia se registre. Se utiliza cuando es importante saber que la conducta no es interrumpida.
- Sistema de muestreo temporal de intervalo parcial
- Será este sistema si el sistema requiere sólo de una muestra de la respuesta dentro del intervalo para registrar. Los intervalos parciales se usan para registrar conductas transitorias, como efectuar gestos grotescos.
- Sistema de muestreo temporal momentáneo
- Se denominará sistema de muestreo temporal momentáneo si el sistema requiere que la respuesta ocurra en el momento en que termina el intervalo.
· Los muestreos temporales momentáneos son apropiados para conductas como los movimientos estereotipados de las manos, la afición de chuparse el dedo, las cuales pueden persistir durante algún tiempo. A veces es necesario sacar una muestra de varios comportamientos simultáneamente. Para este fin puede usarse una hoja de registro codificado de intervalo. A cada conducta se le asigna una letra. La ocurrencia de un comportamiento se registra con una marca transversal en la letra correspondiente durante el intervalo. Este sistema puede usarse para tomar mediciones de muestras temporales de intervalo completo, parcial o momentáneo, de las conductas de un sujeto. Una hoja de registro codificado puede usarse con eficacia para el muestreo temporal de intervalo completo y momentáneo. Su mayor ventaja es que simplifica el trabajo de escribir varios símbolos en poco tiempo. Una limitación del registro de muestreo temporal de intervalo es que no resulta práctico para el estudio de conductas importantes pero infrecuentes.
Validez y confiabilidad del registro de intervalo
- Una medición válida de una conducta permite la cuantificación sin distorsión. La estimulación de una conducta que ocurre con cierta frecuencia pero que no se presta al registro de sucesos deberá ser posible con intervalos de muestreo temporal breve. Si un intervalo está reservado para escribir datos, también deberá mantenerse breve, pues la conducta que ocurre durante el intervalo de observación no se registrará. Mientras más dure el intervalo de registro, más observaciones de perderán.
Selección de un sistema válido de muestreo temporal de intervalo
- Propósito de la medición: determinar cuál de estos tres sistemas de intervalo usar en una situación dada.
- En general es preferible seleccionar una medición “conservadora” en relación con un resultado buscado. (Ejemplo: como el muestreo temporal de intervalo completo subestima ligeramente la duración de la respuesta, puede ser más apropiado cuando se busque un incremento de la variable dependiente. Esto tendería a prejuiciar el resultado al subestimar los cambios. Como el muestreo temporal de intervalo completo produce una subestimación, no es apropiado cuando se busca la reducción de la conducta. Un sistema de intervalo parcial resultará entonces más adecuado, ya que está prejuiciado hacia la sobreestimación).
- Una presentación convincente de datos mostraría intervalos completos libres de la conducta indeseada, especialmente cuando se conoce el aspecto inflacionario del sistema de registro. De suponerse que es verdaderamente aleatorio y que las medidas se toman con la suficiente frecuencia, el muestreo temporal momentáneo deberá producir una muestra conductual válida. Como sólo se registran episodios breves, la respuesta y el registro deben ocurrir de manera simultánea, y por esto son deseables los intervalos cortos. El sistema momentáneo es más apto para sacar muestras de conductas de mayor duración que para respuestas breves. Por lo tanto, las conductas de mayor duración requieren menos observaciones para representar el valor “real”.
- Independientemente del sistema de intervalo utilizado, es necesaria la consistencia en todas las fases de línea base y de tratamiento. La confiabilidad de la medición en el registro de intervalo se basa en los mismos fundamentos que en otros sistemas de registro. La conducta ha de operacionalizarse con precisión y los registradores han de estar cuidadosamente entrenados y supervisados. Sin embargo, es fácil que los registradores pierdan de vista algunos intervalos, en particular cuando éstos sean muy breves.
- Se ha descrito el método para la estimación de la confiabilidad mediante los coeficientes de acuerdos:
Número de acuerdos
Número de acuerdos + número de desacuerdos
* Cuando se califica una proporción muy grande o muy pequeña de intervalos, esta fórmula deberá alterarse a fin de que sólo se incluyan en los cálculos los intervalos en los cuales se presenta la respuesta. Cuando la conducta es infrecuente la fórmula inalterada produce un coeficiente exagerado falsamente.
- Las verificaciones de confiabilidad deberán hacerse antes de recoger los datos de línea base, así como durante cada fase del programa. Hay que hacer un esfuerzo para asegurar que los observadores no se entrelacen uno con otro, que en realidad sólo observen las respuestas del cliente.
- Un porcentaje alto de acuerdo sugiere que las técnicas de registro son confiables. Si el coeficiente de confiabilidad es muy inferior al 80% deberán realizarse cambios antes de proceder. El acuerdo deficiente entre los observadores suele ser el resultado de la carencia de definiciones operacionales adecuadas. Se necesitan habilidades técnicas para seleccionar e implementar sistemas de registro válidos y confiables. Estas habilidades pueden desarrollarse mediante la supervisión en el trabajo, mediante la lectura y práctica intensiva, o la participación en “paquetes” de talleres de capacitación.
Implementación de sistemas de observación
- El personal de registro conductual
- Función principal de los técnicos conductuales: diseñar e implementar sistemas de registro observacional, supervisar la recolección de datos y diseñar y ejecutar esquemas gráficos para el monitoreo continuo.
- Autorregistro: Es el hacer que los clientes observen y registren su propia conducta. Es una parte integral de la autoadministración o programas de autocontrol. El autorregistro exacto y confiable, tiene mayores probabilidades de ocurrir si es reforzado, aunque es problemático.
- Como una técnica de tratamiento, la autoobservación y el autorregistro también presentan algunos problemas. Los efectos a menudo son temporales; a no ser que se le complemente con influencias adicionales para el cambio de la conducta (ejemplo: reforzamiento social), el automonitoreo no es prometedor en el mantenimiento a largo plazo de la conducta productiva. Además el automonitoreo tal vez no dé lugar a ningún cambio conductual a no ser que vaya acompañado por el refuerzo de la conducta de meta.
- Es conveniente que los autorregistradores tengan un interés creado por el progreso del programa. Los sistemas de autorregistro bien realizados pueden ayudar a elevar al máximo la participación del cliente, ahorrar tiempo y ayudarle al cliente a lograr una mayor autoadministración o autocontrol.
- Capacitación y supervisión del personal de registro conductual
- Para verificar que un sistema dado de registro sea lo bastante confiable, deberán tomarse mediciones independientes al menos por dos observadores varias veces bajo las condiciones que prevalecerán en todo el programa. Si las mediciones independientes no producen altos coeficientes de confiabilidad, habrá de efectuarse un programa de capacitación en confiabilidad. La capacitación en confiabilidad puede incluir la identificación y comunicación más precisas de las respuestas componentes o de las direcciones más claras para el registro de datos. Durante el entrenamiento, los observadores pueden comunicarse entre sí para clarificar las definiciones y los métodos de registro. Un método efectivo para adiestrar a los observadores consiste en usar una muestra filmada en video tape de la conducta que habrá de medirse. Esta muestra permite la presentación repetida del mismo material hasta que todos los observadores estén de acuerdo. Después de varias sesiones de práctica, puede suponerse con cierta seguridad que los observadores están adecuadamente entrenados.
- El mantenimiento de la confiabilidad observacional
- El garantizar consistentemente alta exactitud en el registro en varias sesiones, no garantiza la persistencia de la confiabilidad. Deberán hacerse verificaciones frecuentes de confiabilidad en todo el transcurso de un programa, y a los observadores deberá informárseles de ello. Idealmente, los observadores no deberán se conscientes del momento exacto en que se lleven a cabo tales mediciones, aunque a veces esto resulta impráctico.
- Como las expectativas sobre los resultados también pueden prejuiciar a éstos, es mejor no informar a los observadores sobre los resultados esperados de un estudio. El saber que la confiabilidad va a evaluarse con frecuencia puede ayudarle a los observadores a mantener altos niveles de exactitud. La observación confiable se mantiene mejor cuando se refuerza a los observadores de vez en cuando.
- El registro de los datos conductuales
- El sistema de registro de datos le permite al analista conductual estimar el funcionamiento actual de los clientes en lo que se refiere a sus conductas meta. Los datos se registran y entonces se grafican al final de cada sesión.
- La forma de las curvas proporciona información sobre los valores cuantitativos de las conductas meta. La línea vertical, u ordenada, se suele graduar con la escala de medición conductual: tasa, porcentaje, etc; las unidades de tiempo: sesiones, días, etc., se disponen en la línea horizontal o abcisa.
- Adaptación
- No es apropiado recolectar datos de línea base que proporcionarán un estándar para la medición del nuevo ambiente, ya que el comportamiento inicial no es típico. Deberá transcurrir el período de adaptación al nuevo ambiente antes de que se inicie formalmente la fase de línea base.
- Medición de línea base
- Cuando se presume que la conducta volvió a su estado típico, la adaptación es un hecho. La representación gráfica de la conducta le otorga más apoyo a la noción de que la adaptación ha ocurrido cuando las fluctuaciones extrañas comienzan a disminuir. Entonces, puede hacerse una evaluación razonable de línea base.
- La fase de línea base consiste en mediciones repetidas de las variables dependientes en el transcurso de varios días o incluso semanas. Esto continúa hasta que presumiblemente han sido identificados los límites externos dentro de los que fluctúa. Para que haya seguridad de que la línea base sea una representación válida del aprovechamiento típico, la fase deberá mantenerse durante varios días. Entonces se reducirá al mínimo el efecto de cualquier suceso extraño. Una vez que se inicia la fase de intervención, las condiciones de línea base (ausencia de tratamiento) pueden volverse a introducir periódicamente por unos cuantos días o sesiones, para verificar si cualquier cambio en la medición conductual persiste una vez que se interrumpa la intervención. Este diseño, denominado “ABAB” (A=línea base, B=tratamiento), se suele usar a menudo para evaluar la efectividad de una intervención.
- Los efectos de la intervención pueden comprobarse al recoger datos de línea base sobre diversos tipos independientes de conducta o de la misma conducta de un cliente en diferentes colocaciones. Las líneas base se mantienen durante diferentes lapsos de tiempo para mostrar que cuando y sólo cuando la intervención ocurre, la conducta cambia de manera substancial. Este sistema de evaluación es denominado diseño de línea base múltiple y diseño ABAB.
- Hay una ventaja adicional en la recopilación de datos de línea base; le permite al observador medir con objetividad la ocurrencia de una conducta que parecía peor de lo que en verdad era. La recopilación de datos de línea base sirve como una verificación sobre la validez del objetivo seleccionado. De suponerse que los datos de línea base validan la necesidad de intervención, el paso siguiente es el de seleccionar un procedimiento adecuado.
Capítulo Argibay
Técnicas psicométricas, cuestiones de validez y confiabilidad
- La técnica sirve para operacionalizar mediante un instrumento algún constructo hipotético. Es de fundamental importancia que el instrumento esté midiendo lo que dice medir, caso contrario se estaría operacionalizando incorrectamente el atributo, al no corresponderse lo que realmente se observa. La precisión y la congruencia tienen que ver con la confiabilidad del instrumento. Que el instrumento mida realmente lo que dice medir, se relaciona con la validez.
Confiabilidad
- Toda medición tiende a presentar errores, por lo que el valor que se observa en la medición está formado por el valor verdadero y por el error de medición. Si se pudiera llegar a una medición que, en un sentido ideal, no tuviera márgenes de error, el valor observado y el valor verdadero (que se correspondería con la variable a medir), coincidirían. Un instrumento será más confiable en la medida que maximice el valor verdadero sobre los errores de medición. Al reducir el error de medición, incrementamos la similitud entre el valor verdadero y el obtenido, y así se da el incremento de la confiabilidad.
- En el análisis de confiabilidad tenemos que considerar 3 aspectos:
- Su congruencia o consistencia interna:
· Consiste en que las distintas partes que componen el instrumento estén midiendo lo mismo. De manera que en condiciones ideales, esperaríamos encontrar que los distintos ítems estuvieran correlacionados entre sí. La congruencia interna del instrumento se establecería según la magnitud de los valores que expresaren las correlaciones entre sus partes. Los procedimientos para calcular la congruencia interna podemos dividirlos en dos métodos principales:
- Métodos basados en la división del instrumento en 2 mitades
1º Se divide el instrumento en 2 mitades
2º Se obtiene la puntuación para cada mitad en forma independiente
3º Se usan estos puntajes para estimar el coeficiente de correlación entre ambas mitades. Este coeficiente de correlación se ajusta mediante la fórmula de Spearman-Brown (es necesario aplicar esta fórmula ya que las escalas de mayor longitud son más confiables que las cortas)
- Métodos basados en la covarianza de los ítems
Dentro de estos métodos el más utilizado es el coeficiente alpha de Cronbach y en general es preferible al método de la división por mitades. Si bien, de ser confiable el instrumento, con ambos métodos se obtendría un coeficiente de confiabilidad aceptable.
· Es fundamental al interpretar el coeficiente alpha saber que el valor de éste se ve afectado por el número de ítems, de manera que entre dos tests que tuvieran realmente la misma confiabilidad, el que tuviera menos ítems daría un menor coeficiente alpha. Esto se debe a que al aumentar la longitud del instrumento la varianza verdadera aumenta en mayor proporción que la varianza de error.
- Lo más recomendable al interpretar el coeficiente de confiabilidad es considerar cuan próximo está al valor máximo (uno), evaluar el margen de error y considerar las distintas circunstancias que involucren el uso del instrumento y, fundamentalmente, tener en cuenta el número de ítems que contenga el instrumento.
2. Estabilidad del instrumento
- Al analizarse la congruencia interna, en ningún momento se contemplaban las variaciones que podían darse en las medidas y la consecuente disminución de la confiabilidad, debidas al paso del tiempo. Al hablar de la estabilidad de un instrumento se contempla este factor, y lo que se observa es en qué grado se obtienen las mismas medidas al aplicar dos veces el mismo instrumento, mediando entre ambas tomas un tiempo determinado. Entre ambas tomas pueden intervenir una serie de factores que sean fuentes de varianza de error, disminuyendo la confiabilidad de las medidas:
- Modificaciones en la actitud de los sujetos respecto de la prueba o cambios en la información que éstos manejen podría afectar los puntajes de la segunda toma del test, incidiendo sobre los valores de correlación, ya sea incrementando artificialmente la confiabilidad o infravalorándola
- Es importante el lapso que medie entre ambas tomas ya que un lapso demasiado breve podría incrementar el efecto distorsivo de la memoria y la práctica, pero incrementar demasiado el tiempo produciría otro problema: la aparición de variables relacionadas con la maduración (abarca el conjunto de procesos biológicos y psicológicos que operan en los sujetos como consecuencia del paso del tiempo. Suele ser mucho más relevante si los sujetos son niños, ya que en ellos se pueden esperar cambios pronunciados en lapsos de tiempo breve) y la historia (incluye todos aquellos eventos que pudieran tener lugar en el lapso que medie entre ambas aplicaciones y que podrían llegar a afectar el resultado de la segunda prueba. Esto se manifestaría menos en atributos estables como rasgos de personalidad, que en aquellos que describieran estados).
- Equivalencia
- La técnica de equivalencia se aplica cuando se quiere determinar la confiabilidad de dos instrumentos que se consideran paralelos. Se trata de poder establecer la consistencia o equivalencia de los instrumentos que suponen medir el mismo constructo, al aplicarlos a los mismos sujetos. En este caso se aplican las dos formas del test en forma simultánea, se va variando el orden de presentación del as formas de sujeto en sujeto (para controlar posibles efectos de orden) y luego se correlacionan los puntajes de ambas formas. De ser ambas formas equivalentes tendría que obtenerse un coeficiente de correlación elevado. En la práctica es muy difícil establecer que las formas sean realmente paralelas, por tal motivo suele tratárselas más bien como formas alternativas.
Validez
- La validez tiene que ver con poder determinar si el instrumento está midiendo realmente el atributo que dice medir. Determinar la validez de un instrumento es más difícil que establecer su confiabilidad; la confiabilidad sería esencialmente una cuestión empírica y la validez incluye más elementos teóricos, ya que la validación persigue la explicación, con todas las complicaciones que esto implica. Hay distintos tipos de validez:
- Validez de contenido: para analizar la validez de contenido, se evalúa si los ítems usados para construir el test son relevantes para el uso que se le va a dar al test, es decir, si todos los ítems están dentro del dominio de interés. Después, importa saber si los ítems constituyen una muestra representativa del universo de conductas que podrían haberse elegido como indicadores del atributo en cuestión.
- Validez de criterio: acá se persigue un fin más práctico, además de establecer que se mida adecuadamente un constructo, fundamente se trata de relacionar las puntuaciones del isntrumento con las variables criterio. Es útil cuando se quiere hacer inferencias a partir de los puntajes que se obtienen en el test respecto de alguna otra variable de interés. Dentro de esta Validez se habla de:
- Validez concurrente: Se da si se relaciona las puntuaciones del test con alguna medida del criterio tomada en el mismo momento. Esta validez implica un diseño transversal, recolectan datos en un solo momento, en un tiempo único.
- Validez predictiva: Se da si las puntuaciones del test se utilizan para predecir alguna medida del criterio que se va a realizar a futuro. No hay que confundir validez predictiva con poder predictivo; éste último, está presente tanto en validez predictiva como en la concurrente. (Ejemplo: cuando se ha hecho un estudio de validez concurrente y se ha establecido que tal variable de un test correlaciona con tal criterio, se predice esa correlación y a eso se le llama poder predictivo.) Esta validez implica un diseño prospectivo.
* La diferencia entre ambas formas de validez, no tiene que ver con si son o no predictivas (desde un punto de vista científico), sino más bien con el diseño que involucran en cuanto a su dimensión temporal.
- Validez de constructo: muchas variables psicológicas no son observables directamente, por lo que deben ser operacionalizadas, o sea, indicarse los procedimientos de medida para observar la variable, hacerla empírica. Los instrumentos psicométricos se refieren a constructor hipotéticos, siendo el instrumento una forma de operacionalizar los mismos. La validez de constructo consiste en tratar de probar que las conductas que registra el test pueden ser consideradas indicadores válidos del constructo al cual refieren. Se utilizan distintos procedimientos para evaluarla:
- Análisis factorial:
- Se utiliza cuando el test está dividido en factores y sirve para medir la validez de constructo, debido a que desde la teoría del instrumento se plantean los distintos factores como atributos diferenciados.
- Para comprobar la validez de constructo (factorial) se utiliza el análisis factorial. Esta técnica analiza las intercorrelaciones entre sí, las cuales remiten a factores subyacentes, no observables, o sea que constituyen distintos constructor. Estos constructos forman parte de la teoría del test.
- El análisis factorial, se utiliza no sólo para evaluar la validez del instrumento, sino de sujetos para establecer si la estructura factorial planteada puede ser replicada, lo cual nos permitiría hablar de la validez factorial del instrumento. Hay diferentes criterios para establecer el número de sujetos indicado, como por ejemplo que el número de sujetos no sea menor a 5 veces la cantidad de ítems del instrumento
- Diferenciación entre grupos:
- Se aplica a dos o más grupos, los cuales debieran diferir en el atributo que se mide, en razón de alguna característica que se usó para formar lso grupos, y lo que se podría inferir a partir de la teoría del constructo que mide el instrumento que dicha característica estaría relacionada con diferencias predecibles en el atributo.
- Correlaciones con otras medidas del constructo:
- Cuando ya existe otro test ya validado que mide el mismo constructo o varios tests, se puede correlacionar el nuevo con aquél o con los varios tests ya existentes, para establecer su validez de constructo. Este procedimiento depende de que exista por lo menos un test, con un constructo idéntico o muy similar, al que se intenta validar.
- Las matrices multimétodo-mutirasgos:
- Para poder aplicar esta técnica se precisa que existan como mínimo dos métodos diferentes para medir el constructo que se va a validar. También se necesitan otros constructos que puedan ser medidos por los mismos métodos. Se miden en los sujetos de la muestra los distintos constructos con métodos diferentes. Se calculan las correlaciones entre todas las medidas y se forma con ellas una matriz que contendría los siguientes datos:
a. Coeficientes de fiabilidad: serían las correlaciones obtenidas entre medidas del mismo constructo con el mismo método. Se espera que sean elevados
- Coeficientes de validez convergente: son las correlaciones entre las medidas del mismo constructo, obtenidas con métodos diferentes. Se espera que las correlaciones sean altas
- Coeficientes de validez divergente: son las correlaciones de constructos diferentes medidos con igual método y las correlaciones de diferentes constructos medidos con distintos métodos. Se espera que sean mucho más bajas que las obtenidas en la validez convergente y en el cálculo de la confiabilidad.