Altillo.com > Exámenes > UBA - Cs. Sociales - Ciencias de la Comunicación > Metodología de la Investigación
Mediciones habituales a los medios
Las más importantes en Argentina:
La medición más utilizada es la de Ibope Media Argentina que utiliza dos metodologías: people meters y cuadernillos.
Posee una cobertura del 70% del área nacional por muestra probabilística.
Relevamiento por medio de 2500 people meters que generan información en tiempo real (“minuto a minuto”) y por 4500 panelistas (hogares que se relevan por medio de cuadernillos) en Buenos Aires, Córdoba, Mendoza y Rosario.
Adicionalmente 3600 cuadernillos de TV en otras ciudades del interior
Indicadores de Audiencia
Es un indicador básico de audiencia que relaciona la cantidad de audiencia, personas u hogares, con el tiempo de exposición al medio.
El rating es una variable relativa a pesar de que no tenga el símbolo % a su lado. Cuando queremos expresarlo en valores absolutos solemos consignarlo como “miles de contactos” (000)
En televisión el rating expresa la población promedio que mira un programa o un canal durante cada minuto de su emisión. En radio 15 minutos.
Permite la comparación entre competidores.
Share% = (Rating% del programa de radio o TV, emisora de radio o canal de TV / Encendido) *100
El share no brinda información sobre la dimensión de la audiencia de un programa, un canal o una radio ya que el share solamente informa la proporción de dicha audiencia con respecto al consumo total del medio (encendido).
Permite conocer la cantidad de personas diferentes que estuvieron expuestas a un medio o un
de oyentes que escuchó al menos un cuarto de hora. En televisión el que miró al menos un programa durante el período de tiempo observado.
Se puede expresar como proporción o como valores absolutos (Contactos Netos)
El Reach NO tiene duplicaciones y sinónimos de “Reach” son “alcance”, “penetración” y “cobertura”.
En radio es la proporción minuto dentro del período de tiempo de referencia.
Por medio de entrevistas telefónicas se indaga el consumo de radio del día anterior y los hábitos semanales de escucha de radio
Se mide la escucha de radio en todos los lugares y en todas las plataformas de escucha.
El relevamiento más conocido es el de IBOPE. Aproximadamente 50.000 casos anuales en Buenos Aires, Córdoba, Mendoza y Tucumán. La población objetivo son hombres y mujeres de todos los niveles socioeconómicos entre 12 y 74 años
La empresa IBOPE desarrolla una medición para los clientes asociados al servicio.
La información se colecta por medio de códigos especiales colocados en los localizadores (URL) de las emisoras suscriptas.
Se mide cantidad de usuarios únicos, tiempo medio de escucha y audiencia a lo largo de un día y por bloques horarios
Índices de circulación frente a soportes publicitarios.
IBOPE realiza relevamientos telefónicos (6.000 casos anuales) en el Gran Buenos Aires y Pilar.
Mide circulación frente a elementos publicitarios en calles, avenidas, trenes y subtes; calificación de los elementos publicitarios; perfiles de los contactos y contactos potenciales frente a cada soporte o circuito publicitario.
Se colecta y recopila todas las “conversaciones” generadas en Twitter, Facebook, Foros, Blogs, comentarios de Blogs, Traditional Media, comentarios de videos y fotos.
Es importante para las marcas para entender las percepciones de los consumidores y su poder de influencia.
Twitter TV Ratings
Participación de los usuarios en Twitter, diez transmisiones más destacadas durante la semana, formato de ranking.
Mide:
Cobertura: En Argentina canales de TV Abierta de Buenos Aires, de los canales de TV Paga de Noticias y de deportes.
Define la relación entre el consumo de medios y el consumo de productos/servicios y marcas.
Información sobre el tamaño del mercado actual y potencial de un producto, opinión de consumidores, visión de la competencia, factores claves de elección del producto, perfil y lealtad de los consumidores, opiniones y actitudes de los consumidores que permiten desarrollar mensajes y promociones a medida.
La asociación civil Instituto Verificador de Circulaciones (IVC), constituida en 1946, realiza la auditoría y certificación de la circulación y distribución de medios impresos asociados.
Generación de un boletín mensual a partir de los datos auditados
Proceso de investigación
Proceso de investigación: conjunto de acciones/ actividades/ procedimientos que desarrolla el investigador con vistas a responder preguntas, examinar ideas y/o poner a prueba teorías con vista a producir conocimientos nuevos.
Un elemento central de todo proceso de investigación es la pregunta de investigación. Es una pregunta que sé responde con base en desarrollo de una investigación empírica. Un tipo de investigación que incorpora en su desarrollo una combinación de componentes teóricos y componentes empíricos.
Para responder estas preguntas, necesitamos recurrir a la evidencia empírica, necesitamos construir una base empírica que nos permita avanzar en dar respuesta a nuestra pregunta.
La teoría nos permite establecer los links entre lo que nosotros observamos (la base empírica) y nuestro perspectiva conceptual acerca de por qué ciertos fenómenos están vinculados con otros de una manera particular.
Las hipótesis se inscriben en un corpus teórico más amplio.
No todas las hipótesis se derivan directamente de teorías.
Nosotros podemos generar hipótesis de muchas maneras: de la teoría, directamente de la observación, o a partir de la intuición.
Ej.: Los públicos y las pautas culturales se encuentran diferenciados por razones económicas, de competencia educativa de los entrevistados y, también, por una diversidad regida por distintos gustos, tradiciones, gramática de desciframiento e identidades.
Esta hipótesis es una proposición que postula una relación entre atributos y características de los individuos que son susceptibles de variar: nivel socio económico, pautas culturales, nivel de instrucción. Estas características/ atributos de individuos o grupos se denominan variables. Puede asumir distintos valores en cada individuo.
Cada variable puede asumir diferentes valores.
Al conjunto de valores de la variable se lo denomina sistema de categoría
Las categorías deben ser:
Diseño de la investigación
El diseño de investigación se ocupa de la planeación de las investigaciones científicas: de concebir una estrategia para averiguar algo.
Hay dos aspectos principales en el diseño de investigación:
Si uno resuelve por completo la primera consideración es probable que se solucione la segunda. En última instancia, la investigación científica se reduce a hacer observaciones e interpretar lo que se ha observado. Antes de observar y analizar se necesita un plan. Uno debe determinar qué va a observar y analizar: por qué y cómo. De esto se trata el diseño de la investigación.
Propósitos de investigación
Tres de los más comunes y útiles son:
Éste es el planeamiento habitual cuando un investigador examina un nuevo interés o cuando el objeto de estudio es relativamente nuevo.
A veces la investigación exploratoria se efectúa con grupos focales o de interés, o discusiones guiadas de grupos pequeños. Ésta técnica se usa a menudo en la investigación de mercados.
Los estudios exploratorios se hacen con tres objetivos:
Ej. “Canalización”: un médium comienza a hablar con una voz de otro canal. Pocas teorías sobre esto. Se realizaron entrevistas personales. Aunque había preguntas de antemano, en cada entrevista seguía el curso que parecía apropiado con las respuestas que daban. Una de las primeras tareas fue identificar posibles variables importantes (sexo, edad, educación, religión…). También anotaba las diferencias en las circunstancias de las sesiones de canalización. Le interesaba clasificar el lugar real que decían provenir las entidades, lo hizo con preguntas concretas de la realidad para clasificar la respuesta.
El principal inconveniente de los estudio exploratorios es que rara vez dan respuesta satisfactorias a las preguntas de la investigación, aunque pueden sugerirlas y aclarar los métodos que llevan a respuestas definitivas. La razón de este inconveniente tiene que ver con la representavidad.
El observador observa y luego describe lo que observó. Estas descripciones suelen ser más fieles y precisas que las causales.
Ej. Censo en Estados Unidos: la meta del censo es describir con precisión una amplia variedad de características de la población estadounidense.
Muchos estudios cualitativos se destinan a la descripción. Los investigadores suelen profundizar para examinar por qué existen las pautas observadas y cuáles son sus implicancias.
Ej. Referir las intenciones del voto de un electorado es una actividad descriptiva, pero decir por qué unas personas planean votar por el candidato A y otras por el B es una actividad explicativa.
Unidades de análisis
En la investigación social, los investigadores pueden elegir qué o a quiénes estudiar, eligen aquellas unidades de análisis sobre las que van a construir descripciones y que van a comparar para describir y/o explicar las diferencias.
Las unidades de análisis son las personas, grupos, organizaciones, productos sociales, etc. cuyas características observan, describen y explican los investigadores sociales.
En general, los científicos sociales escogen individuos como sus unidades de análisis. Se observan sus características y se reúnen para dar una imagen del grupo al que pertenecen los individuos.
Las organizaciones o grupos sociales también suelen ser unidades de análisis en la investigación científica. Entre los ejemplos se cuentan las escuelas, las universidades, los supermercados, las familias, las empresas, etc.
En el marco de una investigación es absolutamente esencial determinar cuáles son las unidades de análisis para poder decidir qué observaciones hacer sobre qué y quiénes.
Las unidades de análisis son lo que examinamos para crear descripciones sumarias de ellas y para explicar sus diferencias.
Cómo diseñar un proyecto de investigación:
Hay que aclarar el propósito inicialmente, se puede expresar como un informe.
Después de especificar los conceptos y de elegir el método de investigación, debemos elegir nuestras técnicas u operaciones de medición. Debemos decidir cómo recopilar los datos deseados.
La última etapa del proceso de investigación consiste en los usos del estudio que realizó y las conclusiones a las que llegó. Por último debe considerar el planteamiento de su investigación en cuanto a nuevos estudios de su tema.
Selección de casos
Muestreo
Los investigadores en ciencias sociales casi nunca tienen la posibilidad de obtener información sobre el grupo completo de unidades de análisis que nos interesa investigar.
A este grupo que incluye todos los casos en los cuales el investigador está interesado se lo denomina población (≠ muestra): todas las personas, por ejemplo, habilitadas para votar en las elecciones.
La población de un estudio es aquel grupo del que queremos obtener conclusiones. Casi nunca podemos estudiar a todos los miembros de la población ni podemos hacer todas las observaciones posibles.
Esta imposibilidad ocurre en la mayoría de los casos porque el tamaño de la población es inasible.
En cada caso escogemos una muestra de los datos que podríamos recopilar y estudiar.
De esa población total, selecciono una parte.
Es posible aprender mucho de esa población si nosotros seleccionamos cuidadosamente una muestra pequeña de ella.
A esa pequeña fracción de la población la denominamos muestra: recorte pequeño del universo de estudio
A través del muestreo (selección de una parte) es posible conocer características de la población con base en resultados obtenidos de un pequeño grupo (la muestra).
Esta es la base de la inferencia estadística, hacer predicciones o inferencias sobre la población a partir de observaciones obtenidas con base en una muestra.
Para que a través de una muestra sea posible hacer inferencias sobre la característica de la población es necesario que el diseño de la muestra y la selección de casos se ajusten a determinados procedimientos.
Parámetros estadísticos
A las características de la población que los investigadores desean conocer se las denomina parámetros. ¿Cuáles son o deben ser las características de dicha muestra que me permitan hacer inferencias de la muestra a la población?
Los parámetros se estiman a través de estadísticos calculables a partir de la muestra. Los estadísticos son los que los investigadores conocen.
Un estadístico es una característica de una muestra y un parámetro es una característica de una población.
Un estadístico no es un valor fijo, debe presentar ciertas características:
Estas son las condiciones que definen a una variable aleatoria.
¿Cuándo hacer estimaciones con base en una muestra?
El muestreo permite deducir las características de la población a la que se aplica. Para que eso sea posible, es necesario que en el proceso del diseño y selección de la muestra se cumplan determinadas condiciones.
El investigador se encuentra con los límites de los datos: los datos no son reproducción a escala reducida de la población o su precisión es tan escasa que la inferencia se hace imposible.
Estimar los parámetros a través de una muestra sólo es posible cuando ésta representa a la población. Para saber cuándo una muestra es representativa de la población debemos analizar cómo fue extraída, esto es analizar el diseño de la muestra y su desarrollo.
Para que la inferencia sea posible las muestras deben reunir tres condiciones críticas:
Una de las formas de minimizar el error, es hacer una buena muestra. Para poder seleccionar, hay técnicas de muestreo que garantizan que esa muestra sea representativa del total de la población.
Los procedimientos que se emplean en la selección de los casos constituyen un factor clave si se pretenden hacer inferencias estadísticas sobre características determinadas de la población.
Los procedimientos que permiten hacer inferencias, estimar parámetros a través de estadísticos, son aquellos que se basan en el uso planeado del azar. Las muestras probabilísticas
Se fundamenta en la aleatorización como criterio esencial de selección muestral. Eso favorece que:
Conocemos la probabilidad de que un individuo sea elegido para la muestra.
Son representativas del universo.
Se pueden utilizar técnicas inferenciales: se basa en leyes matemáticas. Permite inferir de la muestra, con un margen cuantificable de error, al total de la población.
Es la única que permite decir que la muestra representa al universo.
Hay procedimientos matemáticos que permiten extrapolar, pero con cierto margen de error.
Se basa en ciertas leyes:
De estas leyes, se derivan otras 3: ley de regularidad estadística, inercia de los grandes números, permanencia de números pequeños.
Un muestreo probabilístico, es un muestreo de azar simple. No hay ningún factor que interfiera, es puro azar.
Puede ser que no conozca todas las unidades de análisis. Entonces, no voy a poder hacer un muestreo probabilístico.
El tamaño de la muestra no depende del tamaño de la población. Depende de: heterogeneidad de la población y margen de error con el que quiero trabajar.
Si tengo la posibilidad de obtener un listado de todas las unidades de análisis, puedo hacer este tipo de muestreo; si no, no.
Para tratar de superar los errores, el muestreo puede ser:
Se puede realizar partiendo de listas de individuos de la población, y eligiendo individuos aleatoriamente con un ordenador o un simple bolillero.
En general, las técnicas de inferencia estadística suponen que la muestra ha sido elegida usando MAS., aunque en realidad se use alguna de las que veremos a continuación.
El muestreo sistemático difiere del aleatorio simple en que cada elemento tiene igual probabilidad de ser seleccionado, pero cada muestra no tiene una posibilidad igual de ser seleccionadaSe tiene una lista de los individuos de la población de estudio. Si queremos una muestra de un tamaño dado, dividimos al total de la población en tantos grupos como casos queremos obtener, se elige al azar que número de elemento se seleccionara en cada uno de los grupos.
Asegura una selección “pareja” en toda la extensión de la población.
El muestreo estratificado reduce las muestras posibles que pueden seleccionarse a aquellas que proporcionan una mejor representación de la población. Se aplica cuando sabemos que hay ciertos factores (subpoblaciones o estratos) que pueden influir en el estudio y queremos asegurarnos de tener cierta cantidad mínima de individuos de cada tipo. Por ej.: sexo, grupo de edad.
Se realiza entonces una m.a.s. de los individuos de cada uno de los estratos.
Al extrapolar los resultados a la población hay que tener en cuenta el tamaño relativo del estrato con respecto al total de la población
El muestreo estratificado garantiza que cada elemento de la población tenga posibilidad de ser seleccionado. Este método resulta apropiado cuando la población ya está dividida en grupos de diferentes tamaños y deseamos tomar en cuenta este hecho. La ventaja de las muestras estratificadas es que, cuando se diseñan adecuadamente, reflejan de manera más precisa las características de la población de la cual fueron elegidas.
Cuando quiero acceder a poblaciones dispersas, elijo conglomerados donde voy a aplicar el muestreo
Se aplica cuando es difícil tener una lista de todos los individuos que forman parte de la población de estudio, pero sin embargo sabemos que se encuentran agrupados naturalmente en grupos.
Es principalmente utilizado en diseños de tipo geográfico. Se identifican zonas geográficas de similares características según una variable relevante. Se forman grupos de áreas con el criterio de “los más parecidos”. Se elige que área relevar, de las áreas de cada grupo por medio del azar simple. Una vez determinadas las áreas se eligen por azar los elementos a relevar.
Al extrapolar los resultados a la población hay que tener en cuenta el tamaño relativo de unos grupos con respecto a otros.
Estimadores de muestras probabilísticas
Se denomina estimación puntual de un parámetro al ofrecido por el estimador sobre una muestra: Ej.: resultado de intención de voto al “Partido A” de 35%
A partir del valor de esta estimación puntual se genera un intervalo de confianza. Con el nivel de confianza determinado, el parámetro se encuentra dentro de este intervalo: Ej.: 35% +/- 3% con 95% de confianza
Los métodos de muestreo no probabilísticos no garantizan la representatividad de la muestra y por lo tanto no permiten realizar estimaciones inferenciales sobre la población.
A diferencia de la anterior, la extracción de la muestra se efectúa siguiendo criterios diferentes de la aleatorización. Ello da cabida a cualquier discreción por parte del equipo investigador. Repercute en:
Dos ventajas:
Los más conocidos son:
Diseño de cuestionarios
La pregunta de investigación frecuénteme se formula en términos muy generales y pueden incluir conceptos abstractos que posiblemente no sean de fácil comprensión para las personas a entrevistar.
Se formulan preguntas específicas, las cuales medirán los conceptos contenidos en las preguntas de investigación.
Cuanto más clara y precisamente se formulen las preguntas de investigación, más fácil será la formulación de las preguntas del cuestionario.
Cuestionario: asegura el control de que el efecto generado sea igual para todos
Pautas para la formulación de un cuestionario
Tipos de cuestionarios
Desventaja: El entrevistado no tendrá a quien acudir para aclarar las dudas que le surjan en el proceso de completación del instrumento.
Ventajas: Ofrece completo anonimato y el respondiente puede sentirse libre para responder, y, su aplicación resulta económica en término de dinero y tiempo.
Ej.: En estudios cuyo universo es un instituto de educación superior- Encuestas por correo.
Pueden estar comprendidas preguntas abiertas, preguntas cerradas o una combinación de ambos tipos.
Desventaja: La presencia del entrevistador en el sentido de que quien responde no es anónimo y el entrevistador puede influir inadvertidamente las respuestas del encuestado.
Ventaja: Aquello ultimo porque el encuestador puede facilitar el proceso de responder, formulando preguntas para que el entrevistado dé mayores explicaciones o razones por las cuales ha respondido de cierta manera. Hay mayor control sobre el llenado información, mayor flexibilidad en el proceso de formulación de las preguntas y resulta en un mayor porcentaje en la obtención de respuestas.
Se pueden utilizar dos variantes:
Tipos de preguntas
Preguntas de hecho o de acción: Se refieren a cuestiones concretas, fáciles de precisar y generalmente comprobables por terceros. Ej.: ¿Tiene usted televisor? ¿Cuándo fue al cine por última vez?
Preguntas de intención: Tratan de averiguar lo que el individuo haría, en especial si eventualmente se diera una determinada circunstancia. Ej.: ¿Le gustaría pertenecer a una asociación de vecinos?
Preguntas de opinión: Se interroga al individuo sobre lo que piensa acerca de algo. Ej.: ¿Cuál es el canal de televisión que tiene el mejor noticiero?
Preguntas índice: Se formulan para indagar indirectamente sobre acerca de las cuales la gente puede sentirse incómoda o puede tener temor de dar información. Una técnica es interrogar sobre lo que considera que opina la mayoría de la gente acerca de un hecho y el entrevistado en realidad responderá lo que él piensa o expresará en su respuesta que opina distinto a la mayoría. Preguntas relativas a posiciones ideológicas, conductas sexuales, enfermedades consideradas estigmatizantes. Se recomienda no hacer estas preguntas al comienzo porque el individuo puede sentirse intimidado y finalizar la entrevista.
Pregunta abierta: Se formula y el entrevistador recoge la respuesta tal como la da el entrevistado. A partir de las respuestas se construyen categorías, se agrupan las respuestas que se refieren a una clase o giran alrededor de la misma idea. Se hace en la etapa de codificación post- recolección de la información.
Ventajas:
Desventajas:
Pregunta cerrada: El investigador, como producto de la revisión bibliográfica, ha propuesto unas categorías de respuesta que terminan de cerrarse como resultado de la prueba piloto. El entrevistador registra la respuesta del entrevistado en una de las categorías que se acerque más a la intención den entrevistado. A veces el entrevistador nombre las alternativas de respuesta de entre las cuales el entrevistado debe seleccionar la que más se adapte a la respuesta que tiene en mente.
Ventajas:
Desventajas:
Pregunta cerrada simple (o dicotómica): Las posibilidades de respuesta están limitadas a dos a dos alternativas, Si/no, empleado/desempleado. Se adapta bien al caso de cuestiones de hecho.
Ventajas:
Desventajas:
Pregunta cerrada de múltiples respuestas o de elección múltiple: Las respuestas están dadas y algunas veces estructuradas junto con la pregunta. Cuando no están estructuradas junto con la pregunta el encuestador ubica la respuesta dentro de las categorías que aparecen en las respuestas que se han previsto como posibles. Cuando están estructuradas dentro de pregunta, el entrevistado elige alguna de las opciones de respuesta que lee en encuestador.
Dos situaciones:
En ambos casos se debe especificar a continuación de la pregunta si se solicita respuesta única o se trata de una selección múltiple.
Fuentes de error en las respuestas
Uno de los criterios para evaluar la calidad de una pregunta está dado por el grado que ésta permite recolectar la información que el investigador está buscando: criterio de validez.
Las respuestas son subjetivas y en muchos casos inaccesibles para el investigador.
Para analizar el origen de los errores hay que examinar una pregunta específica sobre comportamiento: “Incluyendo todas las fuentes de ingreso, ¿Cuál fue el ingreso de su familia el mes pasado?’” Existe una respuesta correcta a la pregunta, a pesar de que uno no logre averiguarla. Uno puede obtener una respuesta errada porque el entrevistado se olvida de considerar ciertas fuentes de ingreso, como las pequeñas o de carácter esporádico. O el entrevistado puede mencionar el ingreso de otro lapso de tiempo.
Una fuente de error ocurre cuando el entrevistado no entiende la pregunta en el mismo sentido en que el investigador la formula.
Los diferentes tipos de error pueden obedecer a cuatro factores:
El análisis de los datos
Proceso de operacionalizacion
Los conceptos involucrados en la hipótesis son conceptos que están en el dominio de la teoría, no pueden observarse directamente. Para avanzar en la investigación es necesario establecer las vinculaciones que existen entre los conceptos y lo real.
Los conceptos teóricos se ligan con lo real a través de conceptos observables, estos son utilizados por los investigadores como mediaciones entre el cuerpo teórico constituido y lo real construido.
Para poder realizar la operación de observar/ contrastar los conceptos observables con la base empírica es necesario diseñar indicadores que nos permitan recortar un segmento de lo real y en esa interacción entre observación y realidad construir un dato.
Para observar esos conceptos es necesario contar con una batería de indicadores.
Este proceso de transformación de conceptos teóricos en conceptos observables y luego en indicadores es lo que se denomina proceso de Operacionalización.
Lo que el investigador intenta a través del proceso de Operacionalización es reducir, construir conceptos, ideas o hipótesis a datos.
En este proceso entran las técnicas de recolección de datos.
Instrumentos y procedimientos que le permiten al investigador transformar lo real construido en datos significativos en el marco del proceso de investigación.
En el marco de una investigación cuantitativa la técnica de uso más frecuente es la encuesta.
La encuesta es una técnica que se utiliza con un conjunto de procedimientos estandarizados de investigación mediante los cuales se recogen y analizan datos, en general, obtenidos con base en una muestra de unidades de análisis, sobre las que se pretende explorar, descubrir y/o explicar una serie de características.
Hay distintos tipos de encuestas.
La relación entre los distintos conceptos estaba planteada en las hipótesis de la investigación, pero es imprescindible tener claridad sobre ellos en el momento de organizar la encuesta porque lo que el investigador deje de medir en la encuesta ya no podrá ser utilizada como dato.
El instrumento que se utiliza para recoger los datos en el marco de una encuesta es el cuestionario.
Se inicia con la traducción de los indicadores en preguntas como se formulan a los entrevistados.
La traducción de fenómenos a investigar en preguntas organizadas en un cuestionario. Los conceptos y sus indicadores son incorporadas al cuestionario en preguntas que se formulan a cada encuestado.
La mayoría de los temas que se revelan mediante encuestas no pueden ser pasados directamente a los entrevistados en forma de preguntas.
Una vez que fijamos el contenido de preguntas hay que realizar un trabajo de formulación.
El trabajo de campo es el momento de la investigación en la que el investigador procede a recoger los datos. A través de la aplicación de la encuesta el investigador puede conocer el valor que las variables toman en cada unidad de análisis.
La matriz de datos.
Los datos se vuelcan en una base de datos para facilitar en análisis
El primer paso en este proceso de procesamiento de la información es organizar las unidades de análisis, indicadores y el valor que asume el indicador para cada unidad de análisis en una matriz de datos.
La matriz es cuadro con tanto renglones como unidades de análisis que haya y con una columna por indicador.
Las casillas de la matriz definidas por la intersección de renglones y columnas contienen los valores de los indicadores.
La matriz permite ordenar la información de manera que es posible visualizar los tres elementos que componen el dato: unidades de análisis, variables y valores de las variables.
La construcción de la matriz de datos en fundamental porque su construcción da cuenta de las complejas operaciones teórico/ metodológicas involucradas en todo proceso de investigación, al mismo tiempo que es una herramienta indispensable para proceder al análisis de los datos.
Distribuciones de frecuencias
En una investigación, el investigador tiene que trabajar con una gran cantidad de datos
Para darle sentido a esa masa de información, los investigadores deben organizar y resumir esa información de manera sistemática.
El método más básico para organizar datos es clasificar las observaciones en una distribución de frecuencias. Es una tabla que permite visualizar rápidamente el número de observaciones que cae en cada una de las categorías de la variable que estamos analizando.
Incluye los valores que presenta la variable, acompañados por su frecuencia (número de veces que aparecen)
La organización de los datos en distribuciones de frecuencias permite realizar un análisis exhaustivo de cada una de las variables incluidas en la matriz de datos: análisis univariado.
La distribución de frecuencia es organizada en una tabla, que tiene un número y un título descriptivo.
El título indica el tipo de datos que se presenta.
La tabla consiste en dos columnas. La primera columna identifica a la variable y sus categorías, figuran los distintos atributos que componen la variable.
La segunda columna titulada “Frecuencia (f)”, indica el número de unidades de análisis en cada categoría de la variable así como el total de casos que integraron la muestra. Están las frecuencias absolutas: el nuero de casos de la muestra que comparten cada uno de los valores de la variable
Las distribuciones de frecuencias son útiles para presentar información de manera compacta. Cuando el número de casos es muy grande, las frecuencias son difíciles de comprender.
Para facilitar el entendimiento y estandarizar las frecuencias, es conveniente transformarlas en frecuencias relativas (en porcentaje): representan cada valor en el conjunto de la muestra. Primero se calculan los porcentajes para toda la muestra, segundo, exclusivamente para aquellos casos que han proporcionado información al respecto.
Por ultimo se calculan las frecuencias relativas acumuladas: denotan la proporción de casos que se encuentran por debajo o por encima de un determinado valor de la variable
Porcentaje: Es una frecuencia relativa obtenida a partir de dividir la frecuencia que corresponde a cada categoría de la variable por el número total de casos de la muestra (n) y multiplicarla por 100. Ej. Porcentaje (%)= f/n *100.
Análisis univariado
Para analizar las variables incluidas en la matriz de datos, es posible emplear gráficos y estadísticas que permiten estimar, de manera precisa, características de una población con base de datos de la muestra.
Estadística: genera la posibilidad de analizar una gran cantidad de datos y transmitirlo en forma sencilla.
Hay variables que son antecedentes de las otras, no se pueden cambiar. Por ejemplo, la edad
El problema es la variable dependiente, lo que me interesa estudiar. Lo que quiero averiguar de qué depende esa variable
Permite hablar de todo un universo a partir de una cantidad de casos limitada (muestra). Se hace un salto para poder hablar del total de la población, ese “salto” se llama inferencia estadística
Hay un 95% de confianza: 5% de riesgo. Se genera un “intervalo de confianza”
El uso de los gráficos y de los estadísticos depende básicamente del tipo de variables con las que el investigador trabaje y de su nivel de medición.
El análisis estadístico de los datos involucra operaciones matemáticas. Sin embargo, no todas las operaciones pueden utilizarse con todas las variables. Las variables son los atributos que se están midiendo.
El tipo de operaciones estadísticas depende de cómo las variables estén medidas.
En función de la naturaleza propia de los conceptos, el proceso de medición implicará considerar distintas reglas o propiedades formales que caracterizarán al conjunto de números o conjunto de resultados de la asignación de valores numéricos o símbolos.
Obtenemos así distintos niveles de medición que se distinguen de acuerdo a la rigurosidad con la que han sido construidas y al propio comportamiento de las variables que miden.
Este aspecto de la medición es importante en tanto que el nivel es uno de los determinantes del contenido informativo del dato y, al mismo tiempo, condiciona el tratamiento de los mismos y las técnicas de análisis.
El orden de los niveles de medición responde a una ordenación que expresa una jerarquía creciente de operaciones matemáticas y algebraicas que pueden realizarse a partir de una serie de reglas o propiedades formales poseídas de forma acumulativa: clasificatorias, de ordenación, de distancia y de origen.
Se clasifican en cuatro tipos generales: escalas nominales, ordinales, de intervalos y de cocientes o razones.
Sólo se establece una equivalencia entre la escala y los diferentes valores que asume la variable. Es como una lista de las diferentes posiciones que pueda adoptar la variable, pero sin que en ella se defina ningún tipo de orden o de relación (Ej. Sexo, variables varón/mujer, de algún modo es útil para medir el comportamiento de la variable).
Distinguen los diferentes valores de la variable jerarquizándolos simplemente de acuerdo a un rango. Establecen que existe una gradación entre uno y otro valor de la escala, de tal modo que cualquiera de ellos es mayor que el precedente y menor que el que le sigue a continuación. La distancia entre un valor y otro queda indeterminada. Como no se puede determinar la equivalencia entre las distancias que separan un valor de otro, debemos concluir que la escala pertenece a la categoría ordinal.
Además de poseer la equivalencia de categorías y el ordenamiento interno de ellas, como en el caso de las ordinales, tienen la característica de que la distancia entre sus intervalos está determinada y que estos son iguales entre sí.
En él se conservan todas las propiedades de los casos anteriores pero además se añade la existencia de un valor cero real, con lo que se hacen posibles ciertas operaciones matemáticas, como la obtención de proporciones y cocientes.
Las nominales y ordinales suelen ser llamadas cualitativas: tienen categoría
Las intervalares y de razón, suelen ser llamadas cuantitativas o numéricas: asumen un valor
Lo mejor es nivelar con el nivel de medición más alto, y después pasar a uno más bajo si es necesario. Pero al revés no se puede.
Por ejemplo, si pregunto la edad diciendo 0-15 o 15-30, ya no sé qué edad en definitiva tiene la persona.
Estadística descriptiva
Tiene 3 grupos de procedimientos:
Determinan la posición del grueso de la distribución. Describen cómo se agrupan los atributos de una variable alrededor de un “valor típico” de la distribución. Por lo que, proporcionan una síntesis de la información contenida en la distribución.
En su cálculo no intervienen todos los valores de la distribución. Si bien, su principal ventaja es su universalidad. Puede estimarse para cualquier tipo de variable, ya que el nivel de medición mínimo exigido es el nominal.
Se sitúa en el medio de la distribución. Permite el conocimiento de los valores de mayor representación en la muestra. Su cálculo precisa que la variable sea ordinal.
Miden el nivel de homogeneidad de la distribución de datos.
Al conocimiento de los valores centrales de la distribución le sigue la medición de su representatividad: la mayor o menor variabilidad existente en torno a la media o la mediana de la distribución
Si todas las unidades de análisis tienen el mismo valor, el desvío es igual a cero. Cuanta más heterogeneidad, más alto es el valor del desvío
Si tengo una distribución por ejemplo de 60% y 40% de mujeres y varones respectivamente.
Se multiplica PxQ = 60 x 40 = 2400. Idea de lo homogéneo o heterogéneo.
Más homogeneidad cuando PxQ=0, significa que hay un 100% de algo y 0% de otro.
Trata de reproducir la varianza. Hay una máxima heterogeneidad cuando PxQ=2500: 50-50%. Es el valor máximo posible
El desvío estándar de cada grupo, dividido la media de cada grupo. Relativiza el desvío estándar al promedio.
Clasificación en cuartiles / quintiles / deciles / percentiles / etc.
Las variables se pueden clasificar según naturaleza o complejidad
Concepto de covarianza. Relaciones bivariadas.
A los investigadores les interesa detectar y describir la existencia de relaciones entre variables. La existencia de relación entre los conceptos teóricos operacionalizados a través de esas variables. Lo que el investigador busca es analizar si existe o no relación entre los conceptos que están en juego en su hipótesis.
Relación entre variables:
Se usa el concepto de covarianza para expresar en qué medida al moverse una variable se mueve la otra: en qué media al analizar las preferencias de personas de diferente nivel socioeconómico varía sus pautas en los consumos culturales.
El análisis bivariado es un procedimiento destinado a detectar y describir la relación entre dos variables. La aproximación intuitiva se funda en que los medios de comunicación todo el tiempo nos informan acerca de relaciones entre fenómenos y procesos. Ej.: relación entre la variable conducta delictiva y la variable grado de identificación por personajes violentos.
La búsqueda de relaciones entre variables está en el corazón de todo el proceso de producción de conocimiento. El investigador se hace preguntas que ponen en relación fenómenos. Ej.: como se vinculan los hábitos y gustos de porteños y bonaerenses en si nivel socioeconómico o sus capacidades educativas.
La relación significativa que ciertos valores de la variable tienden a ir junto a ciertos valores de la otra variable. Ej.: los sectores con más educación y nivel socioeconómico son los que creen más en los medios.
Variable dependiente e independiente
En la investigación en ciencias sociales, las hipótesis habitualmente se enuncian en términos de una relación entre una variable independiente y variable dependiente.
Variable dependiente: la variable que el investigador quiere explicar. Es el fenómeno que el investigador intenta investigar, describir y/o analizar. Es el objeto de la investigación.
Variable independiente: la variable que se espera explique o de cuenta de las variaciones en la variable dependiente. Es temporalmente anterior a la variable dependiente.
La variable independiente es vista como un factor que directa o indirectamente influencia el comportamiento de la variable dependiente.
Ej. Consumos culturales y perfiles de consumidores son variables dependientes y el nivel socioeconómico y de instrucción son independiente.
Concepto de cuadro bivariado
Un cuadro bivariado despliega la distribución de una variable según las categorías de otra variable.
Se obtiene clasificando unidades de análisis con base en los valores que obtienen para dos variables. Distribuciones de frecuencias que se relaciones/ se unen para hacer una única tabla: tabla de contingencia
Se utiliza para variables nominales u ordinales
Es una forma de presentar la distribución de los casos según las varibales.
Las tablas de contingencia están formadas del cruce de dos variables.
≠ matriz de datos: las tablas sintetizan la información organizada en la matriz de datos, poniendo en relación las variables
Rasgos de cuadros bivariados
Usos de cuadros bivariados:
Se puede medir:
¿Cómo calcular porcentajes en un cuadro bivariado?
Hay que convertir las frecuencias absolutas del cuadro en frecuencias relativas.
Los porcentajes son indispensables para comparar dos o más grupos (definidos por las categorías de la variable independiente) que difieren en su tamaño (los totales de las columnas son diferentes).
Generalmente los marginales son diferentes.
Es necesario estandarizar el total de cada categoría de la variable independiente. La forma más simple de estandarizar es calculando porcentajes.
Hay dos reglas básicas para calcular y analizar %:
Cuando la variable independiente se consigna en las columnas, nosotros calculamos los porcentajes para cada una de las columnas. La frecuencia absoluta de cada celda se divide por la frecuencia marginal total de la columna a la que pertenece la celda, el total de la columna debe sumar el 100%.
Si los porcentajes fuesen totalmente equivalentes entre hombres y mujeres diríamos que existe independencia estadística entre las variables.
Igual proporción entre hombres y mujeres considera que ningún medio es creíble. El orden que le asignen a los medios según el grado de credibilidad es el mismo. Por medio de los porcentajes se hace posible la comparación. Analizar los cuadros bivariados nos permite saber si existe o no relación entre dos variables.
Procedimientos a utilizar para la verificación de hipótesis
Miden la fuerza de la relación entre las variables. Algunos coeficientes miden también el sentido de la relación (aplicable solo cuando ambas variables poseen nivel de medición ordinal)
La más aplicada es la de chi cuadrado. Determinan el nivel de confianza con que se puede aseverar que existe relación entre las variables en el universo observando los datos de la muestra.
Correlación y regresión
Permiten:
Análisis multivariado
Los análisis univariado y bivariado son insuficientes para cubrir los objetivos de la investigación.
Proporcionar una visión integrada que explique la realidad que se analiza, requiere la realización de análisis multivariados. De otra forma no podrían medirse las influencias e interrelaciones existentes entre grupos de variables.
El análisis multivariado opera con un número elevado de variables, de manera simultánea.
Es el conjunto de técnicas estadísticas que permite el análisis simultáneo de más de dos variables en una muestra de observaciones. Además, posibilitan análisis sincrónicos de mediciones en más de una muestra.
La existencia de relación entre dos acontecimientos no permite suponer que uno de ellos explique o de cuenta de por qué existe el otro. En todo caso, 4 coinciden, se vinculan, hasta puede haber relación de dependencia entre uno y otro, pero no necesariamente esto determina que el suceso dependiente es explicado por el independiente
Es posible que, al presentarse covarianza entre dos variables, ésta se deba a una tercera variable que influye: variable de control. Cuando esa tercera variable no se tiene en cuenta, se trata de una interpretación espuria.
En el análisis multivariado se ponen en relación variables para determinar en qué medida o de qué forma una variable o un conjunto de variables explican el comportamiento de otra.
En el análisis multivariado se parte de un supuesto: que lo que observamos a partir de la relación entre dos variables puede deberse al efecto de otras que están jugando algún tipo de influencia y que no se visualizan en ese primer análisis descriptivo de la relación.
Se presenta una explicación de la relación entre dos variables, donde además de demostrar la covariación que existe entre ambas, debemos explicitar la secuencia temporal que establecen entre sí y garantizar que esa relación esté controlada, a la luz de otras variables que podrían estar afectando esa relación. Es importante señalar que la incorporación al análisis de estas variables surge del marco teórico, ya que la decisión de controlar se presenta considerando aquellas variables que son relevantes teóricamente para el estudio de ese fenómeno social
Uso del análisis multivariado
Durkheim que, en su estudio sobre el suicidio, partiendo de una primera relación entre dos variables, establece posteriores y sucesivos controles de esta relación inicial para avanzar en el proceso de explicación de este fenómeno. En todo momento el objetivo primario se vincula con contemplar la posible influencia de otras variables en la relación, analizando en cada caso nuevas asociaciones que puedan llegar a realizarse.
Finalmente, en su estudio encuentra un elemento común de mayor abstracción que lo lleva a pensar que no es la religión la que impulsa el aumento de las tasas de suicidio sino la expresión de un cierto libre examen, una cierta posibilidad de desarrollo de la individualidad y con ello la idea de que la tasa de suicidios está expresando una situación de anomia.
Lo interesante de esa obra es que permite ver que la relación entre variables no empieza ni termina entre dos variables por sí, sino que necesita tener un examen atento de terceros, cuartos, quintos o más aspectos que pueden estar contaminando, cuestionando, invalidando esa relación. Recién luego de esos controles se puede decir que se está en condiciones de explicar un fenómeno: en este caso las causas de la incidencia en la tasa social de suicidios.
Técnicas de análisis multivariado
Según los usos:
Preguntas y Respuestas entre Usuarios: