Altillo.com > Exámenes > UBA - Psicología > Metodología
DE LA DISECCIÓN A LA REVITALIZACIÓN: EL TRATAMIENTO Y EL ANÁLISIS DE LOS DATOS (YNOUB)
En este texto se presentan los componentes de la fase 3 que va de la teoría y los datos a la síntesis e interpretación.
El proceso de investigación tiene una dinámica que va desde la identificación conceptual del objeto o del tema a investigar (fase 1) a su disección o diferenciación operacional (fase 2), en la que se distinguen las partes del objeto para poder abordarlo empíricamente. El tratamiento e interpretación de los datos hace posible restituir la unidad del objeto, de modo que el análisis arroje una nueva versión, más rica, que el objeto diseccionado. Esa restitución se realiza a la luz de algún cuerpo de hipótesis interpretativas, que provienen de modelos, tradiciones y marcos conceptuales en el que se inscribe la investigación. La fase 3, fase sintética lleva ese nombre porque en ella se realizan las actividades vinculadas a integrar los elementos teóricos de la fase 1, con los componentes empíricos de la fase 2. Kant llamaba sintética a nuestra facultad de “juzgar”. Planteaba que cuando conocemos algo, lo que hacemos es organizar de cierta manera lo que nos informan los sentidos. Esa organización surgiría de las estructuras de nuestro intelecto, las que para este autor se reducían a un conjunto de doce juicios o categorías. Kant se encarga de identificar las estructuras sin las cuales no podríamos pensar o tener experiencias. Este examen lo concibe como trascendental porque es un examen de las condiciones de posibilidad del conocimiento, su naturaliza trascendental hace que los organizadores cognitivos se nos trasparenten, no están entre nosotros porque constituyen las formas en que se estructura nuestra experiencia. Son estas operaciones de juicio las que están comprometidas en la fase 3 del proceso. El alcance de la síntesis dependerá de la naturaleza de la investigación, ya que hay algunos casos donde se parte de modelos que constituyen ya teorías y la integración de los datos es más una operación de encuadre del tipo diagnóstico (prima la inferencia abductiva), y hay otras investigaciones que son más innovadoras, en las que el trabajo interpretativo se encamina a construir, ampliar o especificar los cuerpos teóricos ya existencias (predominan las inferencias analógicas como recurso a modelos menos sistematizados teóricamente).
Todo objeto de investigación constituye un sistema complejo, es decir un sistema cuasi-descomponible en el que se distinguen partes o componentes. El proceso de construcción y delimitación del objeto de investigación consistenen identificar las entidades del estudio (supuesto de individuación), en identificar las partes o aspectos que se tomarán en cuenta de estas entidades (supuestos de partición) y en determinar los contextos en que las entidades o elementos focales se integran (supuesto de partición). El tratamiento y análisis debe precisar los vínculos o determinaciones de las entidades que integran el sistema focal (supuesto de vinculación), a restituir la relación de las partes componentes con el sistema focal (supuesto de reintegración) y a incorporar los distintos subsistemas en una unidad sintetizadora (supuesto de totalización).
En la fase analítica (operacionalización) están implicados: el supuesto de individuación (entidades), el supuesto de partición (dimensiones) y el supuesto de partición (contextos). Y en la fase sintética (integración de datos) están implicados: el supuesto de vinculación (entre entidades), el supuesto de determinación (entre dimensiones) y el supuesto de reintegración (entre niveles). El resultado de la investigación debe ser una síntesis que arroje algún nuevo saber sobre el objeto, y no una compilación desagregada de toda la información revelada. Esta actividad de síntesis y restitución de un nuevo sentido es que el que se lleva a cabo en el tratamiento de los datos. Es a partir de este tratamiento que se miden las hipótesis de la investigación.
El tratamiento se refiere a las actividades de manipulación, síntesis e integración de los resultados. Se pueden plantear dos dimensiones o perspectivas en las que puede concebirse este tratamiento. La perspectiva formal, es decir examinando los distintos tipos de compactación de los datos, bajo el supuesto de que tratar los datos es reducir, compactar o sintetizar información. La perspectiva funcional, atendiendo a los fines a los que sirve el tratamiento, los que están vinculados a los esquemas, diseños y objetivos de la investigación.
El análisis o interpretación se refiere a los procesos de interpretación por los cuales los datos se integran al cuerpo de la teórica conforme a las hipótesis, objetivos y marcos conceptuales de la investigación. Interpretar datos es ir más allá de los datos, es decir transformarlos en material significantes para extraer algún significado de ellos.
En la tradición que inició Galtung y continuó Samaja se clasifican los distintos tratamientos de datos por referencia a distintos direccionamientos en la compactación de la información que conforma la matriz de datos de la investigación. Con la metáfora compactación se evoca la tarea de avanzar en la sistematización y síntesis de sus datos. Si en el paso de las hipótesis a la operacionalización se trata de ir desde la unidad de síntesis a las unidades de análisis, en el tratamiento de los datos el procedimiento es el inverso: desde las unidades de análisis a las unidades de síntesis. Eso plantea reducir la información conforme a una lógica que la torne aprehensible de manera que ilumine las relaciones y determinaciones que se pretendían explorar o probar con las hipótesis. Esa tarea de compactación puede hacerse en torno a los elementos de la matriz, resultando dos direcciones de síntesis: la dirección de la variable (que Galtung identifica con la metáfora espacial de la dirección vertical) y la dirección de la unidad de análisis (a la que hace coincidir con la dirección horizontal). Galtung propone un tercer criterio que llama “análisis combinado” en el que plantea una combinatoria de los dos pero no lo desarrolla mucho. Samaja avanza en la formalización de ese tercer criterio planteado por Galtung. Samaja describe el tercer tipo de análisis al incluir el concepto de nivel de integración y sistemas de matrices de datos. Este tercer criterio lo define como centramiento en el valor, el cual remite ya no solo a la estructura de la matriz de datos sino a la relación entre matrices de distintos niveles de concreción. El nivel “sub-unitario” se refiere a la información que permite construir las categorías que conforman las variables del nivel de anclaje (nivel considerado focal en un momento del proceso de investigación). El análisis centrado en el valor puede combinar los tratamientos verticales y horizontales (pero su funciones es distinta a la del centramiento en la variable y la unidad de análisis), su función es la construcción de un sistema de clasificación o variable, tarea que implica el tratamiento de los valores del nivel sub-unitario.
El centramiento en la dirección de la variable tiene como objeto “computar” los datos, en la perspectiva de agregar la información según los distintos valores de las variables para identificar las distribuciones de esos valores en la población o muestra estudiada. Las medidas de tendencia central son medidas de síntesis constituyen información descriptora sobre el conjunto de casos, considerando a este conjunto como una nueva totalidad. El centramiento en la dirección de la variable corresponde a la estadística descriptiva (cálculos que se destinan a caracterizar la muestra o población de la que se obtiene la información empírica) y a la estadística inferencial (utiliza esa información empírica para estimar o inferir valores de una población o universo al que no se accede de modo directo).
El centramiento en la dirección de la unidad de análisis tiene como finalidad la identificación de pautas, tipologías e índices. Más que computar o agregar información, se trata de combinarla, ya que se consideran conjuntamente los valores provenientes de distintas variables, para las distintas unidades. Esas pautas puede considerarse en términos de propiedades latentes de las unidades, lo que permite hacer de las tipologías construidas indicadores de nuevas variables.
El tratamiento centrado en la dirección del valor corresponde a todas aquellas técnicas dirigidas a la construcción de dimensiones de análisis, desde información originalmente no categorizada. Este cuadro lo esquematiza:
Cada uno de estos fines y tratamientos pueden especificarse conforma a técnicas y aplicaciones específicas.
El tratamiento de los datos permite compactar o agregar información producida de modo que sea manejable e interpretable. Una vez realizado ese tratamiento se deberá interpretar la información. En el paradigma cualitativo la construcción del dato surge en el mismo momento en que es analizado. En ese caso, se deben distinguir dos momentos interpretativos: las micro-interpretaciones que van permitiendo categorizar o clasificar la información, y otro momento que corresponde al análisis e interpretación más integral en la que esos fragmentos interpretados y transformados en datos, cobran un nuevo sentido en mapas, redes semánticas o cuadros más abarcativos, a partir de los cuales emergen hipótesis e interpretación.
La función de la interpretación de los datos plantea ir más allá de los datos para integrarlos al cuerpo de una teoría o concepción teórica más amplia. Interpretar un signo es poner algo en reemplazo de él. Pierce definía al signo como “algo que se pone en lugar de otra cosa, en algún aspecto o capacidad suya para alguien”. El signo debe opacarse y transparentar al mismo tiempo, es decir ser percibido y no ser percibido en simultáneo para que cumpla su función. Por ejemplo, si hay un dedo señalando algo yo debo mirar a eso que señala, si me centro en el dedo pierde el valor de signo en tanto que ya no señala nada. El análisis de datos supone ir más allá de ellos para transformarlos en signos o material significante. Este más allá surge de las prácticas disciplinarias y las tradiciones teóricas que iluminan dichos datos. La riqueza interpretativa dependerá de la intertextualidad que domine el analista de esos datos y de las tradiciones disciplinarias que aporten a la evidencia empírica en relación al uso de ese tipo de datos. El análisis de datos tiene como tarea invariante: la comparación de un estado de cosas existente (o dado empíricamente) con un estado de cosas posibles, en el marco de un modelo asumido como necesario. Se trata de: examinar empíricamente lo encontrado, en el marco de lo lógicamente posible, para determinar su grado de necesariedad.
En la estadística inferencial los resultados empíricos deben juzgarse por referencia a su ubicación en el espacio que de una función continua de probabilidades. Este espacio define al conjunto de posibilidades. El valor que se ha obtenido es uno, entre un conjunto de posibles valores. La decisión estadística depende de cómo se juzgue ese valor por referencia a los valores posibles que podrían haberse obtenido. Para obtener la significación sustancial de un dato se requiere juzgar esos resultados a la luz de un modelo, de una teorización que le confiera la significación disciplinaria específica. Esta significación nunca deriva de una aplicación técnica, sino de los modelos en el que ese hallazgo puede ser integrado. Da como ejemplo, el chiste en Freud donde el encuentra la condensación y desplazamiento y luego ve en otras formaciones esos mismo mecanismo, como los fallidos o los sueños.
Se deberá mostrar consistencia de las interpretaciones para caracterizar los hechos y la coherencia interna de esas interpretaciones con el cuerpo más amplio de una teoría que las integra y les confiere su carácter convincente. Esta doble exigencia es la consistencia entre el modelo y los datos, y la coherencia interna del modelo para que sea un principio general que valga para cualquier tipo de tratamiento e interpretación de datos. El alcance del análisis de datos estará determinado por el cuerpo conceptual o teórico que guía la investigación, del que emanan los modelos y las hipótesis que iluminan las interpretaciones disponibles.
El alcance y la riqueza de la interpretación no dependen de que la información sea densa o analítica, cualitativa o cuantitativa, discursiva o estadística; sino de la profundidad y riqueza de los modelos y marcos conceptuales que maneje el equipo de investigación, de la capacidad que esos marcos tengan para hacer hablar a esa información.
EL DISEÑO DE INVESTIGACIÓN: UNA CUESTIÓN DE ESTRATEGIA (YNOUB)
El diseño es la planificación de un conjunto de acciones orientadas por fines, los caminos para alcanzarlos pueden ser múltiples, ya que un mismo fin se puede obtener por diversos medios. La elección de los medios compromete al diseño del objeto. No es posible hablar de un diseño óptimo sin especificar los criterios comprometidos en cada caso. Diseñar es una actividad orientada por fines, lo que conlleva la elección de determinados cursos de acción (entre varios posibles). El diseño está orientado por las preguntas que organizan los problemas de la investigación, esto genera que el fin de toda investigación es dar alguna respuesta a esas preguntas. La búsqueda de esas respuestas (al ser preguntas de investigación científica) surge del examen de alguna experiencia empírica, la cual permite corroborar las hipótesis (respuestas tentativas) o bien, si no estaban disponibles, idear las hipótesis. Habrá que decidir qué tipo de entidades serán observadas, evaluadas, experimentadas, en qué número, dónde, cuándo, bajo qué condiciones. Todas estas decisiones comprometen al diseño de la investigación. Un mismo asunto de investigación puede dar lugar a diferentes estrategias empíricas para su tratamiento. En algunas tradiciones de investigación, se produce una naturalización de los diseños ya que se consagra un tipo de diseño específico, el cual se presenta como la única manera de investigar.
En la fase 1 o sincrética, se delimita el asunto a investigar con los problemas y las hipótesis, se fijan los horizontes del trabajo y los fines de la investigación. Los objetivos que resultan permiten precisar el tipo o esquema de investigación (investigación descriptiva, explicativa o interpretativa) de acuerdo al problema que plantea. Una vez que se precisan los fines, se adopta una estrategia empírica para contrastar las hipótesis. Es esa estrategia adoptada la que se llama diseño de investigación. Este diseño resulta de una serie de decisiones que afectan tanto a la fase 1 como a la fase 2 del proceso. Se deben tener en cuenta los costos, la accesibilidad, los compromisos éticos, el tiempo material, etc. Uno de los criterios es optimizar las condiciones para el contraste de aquello que se debe describir, explicar o interpretar (las condiciones de contraste son las que facilitan la detección de lo que se está buscando, por ejemplo en nuestra investigación el definir dos generaciones muy tajantes). Una parte de las decisiones que comprometen un diseño es el de referirla a los componentes de la matriz de datos. Entonces, el diseño de la investigación resulta de las siguientes decisiones:
ü La cantidad de unidades de análisis: permite distinguir entre diseños de caso único, intensivos o extensivos (muestrales o poblacionales)
ü El tipo y funciones de variables o dimensiones de análisis: permite diferenciar entre estudios sin control de variables (diseños univariados, bivariados, multivariados o multidimensionales densos) o estudios con control de variables (diseños univariados, bivariados o multivariados).
ü El tratamiento de la temporalidad: divide entre diseños trasversales/ transeccionales, diseños longitudinales (prospectivos o retrospectivos), diseños cíclicos o diseños histórico-evolutivos.
A la hora de caracterizar un diseño de investigación es necesario invocar las estrategias específicas según resulten de esta combinación de aspectos.
Ahora se tendrán en cuenta el tipo o esquema de investigación (descriptivo, explicativo e interpretativo) y el tipo de diseño asociado a ella, de manera conjunta.
La investigación descriptiva está orientada a describir el comportamiento de variables y/o identificar tipos o pautas características resultantes de las combinaciones de valores entre varias de ellas (por ej. conocer que piensan os jóvenes sobre el amor). En otros casos, se orienta a identificar taxonomías o tipologías organizadas según algún criterio (ej. la tabla periódica de química). Otra manera de evaluar conjuntamente el comportamiento de diversas variables es a través de correlaciones, donde el interés está puesto en evaluar la variación concomitante entre diversas variables. Esto quiere decir que si una variable se incrementa, la otra también de algún modo sistemático (en la misma proporción o en proporciones identificables), o por el contrario, si una disminuye la otra aumenta, siempre conforme a un patrón de variación sistemático (lo que no implica que una sea causa de la otra). Cuando se trata de validar un indicador o un instrumento de medición de algún tipo lo que se quiere es identificar regularidades para evaluar cómo varían conjuntamente dos o más variables. Las investigaciones descriptivas son aquellas que tienen como propósito evaluar: el comportamiento de una o varias variables, tomadas de manera independiente, y/o el comportamiento conjunto de variables al modo de correlaciones (que no implican causalidad), y/o la identificación de combinaciones de valores entre las variables que definen perfiles o pautas de las unidades de análisis.
Un caso especial son las investigaciones descriptivo-exploratorias donde se trata de construir variables, de modo que se parte de formulaciones en las que lo único que puede indicarse es el contenido de la variable, tentativamente formulado. Conforme avanza la construcción clasificatoria, se pueden prever categorías o valores de la variable, y así precisar su alcance y los criterios que permiten distinguir un valor de otro.
Muchos diseños son posibles en las investigaciones descriptivas, considerando de manera conjunta las variables, las unidades de análisis y las mediciones en el tiempo. Da como ejemplo:
Algunas combinaciones no son posibles en las investigaciones descriptivas, como el caso único, univariado, transversal (una única variable, en una única unidad de análisis, en un único momento).
En las investigaciones explicativas se busca determinar el comportamiento de las variables, y la dependencia o vinculación que unas variables ejercen sobre otras. Es decir, que interesa probar si el comportamiento de una variable (o varias) puede oficiar de factor o causa explicativa del comportamiento de otra (u otras) variables. Estas determinaciones entre variables se pueden probar por dos estrategias: correlacionales o experimentales. Las correlaciones puede implicar o no causalidad, ya que si algún fenómeno presenta una pauta de comportamiento que varíe sistemáticamente con algún otro fenómeno, eso no garantiza que uno de esos fenómenos sea la causa explicativa del otro. Una correlación en la que puede postularse causalidad supone que: una o más variables varían sistemáticamente de manera directa o inversa con otra/s, la presencia de una variable que es anterior en el tiempo a la otra, y que nuestro conocimiento sobre el mundo autorice postular esa relación causal (ej. ingesta de carbohidratos y aumento de peso). Una correlación no supone causalidad cuando: una o más variables varían sistemáticamente de manera directa o inversa con otra/s, la presencia de una y otra variable no guarda ninguna relación de anterioridad con respecto a la otra en el tiempo, y nuestro conocimiento sobre el mundo no autoriza a postular relación causal.
La investigación correlacional supone el tratamiento de muestras extensivas o poblacionales, el que se puede hacer de manera transversal o longitudinal. En cuanto al número de variables puede ser univariado (siempre y cuando se haga en distintos momentos en el tiempo o sea, longitudinalmente), bivariado o multivariado. Ejemplos:
Toda la ciencia podría considerarse experimental ya que experimentar supone actuar sobre el mundo real. Se entiende por investigación experimental aquella en la que se ponen a prueba hipótesis que postulan relaciones de tipo causal entre dos o más variables, y en las que esa puesta a prueba se realiza bajo ciertas condiciones creadas y controladas por el investigador. Es decir, que el investigador a través de cierto experimento crea las condiciones con las que espera producir un cierto efecto en el fenómeno investigado. Un concepto importante a tener en cuenta es el de diferencias significativas, diferencias siempre hay pero lo que interesa es observar si las diferencias entre los grupos se deben a variaciones esperables, o por mero azar o presentar un comportamiento que permita pensar que se deben a algún factor adicional y sistemático. Se usan técnicas estadísticas para determinar si esas diferencias pueden atribuirse al azar o son naturales o bien, relevantes. El diseño de investigaciones experimentales presenta (vamos a tomar de ejemplo una investigación en la que se quiere comprobar si les habla a la plantas, crecen más):
ü Una variable o factor independiente o explicativa (ej. nivel de habla recibido) que es la que permite explicar el comportamiento de la otra u otras
ü Una variable o factor dependiente o explicado (ej. nivel de crecimiento) que es la que depende o se explica por efecto del comportamiento de otra u otras variables
No hay un a priori para definir cuál es la variable independiente y cuál la dependiente, eso depende del planteo de la hipótesis.
ü Variables extrañas o contaminadores (ej. nutrientes de la tierra, nivel de luz, nivel de agua recibido), son extrañas a la relación causal que se quiere probar aunque no son extrañas al fenómeno investigado por lo que es necesario tenerlas en cuenta y controlarlas
ü Unidad de análisis de referencia (ej. la planta o los grupos de plantas)
De modo que un diseño experimental vincula tres tipos de variables: independientes, dependientes y extrañas. El diseño pretende garantizar que el comportamiento de la variable dependiente se deba pura y exclusivamente a los efectos producidos por el comportamiento de la variable independiente. En la investigación experimental se trata de:
ü “manipular” la variable independiente ya que es el investigador quien decide cómo va asignar a sus unidades de análisis los distintos valores de las variables. Es el investigador el que forma los grupos o las muestras de los casos y decide qué valor le corresponde a cada uno
ü “medir” la variable dependiente, lo que implica que ésta debe ser medible, es decir debe disponer de indicadores adecuados (sensibles, confiables y válidos) para registrar los cambios.
ü “controlar” las variables extrañas porque se debe garantizar que no existan otras variables que influyan en la relación causal
Una de las maneras de controlar es a través de las equivalencias de los grupos que participan de la experiencia, al menos en los aspectos contaminadores para la relación que se quiere estudiar. Los grupos se pueden formar de modo aleatorio, es decir asignando al azar los sujetos lo que supone mayor probabilidad de garantizar una distribución homogénea. Otra técnica es la de bloquea, donde los grupos se forman utilizando el azar más el control de una o más variables contaminadoras. Una última sería la de grupos apareados para conseguir grupos experimentales equivalentes a partir de una medida previa en la variable dependiente. Aparear significa emparejar los grupos por referencia a alguna variable. Siempre cabe la posibilidad de que existan otros factores que el investigador no está controlando y que afectan a la relación. Por eso se busca implementar procedimientos que permitan controlar esos factores o intentar una distribución con igual probabilidad. Cuando no se conocen las características de los grupos, lo que impide a los investigadores asignar las unidades de análisis se habla de diseños cuasi-experimentales. Si se controlan los factores contaminadores, se crean condiciones artificiales de modo que no sabremos si el mismo efecto se constata bajo otras condiciones. Se llama validez interna del diseño al grado en que pueda garantizarse que el comportamiento o los cambios registrados en la variable dependiente se deben solo a la variable independiente (cuanto mayor es el control del diseño, mayor es su validez interna). La validez externa es el grado de representatividad de la experiencia (cuanto mayor sea la posibilidad de generalización de los resultados a otros contextos, mayor es la validez externa). En general, el aumento de la validez interna atenta contra la validez externa porque condiciones más controladas implican menos capacidad de generalización de los resultados.
En la investigación experimental los diseños se pueden distinguir según: el número de mediciones que se hagan en el tiempo, el número de unidades de análisis o grupos considerados y el número de las variables que se incluyan en la experiencia. El método experimental se basa en la comparación (como toda investigación), pero en este caso esa comparación se realiza entre una situación definida como patrón (sin control experimental) y otra experimental (con control experimental). Ambas refieren a unidades o entidades de análisis. Lo habitual es trabajar con varias muestras, pero también se puede trabajar con la misma muestra, o hasta sobre el mismo y único caso o unidad de análisis. Se puede trabajar con diseños intergrupos (se comparan varios grupos entre sí), diseños intragrupos (se compara el mismo grupo consigo mismo) o diseños de caso único (se compara el mismo caso consigo mismo). En los diseños intergrupos, uno debe ser el de patrón y el otro el experimental. Habrá que considerar tantas muestras experimentales como valores estén previstos en la/s variable/s independientes. En casi todos los diseños experimentales se tiene por los menos dos dimensiones en el tiempo: una antes y una después del tratamiento experimental (tanto en intragrupos, intergrupos y caso único). Eso que llamamos mediciones en el tiempo podría ser definido como unidades de análisis en el eje temporal ya que una entidad va cambiando a lo largo del tiempo. Existen situaciones en las que se pueden incluir varias variables independientes (lo que implica agregar más grupos experimentales) y varias variables dependientes (no hace variar el tamaño de los grupos porque no se manipula, sino que se mide). Según el número de variables los diseños experimentales pueden ser:
Hay muchos fenómenos que no pueden ser abordados por medios experimentales, ya que involucran cuestiones que no pueden ser manipuladas (ej. estudios sobre galaxias, sobre violencia familiar, etc.). Además de estas limitaciones, la utilización de métodos experimentales no garantiza, por sí mismo, riqueza ni profundidad de un trabajo investigativo, ya que la relevancia no depende del método sino de las hipótesis formuladas. La investigación experimental debe complementarse con otras estrategias que permitan descubrir nuevas ideas.
Las investigaciones interpretativas apuntan a la interpretación o comprensión de los fenómenos. Al tratar de las hipótesis, en estos esquemas de investigación, el asunto a investigar se concibe como signo o expresión de un sentido o significado a develar.
ü Su fin principal es interpretativo, de modo que el objeto a estudiar es abordado como un mensaje o código a descifrar.
ü La interpretación se hace en referencia al contexto histórico o institucional de ese objeto cultural, o vinculada a la producción de ese objeto
ü El investigador no necesariamente participa (de manera efectiva) en el contexto de producción del material interpretado
El objetivo estará destinado a justificar las lecturas posibles que pueden hacerse a partir de los elementos manifiestos del material analizado, para ir hacia un segundo sentido latente u oculto. El investigador deberá poder señala en cada caso qué elementos del material significante permiten trascenderlo hacia determinados significados.
Se llama investigación cualitativa a un tipo de estrategia investigativa desarrollada en el área de las ciencias sociales y humanas, que se nutre de orientaciones filosóficas interesadas en la comprensión de los fenómenos históricos, humanos y subjetivos. Este tipo de investigación se caracteriza por las condiciones en que produce sus datos y por los propósitos que persigue con el tratamiento mismo. Características:
ü La comprensión de los fenómenos, no una mera descripción o explicación: comprender implica más que conocer, significa que estamos en condiciones de adoptar la perspectiva del otro. Son investigaciones donde los datos se integran con la perspectiva de los sujetos o los fenómenos involucrados en el estudio. Se propone capturar la máxima riqueza, tener en cuenta la mayor cantidad de aspectos que puedan ser relevantes.
ü La implicación de los investigadores en la producción de sus datos: implicarse en el asunto es tomar parte del mismo de alguna medida, conocer desde adentro lo que se está estudiando. Hay una vertiente que es la investigación acción donde los investigadores son, al mismo tiempo, participantes implicados en el asunto que investigan.
ü La observación en contextos naturales: procura ser lo menos intrusiva y distorsiva de las situaciones estudiadas. No se tratan de alterar las situaciones habituales de los fenómenos estudiados, o hacerlo lo menos posible. El contexto natural es la situación en que los hechos a estudiar se presentan habitualmente.
ü La producción de datos ricos, profundos, dependientes del contexto: se intenta tomar en cuenta múltiples enfoques. Es el trabajo en el campo el que abre nuevas líneas de desarrollo no previstas desde el inicio. Como los datos están muy vinculados al contexto específico, no suelen ser exportables a otros contextos. La investigación exploratoria identifica variables o aspectos relevantes que luego se exploran en un cierto caso o contexto para luego evaluarlo en otro contexto o casos.
Estas investigaciones son holísticas, conllevan una búsqueda de significado y la interpretación situada, lo que lleva a pensar en las siguientes combinaciones:
En casi todos los casos las muestras son reducidas o de casos únicos. Las observaciones o el relevamiento de la información se realizas a lo largo del tiempo para poder comprender el proceso y sus transformaciones.
Con mucha frecuencia se requieren combinar varias estrategias para el estudio de un mismo objeto, lo que se llama triangulación metodológica, ya que múltiples puntos de referencia se deben considerar para localizar una posición desconocida. Esta estrategia combinada o multimétodo es el mejor camino para el abordaje de objetos complejos y fenómenos no aprehensible de modo reducido.
EL LADO OSCURO DE LA RAZÓN - SAMAJA
CAPÍTULO 1: TRES VERSIONES DEL PRINCIPIO DE LA EXPERIENCIA
-¿Cómo se resuelve esta contradicción? -> históricamente:
-¿Cómo se puede resolver una contradicción?
Estas tesis pertenecen a la modernidad, sus producciones fueron elaboradas en torno a los problemas que había planteado la crisis de la sociedad medieval y el surgimiento del orden social burgués. Aquí se pasa del Principio de Autoridad al Principio de la experiencia como criterio de racionalidad (regla suprema que permiten establecer en situaciones polémicas quien tiene la razón o verdad// establecer conocimiento intersubjetivo o acuerdos en torno a “los hechos”). Con el cambio de clases sociales, la cuestión a plantear fue “¿Qué derecho tiene alguien para afirmar algo como verdadero?” y “¿Cómo hacer para compartir un saber común entre todos?”.
Ejemplo del Rey Salomón: Dos mujeres que han parido hijos al mismo tiempo se disputan por el que quedó vivo y él sanciona que lo dividan al medio → no es posible una doble maternidad sobre el mismo niño, hay que llegar a acuerdos, a imágenes que deberíamos compartir todos para examinar la situación “objetivamente”. Tiene que ver con la creación y el afianzamiento de un sistema de valores sociales.
El conocimiento científico se encuentra en una situación análoga a la de un juego en que se quiere establecer reglas válidas para un conjunto numeroso de jugadores. Prevaleció desde los griegos la premisa de que la afirmación científica es una afirmación que exhibe su fundamento y es válida, a diferencia de la mera opinión. Quien se atreva a hacer una afirmación científica debe acreditar su derecho. El conocimiento científico es socialmente vinculante.
Principio de autoridad: Mundo medieval, un conocimiento es verdadero si es deducido de las verdades sustentadas por autoridades académicas o religiosas, son interpretaciones autorizadas de los textos. Lo que contradice el conocimiento de autoridad no puede ser verdadero. Este principio comienza a ser cuestionado entre los siglos XV y XVII por el principio de la experiencia personal, ya vigente en los griegos (por eso la modernidad es un Renacimiento de aquella cultura)
-Descartes fue un expositor de las ideas de la Modernidad, abandonó el empleo del latín como medio de expresión escrita y académica y comenzó a escribir en la lengua romana del habla corriente en primera persona. Sostiene que no pretende imponer ningún método a nadie, sino sólo mostrar cómo procede. El principio de la experiencia se basa en la libre adhesión del “yo”, única autoridad habilitada para resolver si algo es verdadero o falso, es tanto lo supremo individual como lo supremo social: todo lo que un “yo” puede reconocer como verdadero, debe poder ser reconocido como verdadero por otro “yo” (la tesis del yo es un a priori de Descartes). El sentido común, entonces, es la cosa mejor repartida del mundo.
-El núcleo de toda prueba consiste en que cada “yo” haga por sí mismo la experiencia de la verdad de las proposiciones. Esto afirma la vigencia de la singularidad del sujeto que conoce, pero al mismo tiempo confía plenamente en que ese sujeto singular es universal y que cada yo contiene dentro de sí a todo el universo.
-El desarrollo de esta idea se extrema en el pensamiento liberal: el mejor criterio para construir un mundo universal es la no regulación externa de la acción de los individuos. Ya que el interés universal es un resultado emergente de la búsqueda del interés particular.
-Se plantea al pensamiento como actividad libre del sujeto, por sí mismo capaz de construir el edificio de la verdad universal, ya no dirigido por la fe ni por el mito (si bien sigue habiendo instituciones religiosas, Dios es la Razón misma y se vincula directamente con cada individuo, sin intermediarios). Se pasa a una religiosidad de la ciencia.
-La experiencia es intelectiva, es mental, la hace el ser humano operando con sus conceptos y reglas metódicas. “No aceptar nada como verdadero hasta que no sea evidente que lo es”. La evidencia es la certidumbre de la conciencia captándose a si misma en la pura inmediatez, sino los conocimientos son dudosos (“Pienso, luego soy”). El punto de partida es buscar conocimientos que resulten evidentes en cuanto a su verdad: la información que proporcionan los sentidos puede ser engañosa, aunque resulte en apariencia evidente el conocimiento de un objeto que se conoce por vía sensorial, puede ocurrir que sea una ilusión perceptual. Lo que alguna vez engaña debe ser abandonado como fuente de validez cognitiva, entonces Descartes excluye a los datos de los sentidos como criterio de verdad, también a los enunciados lógicos y matemáticos apoyados en vivencias propias (encierra dudas). Hay un genio maligno, una fuerza espiritual, que opera sin que nos demos cuenta falseándonos el saber de las cosas y haciéndonos creer que 2+2=4. Si es posible que esto exista, es posible que las verdades matemáticas sean falsas, se convierten así en dudosas.
Entonces la única certidumbre es la evidencia de su propia duda. Es de la duda la única información de la que no se puede dudar: cuando pienso que pienso estoy pensando, entonces allí se supera toda duda. El cogito ergo sum supera la duda porque expresa la conciencia captándose a sí misma en su pura inmediatez. Lo que queda más allá de toda duda es simplemente el “yo” en el acto de pensar, “de mí mismo estoy pensando cuando pienso”.
-Doctrina jurídica burguesa: el “yo” o sujeto de la conciencia surge primeramente como una categoría jurídica y social, término que alude a la persona individual. Todo sujeto por el solo hecho de ser un sujeto humano dotado de capacidad de discernimiento, de pensamiento, es un sujeto de derecho (no siempre fue así, hubo esclavos, el derecho feudal distinguía cualidades entre los individuos). En la modernidad se afirma de manera irrestricta el valor del sujeto individual como sujeto de derecho, como condición para consagrar la propiedad privada.
-Problema: Si yo sólo estoy seguro de que pienso pero no del contenido ¿Cómo garantizo la objetividad?, ¿en el mundo hay algo que sostiene lo que pienso o es mera imaginación? Una vez que se ha establecido la pura verdad del yo se rompieron las amarras con el mundo. En cuanto busco establecer algo como verdadero en el mundo de las cosas, el conocimiento queda afectado por la duda, por la posibilidad al error (ejemplo, un hombre en un calabozo que reduce el mundo a eso). → Husserl toma a Descartes para elaborar el Método fenomenológico, no podemos garantizar la validez de las ideas, la epoché es un procedimiento metódico que consiste en quitar a los enunciados de mi discurso cualquier pretensión de validez objetiva. “No sé si lo azul existe pero puedo describir la noción de azul”: cuando uno describe las ideas encuentra invariantes.
-Si no hubiera idea de Dios, establecerse una razón creíble para validar ideas, el saber científico sería un imposible de antemano→ para Descartes que Dios existe es la prueba de que están dadas las condiciones de posibilidad que pueda existir “información compartida”. “Dios existe” se traduce en que las estructuras esenciales de la realidad están presentes en el pensamiento como ideas innatas, y a partir de ellas el sujeto puede salir al encuentro de las realidades particulares (Fenomenología).
-Frase que resume: “Si yo lo pienso con evidencia, entonces yo lo conozco en su verdad”
-La experiencia es experiencia sensorial o psicológica, la evidencia que tiene cada individuo acerca de los datos de sus sentidos o sus vivencias psíquicas. Aparece nuevamente el “yo” pero en tanto “yo siento” o “yo observo” o “experimento”.
-Frente a las tesis cartesianas en Inglaterra surge una posición que reivindica como criterio de verdad la experiencia personal, entendida como experiencia de las vivencias sensoriales o psicológicas a través de las cuales se van formando las ideas más complejas. Valor: atacan el carácter dogmático del supuesto innatismo de las ideas que harían posible el conocimiento racional como esfera independiente del mundo fáctico.
-Locke (burguesía industrial), exponente. Eje: rechaza el innatismo cartesiano, donde según la epistemología apriorista el cinetífico dispone de un patrimonio originario de verdades universales que el alma posee y no deriva de ninguna experiencia individual. El empirismo adopta una tesis apuesta a todo dogmatismo, a toda aceptación de verdades universales, cuya validez reposa en el consenso universal; para contraponerle una validez que reposa en una construcción de consensos siempre renovados a la luz de las circunstancias reales y actuales (enarbola la tolerancia).
-Todo lo que posea el sujeto como saber científico deberá construirlo mediante un trabajo empírico personal. Las ideas (científicas o morales) son resultados de nuestras acciones, de nuestra actividad como formadora. Prima lo particular sobre lo universal, lo único decidible es lo que podemos experimentar, lo finito. Desde lo particular, por la inducción se construirá lo general, siempre abierto a nuevas determinaciones. El criterio de verdad se constituye por “ideas simples” o experiencias básicas que provienen de dos fuentes: la sensación y la reflexión (vivencias psicológicas). Como las ideas simples no pueden ser creadas ni destruidas por nuestra subjetividad, ellas forman el campo de la experiencia y constituyen la única certeza de validez plena. Sólo las ideas provenientes de la experiencia tienen ese privilegio porque nosotros no podemos producirlas por nosotros mismos, son producidas por algo exterior a nosotros. Sobre esta base experiencial se levanta posteriormente un edificio cognoscitivo que resulta de la combinación de las ideas simples y posteriores operaciones de abstracción y generalización. Ambos procedimientos son actividades del sujeto y no tienen ninguna garantía de verdad objetiva absoluta, entonces la verdad de los conocimientos se establece evaluando el acuerdo o desacuerdo entre las ideas (limitación en las posibilidades de certeza en el conocimiento científico de lo real). Las verdades matemáticas y morales sí pueden obtener una demostración porque no implican acuerdo o desacuerdo con cosas reales; las ciencias naturales o sociales plantean en el conocimiento problemas insuperables: no es posible confrontar nuestras ideas complejas con el mundo confrontándolo con las cosas mismas (no se puede establecer si hay una sustancia que sostiene unificadamente a los elementos, o la causalidad)
-Hume: el conocimiento no tiene como norte establecer la verdad, sino servir a fines prácticos del hombre. El problema de la existencia del mundo objetivo es insoluble. No hay manera de averiguar si las ideas coinciden con las cosas; nuestra subjetividad no dispone de medios para establecer más que las relaciones de sucesión. Las relaciones de causalidad las agregamos nosotros, como un hábito y una idea práctica útil, mas no verdadera.
-Frase que resume: “Si yo lo observo o lo vivencio lo conozco en su verdad”
-La experiencia es experiencia vital e histórica o protagónica, en la que el sujeto se va construyendo a sí mismo mediante su obrar.
-Frase que resume: “Si yo lo hago, entonces yo lo conozco en su verdad” (verum ipsum factum, lo verdadero es lo mismo que lo obrado).
-”Se conoce aquello que se ve nacer”, aquello cuyo nacimiento se puede conocer. Sólo conozco en estado de génesis aquello que yo produzco de manera activa. Lo que yo no genero no lo conozco en estado de génesis→ sólo aplicable a las ciencias humanas (los únicos objetos de ciencia posible para Vico, ya que como no hemos hecho la naturaleza no podemos conocerla).
-Ciencias naturales: Galileo → “Si bien es cierto que yo no conozco a la naturaleza por el solo hecho de observarla, si puedo diseñar experimentos en donde yo haga que un fragmento de la naturaleza que genere un cierto resultado por imposición mía” (renace un fragmento de lo natural, es una muestra de la naturaleza total y puedo acercarme a su conocimiento)
Kant va a sintetizar estas dos líneas del saber humano (ciencias naturales y sociales) en una visión de conjunto
CAPÍTULO II: EL PASO DEL SUJETO TEÓRICO AL SUJETO PRÁCTICO
-Kant es el creador de la síntesis entre apriorismo y empirismo más exitosa que se produjo en el siglo XVIII cuya vigencia se extiende hasta hoy (Piaget, escuela de Frankfurt, Epistemología Evolutiva de Lorenz)
-El núcleo de su tesis es la inversión copernicana y la conceptualización del o trascendental en el sujeto.
El método de Kant es la “inversión copernicana”: como copérnico invirtió la relación entre el sol y los planetas para explicar el movimiento de los astros, “yo voy a procurar una solución al tema del conocimiento mediante una inversión del a relación entre sujeto y objeto”.
-Copérnico propone que la Tierra se mueve, contrariando todas las hipótesis existentes y los datos de los sentidos, partiendo de que el artífice del universo es un Dios racional que no puede haber creado nada no matematizable, en un momento en el que aparecían irregularidades en las hipótesis existentes ---> se podría decir que Copérnico pone un punto de partida como valor supremo, y a partir de esta convicción extrae las consecuencias. “Si el mundo es racional los movimientos en bucle no deben existir, y si no existen la forma de resolver la situación es suponer que el laboratorio en el que yo estoy está en movimiento sin que lo advierta” (no observable pero real, parte de la premisa que lo racional es real)
-El método de copérnico es un método retrospectivo ya que examina los objetos exteriores (Andrés Raggio), opuesto al de Hume que es introspectivo porque lo que el sujeto puede conocer se debe a sus facultades (vuelve sobre sí mismo para encontrar potencialidades en el ser)
-La tesis de Kant es contraria a la tesis del empirismo representado por Hume.
-Hume sostiene que la ciencia como conocimiento universal y necesario no es posible, porque lo que yo puedo afirmar es sólo lo que me viene del mundo real, donde me vienen percepciones que suceden o no suceden, antes o después; un sujeto puede hacer ciencia sólo a partir de la sensibilidad y la capacidad de asociar los datos mediante razonamientos. Nunca podemos observar una cosa A produciendo a una B, observamos relaciones de simultaneidad o sucesión; cuando digo que algo causa algo estoy agregando cosas que no veo. La mente humana se habitúa a una cierta regularidad y en función de ese “hábito” predice para el futuro, como ley necesaria, que las cosas seguirán siendo así. La ciencia es un conocimiento comprobable, se puede verificar en el mundo de los hechos pero no debe pretender expresar leyes universales (tesis del escepticismo de Hume).
-Kant: Retrospectivo, al investigar el conocimiento no vuelve su mirada sobre el sujeto que hace ciencia, sino hacia el objeto de la ciencia y en los productos que la ciencia nos ha dado va a establecer cuáles son los supuestos generales que ellos exigen (ejemplo: propiedades de los cuerpos geométricos).
“Si yo sostengo que el conocimiento del objeto sólo procede de la experiencia, no comprendo cómo es que el geómetra se atreve a hacer una propuesta de una verdad universal y necesaria que se aplica a la Naturaleza pero que va más allá del aquí y ahora”. “Si sostengo que la ciencia sólo queda determinada por el objeto y lo empírico, la ciencia no es posible. Pero esto es inadmisible, porque la ciencia existe” ---> Kant parte de la convicción de que la ciencia existe y de ahí extrae sus conclusiones (como copérnico sostiene que el mundo es racional). Ejemplo: Hay un elefante en la habitación, su existencia no se puede interrogar, sólo las condiciones de posibilidad.
Kant va a decir que la condición de posibilidad de la ciencia debe estar dada por un “movimiento” o actividad del sujeto, que es inadvertido como el movimiento de la Tierra y contiene, a priori, la posibilidad del conocimiento de leyes en la naturaleza: de conocimiento universal y necesario, y no sólo saber contingente y empírico.
“Por la puerta y las ventanas de los sentidos, no caben los elefantes leyes” (Samaja)
El sujeto del conocimiento (que lo hace posible en forma de ley), en el cual se produce un movimiento, es el sujeto trascendental. El sujeto ahora aparece desdoblado: es un sujeto dual, por una parte un sujeto empírico (encargado de recibir la información de la experiencia), y por otra parte está el sujeto trascendental (quien agrega al objeto de la ciencia la dimensión o la forma de ley). Este último sujeto no es investigable directamente, no se puede objetivar, él sólo es el conjunto de condiciones de posibilidad de la ciencia. Trascendental significa lo opuesto a inmanente, es decir, que está fuera del mundo real (como Dios, pero no nuestras ficciones “desde el unicornio hasta el triángulo”).
-El sujeto trascendental y su “no-estar” en el Mundo: el Sujeto que contiene la posibilidad de la ciencia no es inmanente ni trascendente, no está en el mundo como un objeto pero tampoco está fuera del mundo ¿Cómo está? Al sujeto trascendental no le cabe una categoría porque es él quien las constituye o contiene a todas las categorías del “preguntar científico” (ejemplo: es como la cámara fotográfica que no aparece en la foto). El sujeto está bajo la forma de ausencia de objetividad, haciendo posible la objetividad “de la escena” → para él existen los hechos empíricos como hechos de una experiencia significativa pero él no es un hecho empírico ni una relación particular; no es experienciable pero está siempre presupuesto para que haya experiencia. El sujeto trascendental es cognoscible, pero su condición es que admitamos que de él sólo conocemos su pasado, su presente se nos escapa. En todo caso el ST es un sistema de funciones que están implícitas en todo acto de conocimiento de cualquier cosa, son funciones que “operan en nosotros” pero sólo podemos indagarlas retrospectivamente (la psicología sólo estudia al sujeto empírico).
-Una ley científica es una afirmación que describe un comportamiento regular de una región de la realidad, que ocurre con carácter necesario y no meramente contingente. El contenido que se formula mediante una ley es empírico, pero su alcance es universal (necesario). Diferencia con Hume: buscar leyes no es un invento ilusorio del sujeto empírico, sino resultado de una operación inherente al acto mismo de conocer resultado del STrascendental.
Ejemplo: experimentos de Piaget de reconocimiento y comparación de tamaño → desarrollo cognitivo, el sujeto pasa de depender de los hechos mismos para afirmar algo por una identificación de una ley, descubre una regla. Lo que el niño abstrae no es dato de la experiencia, sino la regla que se deriva de la coordinación de las acciones. Aprende operaciones sobre objetos, esquemas de acción, que se pueden anticipar.
Ejemplo 2: hay un sujeto con una visión normal y un casco de mineros con luz blanca; y una pantalla que oculta al sujeto lo que hay detrás de ella, detrás de la pantalla hay objetos coloreados. Le ponemos sólo objetos rojos en el campo visual, y la conclusión del sujeto va a ser que el mundo está constituido por objetos rojos (prevee sus próximas observaciones). El segundo experimento consiste en ponerle una luz roja en el casco: todo el mundo será rojo
-Tesis de Kant: para poder afirmar la posibilidad del conocimiento científico es necesario que desconectemos las afirmaciones de la ciencia de toda pretensión de aplicación de sus afirmaciones a las cosas en si mismas: debemos extrapolar nuestro saber científico más allá de los fenómenos de nuestra experiencia (nunca nos podemos poner más allá de las condiciones que hacen posible nuestra experiencia, que son reglas en la subjetividad humana). La tesis kantiana no se refiere a los contenidos de las experiencias, sino a las formas de las experiencias, a las predicaciones trascendentales: nosotros no podemos preveer qué tipo de cualidades tendrá el próximo objeto a observar, pero podemos afirmar que tendrá alguna cualidad, Cualquier fenómeno que se presente se presentará en el espacio y en el tiempo, con cualidades, cantidades, relaciones y modalidades. “Yo percibo a condición de espacializar y de temporalizar mis experiencias”
-Ni la causalidad es falsa (empirismo) ni verdadera (racionalismo); la causalidad no es un conocimiento. No describe el mundo sino que expresa una regla, que puede pasar o no pasar. Kant sostiene que “si usted presencia un fenómeno, búsquele una causa”: no se puede afirmar algo sobre la cosa en sí, sólo podemos afirmar la regla como regla de toda experiencia posible (para determinar fenómenos, no noúmenos o cosas en sí). Ejemplo: se creía uqe el paludismo era causado por un ambiente malsano, hoy se discuten las causas pero no se discute que el paludismo tiene causas (regla del juego de la comunidad científica; como si un jugador de fútbol metiera un gol con el pie, como debe ser)
-Condiciones básicas trascendentales de la razón científica: son las formas puras de la sensibilidad (tiempo espacio) y las doce categorías “puras” del intelecto. Son las condiciones básicas para organizar la experiencia, son a prioris y por eso son puros o no empíricos.
Cuando la cosa en sí afecta a mis sentidos, yo no la puedo determinar en sí misma; la determino por referencia a mi experiencia de ella, la configuro como un fenómeno con materia y forma espacio-temporal. Lo que puedo hablar de los fenómenos universales es de su forma, no de su materia. A partir de disponer de ciertos fenómenos espacio.temporales nuestro intelecto puede determinarlos conforme a ciertas pautas: las operaciones normales consisten en cualificar lo que se observa, y hacer comparaciones o distinciones entre lo primario y lo secundario.
El conocimiento se produce porque algo externo a nosotros nos afecta (provoca reacción frente a impresiones). El tiempo y el espacio no se conocen de manera pasiva como “hechos”, sino que son formas de nuestra capacidad de re-actuar ante los estímulos de los procesos y las cosas. Tiempo y espacio son trascendentales: son aspectos para nosotros y condiciones de posibilidad de experienciar cosas como fenómenos. En este escenario progresa nuestra capacidad de conocimiento, avanzando en la búsqueda y el establecimiento del orden relevante de las cosas: categorizar es seleccionar lo relevante y agrupar lo semejante (facultad intelectiva). La capacidad del sujeto para seleccionar lo diferente y agrupar lo semejante es una función básica de la capacidad de conocer-instaurar el orden de nuestra experiencia de las cosas, y como capacidad subjetiva tiene realidad empírica, pero no son independientes de nuestra subjetividad sino que constituyen las condiciones de experienciar los fenómenos. Las categorías puras del intelecto son las funciones de selección y agrupamiento.
-Componentes del aparato cognitivo: Formas puras de la sensibilidad (tiempo y espacio) + categorías puras del intelecto (cantidad, cualidad, relación y modalidad) que son reglas que organizan las experiencias que efectuamos en la naturaleza.
Para poder tener la experiencia, necesito de lo invariante. Kant no es apriorista, lo que dice es que el sujeto tiene conceptos a priori sin los cuales la experiencia no funciona (no hay conocimiento a priori, el espacio y tiempo no son conocimientos). No tenemos ningún conocimiento innato, venimos al mundo desnudos de todo conocimiento. Lo único que podemos presuponer es un aforma de funcionamiento, reglas de operación.
Sujeto: yo doble, empírico y trascendental (potencial, ya sintetizado a priori). A diferencia de Descartes, Kant va a justificar el valor de las formas y categorías del sujeto, mostrando que ellas son consecuencia obligada de la unidad de un “yo”.
-Unir significa que algo era dos y que marcha a la unidad, consagrar significa borrar esa génesis (borrar la producción para instaurar el producto). Diferente a Descartes “Yo pienso, luego yo soy”: designa al individuo autónomo, mito de la modernidad, en el que Kant funda al ser humano como una “apuesta pascaliana” (proyecto y realización histórica). Kant terrenaliza al yo, es un yo activo (no pasivo como el de Descartes y no sin tradición como el empirismo) que es acción pero también tradición, herencia de un patrimonio.
Tríada: pasivo- activo- organizado que sintetiza el apriorismo (el saber ya dado) con el empirismo (el saber se consigue). El yo kantiano contiene condiciones de posibilidad pre-dadas en cada experiencia. La unidad consiste en donde se organiza la apropiación del mundo por ej Sujeto: la apropiación del mundo que lleva a cabo el sujeto no es arbitraria o antojadiza, sino organizada e intersubjetiva.
La ciencia es una actividad paradójica: se presenta como un saber que conoce al objeto en la realidad pero desborda los contextos particulares. Pretende coincidir con lo particular y lo universal. Para Kant las categorías del pensamiento siempre están en juego cada vez que quiero determinar los objetos empíricos.
Síntesis de Kant: “Unidad originaria”: el yo es la unidad fundante de toda operación de síntesis, es la fuente de toda actividad de síntesis. El yo organizado contiene las cateogrías del intelecto a priori; el yo es organizante. Se pasa del yo originario (puro centro de la acción egocentrada) al “yo organizado” (como acción socializada, centrado en un sistema de reciprocidades con otros Yo)
La noción de yo se constituye como significado sólo en la medida en que se puede significar la apropiación del objeto. Solamente si hay objeto del cual el sujeto se puede apropiar, el sujeto se constituye. El yo necesita del no yo (objetos) para anclar en la mismidad (sí mismo)
-Paradoja de Kant: a diferencia de Descartes, pretende derivar de la sola operación del yo el alcance objetivo, universal y necesario de la ciencia. ¿Quién garantiza la razón? Kant pretende derivar del yo finito e imperfecto el sistema de los presupuestos de la ciencia -infinitos y perfectos-.
Conclusión de Kant: el sujeto es libre por ser Libre se encuentra esencialmente comprometido en un Ideal de Universalización y Regulación. La libertad no transforma al sujeto humano en arbitrario, sino en un sujeto que al tener que elegir su conducta se encuentra siendo expuesto y al mismo tiempo responsable de las conductas que desarrollarán los otros yo: el sujeto no puede llevar a cabo ninguna acción sin que ella se transforme en una posibilidad de acción para todos los demás sujetos libres como el. La situación originaria de todo sujeto es el encontrarse en una situación de interferencia con todos los otros sujetos (en situación de guerra --> ACÁ ESTÁ EL LADO OSCURO DE LA RAZÓN SAMAJA TKM)
“Obra del tal manera que tu acción pueda ser universalizada”: mandato del Imperativo Categórico, es el único procedimiento que puede resolver la contradicción sin destruir al Sujeto. “Obra conforme a reglas válidas”: el sujeto trascendental se constituye por medio de una ley no-natural que rige a los sujetos libres como sujetos capaces de buscar conscientemente su propio fin, sin coacciones pero con responsabilidad. Es el “aparato formal de la acción”. Saca su fuerza de que la acción de todo yo posee como consecuencia la posibilidad de una acción recíproca. Aquí está la clave de la cultura: ¿Qué es lo único que puede ser hecho de manera universal? aquello que sea una regla que resulte válida y eficaz para todos.
-Kierkegaard retoma a Kant: ¿Por qué el ser humano es un ser caído, representado por el pecado original? → idea de universalidad del individuo, Adán en tanto es el primer hombre es a la vez él mismo y la especie. La liberad de un individuo, que es al mismo tiempo idéntica a la de todos los individuos, genera irremediablemente una situación de interferencia con los otros (toda acción es intromisión) → origen profano de la razón: Dios es profanado por el saber (pecado original). El pecado es el paso a la regla moral
-El imperativo categórico es un imperativo de universalización. El proyecto de la cientificidad, de un saber compartido según normas, en el fondo es la traducción de un proyecto de sociabilidad que podría abortar (guerra).
-Todo el sistema de categorías del intelecto tienen su fundamento en la unidad del yo: es tanto un punto de partida como de llegada de un esfuerzo infinito de la humanidad desde los fondos históricos de la guerra. El fundamento de la ciencia se sostiene en el ser social/contrato social de Rousseau. De la colisión permanente de las voluntades entre sí surgirá en cierto momento la voluntad de construir un acuerdo que se traducirá en una Voluntad General (de nadie en particular, es de todos porque es de cada uno). El yo se constituye y se configura en estratos cada vez más complejos con cada pacto social que logra, con las configuraciones culturales. El individuo crea la cultura pero esta se constituye luego como quien crea a los individuos (el factum se transforma en verum)
-Kant: diferente a Descartes, la imperfección de los individuos produce la idea de Dios.
Kant elaboró su pensamiento presuponiendo siempre un lado formativo o genético de la razón, un lado oscuro
-Método: la síntesis es un movimiento. Reglas:
Esta norma suprema se conoce como Principio de Contradicción, y su violación en el pensamiento o en la ciencia debe ser sancionada (sanción lógica) → Tradición científica
El resultado de este pensamiento es que pareciera que estamos obligados a escoger entre dos trincheras antagónicas: la de los que sostienen el principio de no contradicción como racional (decir no a lo que se contradiga); y de los que deciden proclamar el “sí a todo” rechazando el Principio de no contradicción (aunque haya una irracionalidad) ---> “Racionalismo e irracionalismo”
-”Tradición alternativa”: dialéctica; metódicamente se busca la solución a la contradicción (“si usted llega a una contradicción no retroceda, busque y descubra cuál es el movimiento en que ella se resuelve”). La solución apunta metódicamente al engendramiento o presuposición de una génesis o forma de movimiento que distribuya los polos de la oposición como momentos de su proceso. Corazón del método dialéctico: consiste en el esfuerzo por descubrir la síntesis, que no será una nueva fórmula sino un movimiento (la forma de un movimiento)
Ejemplo: Hegel, Marx
-El renacimiento de la tesis dialéctica en Kant:
se parte de Dos premisas ..> ejemplo de copérnico
La Contradicción: tiene tres tipos de soluciones
La hipótesis Kantiana de la génesis del sistema planetario se basa en la tesis de que el sistema no estuvo siempre en el mismo estado, que procede de una forma distinta de existir, que se fue transformando gradualmente (historia olvidada de su morfogénesis) → aplicación del método dialéctico en las Cs Naturales, que Marx y Hegel nombran “ascenso de lo abstracto a lo concreto”. La Naturaleza puede ser explicada por esa misma, según una “escala invertida del ser” que va de lo pobre y desordenado a lo rico y ordenado, de lo abstracto a lo concreto bajo un movimiento autoformativo.
Kant hace una analogía entre el orden de la naturaleza y el orden de la cultura, irreductibles. En el orden moral nos enfrentamos frente a la contradicción de la libertad y la ley. Se sintetiza en el imperativo categórico
CIENCIA, POLÍTICA Y CIENTIFICISMO (VARSAVSKY)
El autor es Doctor en química de la UBA, formó parte de la generación que fue expulsada de Exactas en la noche de los bastones largos y lo que hace en este texto es criticar a la ciencia actual y al cientificismo, porque no hacen política. Es un texto que se relaciona con lo que plantea la cátedra de que la ciencia es una práctica social, y ble. Lo que propone es una actividad revolucionaria que conduce a un nuevo tipo de ciencia, hace un llamamiento a los científicos politizados para que se liberen de la ciencia adaptada a la necesidad del sistema social y dediquen su talento a preparar científicamente su reemplazo por un sistema nuevo.
Plantea que hay una discusión entre 4 posiciones básicas: los fósiles (reaccionaria pura), los totalitarios (stalinista estereotipada), los reformistas (defensora del sistema actual pero en su forma más moderna y perfeccionada, admitiendo críticas razonables) y los rebeldes o revolucionarios (intransigente antes los defectos del sistema y ansiosa por modificarlo a fondo).
Para él la ciencia se debe usar para ayudar al cambio del sistema, tanto en la etapa de lucha por el poder como en la de implementación y definición del que lo va a sustituir. La llamada ciencia universal está adaptada a este sistema social, es necesario producir una ciencia revolucionaria y revolucionada, no buscar soluciones dentro del sistema. “La misión del científico rebelde es estudiar con toda seriedad y usando todas las armas de la ciencia, los problemas del cambio de sistema social, en todas las etapas y en todos sus aspectos, teóricos y prácticos. Esto es hacer ciencia politizada”. Un cientificista no acepta ocuparse problemas políticos porque no es una actividad científica legitima según las normas de los del hemisferio Norte, quienes orientan las actitudes y opiniones de los investigadores y sancionan virtudes y pecados. Allí es donde se decide todo respecto de la ciencia, cuáles son los temas de mayor interés, los métodos, las orientaciones, etc., destacando la infalibilidad, universalidad, presentando las ciencias físicas como arquetipo, a los investigadores separados del mundo por las paredes de sus laboratorios, como si el estudio del mundo fuese en un tubo de ensayo. Es un tipo de dependencia cultural de la ciencia en el resto del mundo respecto del hemisferio norte. La ciencia actual crea solo los elementos que el sistema le estimula a crear, no ha creado instrumentos para eliminar problemas de fondo del sistema, ya que no cuenta con la teoría para resolverlo. Es necesario que haya una revolución política y científica.
La sociedad actual, dirigida por el hemisferio norte, está dominada por el consumismo. Producción masiva y cambiante, para hacer anticuado lo que se vendió y crear la necesidad de comprar, también impone gustos, costumbres y valores homogéneos. El hombre tiene solo dos facetas: producir y consumir. Muchos científicos sirven a esos mercados y dedican su vida a inventar objetos para ese sistema. La ciencia aplicada no es libre, está dirigida por lo que podría cambiar si se la dirige a otros fines. El sistema presiona para que los científicos investiguen sobre determinados temas, las instituciones subsidian a los investigadores para ello. “El valor de un científico debería medirse por la calidad de su trabajo, la originalidad de sus ideas y la influencia que ellas tienen sobre sus colegas, por la capacidad de formar y estimular a otro más jóvenes, de crear escuelas, por la intensidad y continuidad de su esfuerzo”.
Critica a los papers, porque dicen que gracias a ellos la investigación científica se puede contabilizar (sos buen científico si publicaste un montón de papers, sin importar lo que digan). Es esencial para renovar los contratos y subsidios, es más importante la cantidad que la calidad. Los papers no son garantía de espíritu crítico ni ideas originales. Los logros científicos se miden, cada vez más, por criterios cuantitativos. La ciencia de la sociedad de consumo produce cada vez más computadoras, órganos artificiales, pero ninguna idea emocionante. Para él, la ciencia actual avanza mucho en extensión pero no en profundidad ya que faltan ideas, falta calidad.
La investigación actual tiene las características del cientificismo. El cientificista es el investigador que se ha adaptado a este mercado científico, que renuncia a ocuparse por el significado social de su actividad, desvinculándose de los problemas políticos, se entre a su carrera aceptando las normas y valores de los grandes centro internacionales. El cientificismo genera desnacionalización, refuerza la dependencia cultural y económica y nos hace satélites de los polos mundiales de desarrollo. La ciencia actual está adaptada a las necesidades de un sistema social cuyo factor dinámico es la producción industrial masificada diversificada, de rápida obsolescencia, cuyo principal problema es vender. Este sistema estimula la especialización, la productividad, la competitividad individual, la invención ingeniosa, el uso de aparatos y adopta criterios cualitativos para todo. No es mucha la autonomía científica sin cambiar el sistema social. Aceptar la tecnología del norte significa producir lo mismo que ellos, competir con ellos en un terreno que conocen mejor, y de este modo perder la batalla contra sus grandes corporaciones. Así, hacemos lo mismo que ellos, pensamos lo mismo que ellos, somos lo mismo que ellos, entonces pierde sentido la lucha por la independencia económica y política. El objetivo de lo anteriormente dicho, es homogeneizar culturalmente a todo el mundo, a todos nos gustará lo mismo, seguiremos las mismas modas para vivir. La libertad consistirá en elegir entre diferentes marcas de los objetos. El peligro principal es perder nuestra identidad. Es necesaria la autonomía científica, porque así se fomenta también el adelanto de la ciencia y nosotros (argentinos, latinoamericanos) debemos usar nuestros propios criterios. Es absurdo construir un modelo general, ya que conviene plantear el estudio de cada problema social en su marco de referencia local, buscando factores importantes y las leyes adecuadas al caso particular. Otra cosa importante es el trabajo interdisciplinario, es decir la interacción entre disciplinas para descubrir las interconexiones e influencias mutuas de esos aspectos. Esa interacción exige discusión, crítica y estímulo constante entre los investigadores. ES NECESARIA CUIDAR LA INDEPENDENCIA EN EL CAMPO CIENTÍFICO.
Es necesario cambiar profundamente el sistema, lo que no ocurre porque se perjudicarán muchos intereses poderosos. Se necesita tomar en cuenta los problemas de la toma del poder, del afianzamiento inmediato del nuevo sistema y de sus objetivos a largo plazo.
El enfoque revolucionario es diferente por su insistencia en estudiar no cómo es una situación, sino cómo controlarla.
Para él es necesario encargarse de la planificación de la producción nacional, del control de la finanzas, de la fuga de capitales, del abastecimiento de las ciudades, de la urbanización, de la educación (para el cambio). Se trata de hacer una nueva ciencia aplicada de todos los niveles.
Después agarra y empieza a hablar de exactas (no me parece relevante).
CAPITULO 8 PT 2
Funcion y construccion de los indicadores:
Comencemos dando algunas ideas de lo que es un indicador. Partamos de la definicion que los indicadores aluden a los “procedimientos que se aplican a algun aspecto de las unidades de analisis para evaluar el estado que presentan estas unidades en relacion con aquello a lo que refiere una variable.” Por lo tanto nos referimios a las operaciones que se aplicaran sobre algun aspecto de la unidad de analisis para determinar el valor que le corresponde en ella. El indicador se orienta a lo observable, mientras que la variable se orienta a lo observable.
El indicador es una estructura compleja que vincula dos componentes: la dimensin, que refiere a la expresion empirica de la variable, y el prosedimiento, que refiere a las acciones que deberan implementarse para obtener la informacion. En otras palabras hablamos de una accion, o sea una operacion, para obeteer informacion de expresion empirica.
Criterios para elegir indicador: o seguimos la tradicion y usamos indicadores que son validos dentro del campo, o innovamos y proponemos nuevos indicadores (lo cual es mucho mas dificil).
El valor del indicadorse proyectara entonces como valor de la variable. Esto es por la semejanza de esestructura, lo que permite establecer un tipo de analogia entre entre indicador y variable, y tambien una abduccion (cada vez que se infiere el valorque le corresponde a una unidad de analisis, a partir del valor que le corresponde al indicador). Entonces hablamos de una regla de correspondencia. Sin embargo la conclusion de inferencia abductiva es siempre problematica desde el punto de vista logico-formal (Por la naturaleza misma de las inferencias).
Finalmente decimos que la relacion indicador variable es siempre relativa: lo que es variable en cierto momento de la construccion del dato puede transformarse a su vez en indicador en una fase posterior. A esto nos referimos en el siguiente punto:
De la matriz de datos al sistema de matrices de datos:
En toda investigacion estan implicado 3 niveles de analisis. Asi te la tiro. Puede que esten explicitados o no pero uno siempre los puede encontrar.Todo dato implica un proceso constructivo que remite a partes-componentes de la unidad focal. Todo depende de cual sea la unidad focal que tomemos en que momento de la investigacion.
Comencemos con el nivel subunitario. Es un subnivel respecto al nivel focal de estudio. Por ejemplo, estamos estudiando a un niño a partir de entrevistas. Cada respuesta es una parte-componente de la unidad focal. Las subunidades se refiere a todas las partes que podemos desmembrar del todo. Ahora, siguiendo con el ejemplo del niño, tambien podemos encontrar un nivel supraunitario, que en este caso seria un grupo de niños (donde si tomamos al grupo de niños como una unidad focal/unidad de analisis, el niño seria subunidad. Todo depende de donde se ponga el enfoque). Si denominamos al nivel focal el texto, podemos llamar al nivel subunitario el subtexto y al nivel supraunitario el contexto. Obviamente hay emergentes no reductibles a sus partes componentes (El todo es mas que la suma de las partes), Sin embargo, no deja de ser cierto que algunos elementos que conforman esa experiencia emergente pueden rastraerse en los componentes que la integran y le dieron origen..
Por lo tanto, llevándolo a la matriz de datos, decimos que la produccion de datos exigira moverse entre distintos planos de analisis. Vamos cambiando de perspectiva en todo momentos en el proceso de investigacion. En algunos momentos la unidad de analisis es el entrevistado, en otros es una pregunta de la entrevista, y siempre esta en comparacion con el nivel subtextual y el nivel contextual. Citando a Samaja: Cualquiera que sea la naturaleza del objeto a investigar, este constituye un sistema complejo que reconoce partes componentes que integran y se integran en contextos.
Finalmente, algunos tips:
*Ninguna entidad es por si misma focal
*Si se tienen distintos niveles de analisis, entonces las unidades respectivas remiten a realidades sustancialmente diferentes
*A cada nivel le corresponden sus variables especificas (ante unidades distintas, les corresponden variables distintas).
Validez y confiabilidad de los datos: una cuestion de indicadores.
Aca hablamos de la relacion entre indicador y variables, es decir, cuando construimos un buen indicador que pueda “representar” a la variable. Cuando? Cuando es:
*Valido: si se puede justificar la adecuacion entre lo que expresa la dimension del indicador y los contenidos o conceptos a los que refiere la variable. (El indicador mide los contenidos de la variable?)
*Confiable: si no introduce sesgos en el relevamiento por efecto de los procedimientos comprometidos en su amplicacion. (Lo hace del modo mas adecuado?)
A modo de sintesis decimos que la valides esta relacionada con la dimension del indicador (lo que se evalua) mientras que la confiabilidad involucra los procedimientos del indicador (como se evalua).
Para evaluar si un indicador es bueno, es decir, valido y confiable, se suelen realizar distintas estrategias. Una es utilizar 2 indicadores para evaluar un mismo asunto. SI miden lo mismo se dira que tenemos un elemento para justificar su validez. En cuanto a la confiabilidad, se puede controlar si diversos sujetos aplican un mismo indicador a una misma unidad de analisis: si el procedimiento es confiable se esperaria obtener iguales valores a partir de las diversas evaluaciones.
Pongamos un poco de perspectiva historicista: es posible reconocer que los indicadores que se van consolidando son resultado de una historia y una praxis cientifico-disciplinar que se nutre de ellos. Cuanto mas rica sea la praxis del investigador respecto a modelos, imagenes, tradiciones cientificas, reflexiones conceptales, mas ricos y mas apropiades seran sus indicadores. Lo que decimos es que el marco conceptual habla de los indicadores que se usaron y perduraron por ser buenos indicadores, y en el centro de cada practica se puede identificar uno o varios indicadores consolidados (del psicoanalisis, la asociacion libre).
En lo que respecta a la eficacia de los indicadores tenemos distintos conceptos a partir de los cales se puede evaluar:
*Especificidad: que el indicador evalue estrictamente aquello que se propone evaluar y no otro fenomeno. (si en una prueba de matematica preguntamos sobre los presidentes estamos en problemas)
*Sensibilidad: alude a la capacidad que tenga el indicador para captar las variaciones del fenomeno que se investiga en los rangos que resultan significativos para el estudio o contexto en cuention (La columna mercurial dentro del termómetro es muy sensible respecto a la medicion de la temperatura).
Los 2 ultimos criterios vinculan al indicador con su instrumentalizacion (Que se vera en el capitulo siguiente)
*Factibilidad: alude a la evaluacion de las condiciones de posibilidad tecnica para implementar el indicador (Puede realizarse?)
*Variabilidad: la apreciacion de la situacion y al contexto particular en que los indicadores van a instrumentarse (Se cuenta con las condiciones para implementarlo?)
Estas 2 ultimas estan intimamente vinculadas. Lo importante es que los indicadores pueden ser seleccionados y consolidados como buenos porque logran conciliar en alguna medida todos estos criterios. Si es el caso, estos “buenos indicadores” pasan a formar parte de las tradiciones de las disciplinas por las virtudes que presentan. (En ocaciones terminan por confundirse con el propio concepto que expresan).
Ampliaciones del concepto de “matriz de datos”, segun estrategias y tipos de investigacion
Una aclaracion preliminar: la estructura invariante del dato es independiente de la modalidad grafica o tabular de su presentacion.
Recordemos la estructura invariante del dato como el conjunto de funciones comprometidas en toda unidad de informacion: unidad de analisis, contenido de la variable, valor de la variable, indicador. Agregamos que la misma estructura invariante puede encontrarse con independencia de la modalidad de presentacion o ubicacion de los componentes estructurales del dato. Si, este apartado no dice nada mas, por lo tanto avancemos.
La produccion y construccion de datos en la investigacion cualitativa.
Vamos al paradigma cualitativo. El paradigma cualitativo pone en cuestion y revisa criticamente la concepcion de que cada unidad de analisis puede y debe tratarse con independencia de otra. Para examinar esto Ynoub comenzara hablando de la construccion del dato en este paradigma.
Para esto nos servimos de la fragmentacion del material, que implica reconocer las unidades o niveles en que se focalizara el analisis (esto fue explicado en los niveles de la unidad de analisis).La fragmentacion puede ser de multiples modos y niveles, pero cualesquiera sean los niveles o subniveles identificados, su proposito es la codificacion del material. Esta codificacion es una de las tareas centrales en la construccion de datos cualitativos, que va desde los datos a la teorica.
Modos de codificacion:
*Codificacion abierta: los codigos se iran produciendo a partir del propio material
*Desarrollar una lista de ideas tematicas clave antes de aplicar codigos al texto
*la construccion de una plantilla en la que se ordene jerarquicamente un listado de codigos potenciales.
Recordemos que en este paradigma los datos motivan la teoria, la construyen, pero el enfoque de la investigacion tambien orienta la lectura de los mismos. Ese enfoque mas conceptual es el que permitira luego agrupar codigos, e integrarlos en sistemas de inclusion de ideas de diverso alcance.
Todo esto quedo medio suelto y desordenado, esto es porque en este apartado Ynoub se sirve de un ejemplo para explicar todo, y es dificil pasarlo en limpio. Sin embargo tratare de organizarlo asi: Nosotros tenemos el material. A partir de alli necesitamos construir los datos. Lo que hacemos es codificar, leer el material e identificar valores a partir de los cuales agrupar nuestra informacion y construir ese dato. Estos codigos pueden ser un valor de una variable tacita, un asunto o contenido de la variable o una dimensión de la variable. Las categorias son conceptos derivados de los datos, que representan fenómenos. En otras palabras, las categorias constituyen codigos reconceptualizados. (Strauss y Corbin utilizan el termino categoria, nosotros nos referimos a ella como variable).
Con la foto podemos decir que el proceso de codificacion avanza en cualquiera de las direcciones antes identificadas, desde un valor o varios valores de una variable, desde una subvariables o desde la formulacion de la misma variable. La elaboracion de un sistema clasificatorio puede hacerse segun diversos criterios . Dicho de otro modo, el mismo asunto al que se refiere una variable puede abordarse segun diferentes maneras de diferenciar el fenomeno al que dicha variable se refiere.
Tomemos un enfoque particular que es la llamada “logica de los conjuntos borrosos”. Este enfoque niega los principios clasicos de no contradiccion y tercero excluido (A es A y no -A al mismo tiempo). Esto supone que una unidad de analisis puede participar al mismo tiempo en dos o mas valores de una variable.
Bueno todo muy lindo, pero todavia no dijimos como construir estos datos, de los cuales tanto estamos hablando. Nos interesa el llamado metodo de la comparacion constante, que consiste en hacer comparaciones de diverso tipo en el mismo momento en que se va identificando el material. Aqui les dejo algunas tecnicas:
*Analizar las palabras, frases u oracion, extrayendo los diversos significados potenciales
*Contemplar los extremos de una dimension (Identificar todos los valores de una escala o clasificacion de un fenomeno)
*Comparar sistematicamente, siguien una serie de preguntas exploratorias entre dos fenomenos distintos
*Comparar teoricamente dimensiones y propiedades
*Tecnica de muestreo teorico: se trata de maximizar las condiciones para la comparacion de los hechos con el fin de evaluar como varia una categoria en sus propiedades o dimensionamientos.
*Elaborar memorandos y diagramas en las distintas etapas del trabajo.
Con ello se busca identificar un termino que exprese el sentido contenido en dicho material, es decir, fundamentar la codificacion.
De las matrices conjuntistas a las matrices organismicas: una propuesta para ampliar la concepcion de matrices de datos
Estamos acercandonos al final del capitulo 8. Se empieza a ver la luz al final del tunel. Ahora Ynoub tiene una nueva propuesta, examinar una nueva perspectiva de la “matriz de datos” en la concepcion organismica. A diferencia de lo que estuvimos viendo en el apartado anterior, estas matrices cuentan con una dependencia funcional entre unidades de analisis y dependencia funcional entre variables. En el modo clasico ni las unidades de analisis ni las variables reconocen dependencia funcional entre si (el estado de una unidad de analisis no afecta el estado de otra unidad). En la organismica se valora el comportamiento de un compotente por referencia aun todo, a una totalidad relacional. El valor de una variable puede alterar el valor de otra variable.
Un rasgo caracteristico de este tipo de matrices es que las unidades de analisis estan vinculadas entre si por relaciones de antes-despues. Aqui no hablamos de una secuencia estrictamente cronologica. Es en verdad una relacion estructural y funcional; es decir, esos momento y sus relaciones guardan vinculos sistemicos: cada unidad y su relacion con la siguiente adquieren sentido y expresan relaciones entre partes, y entre el todo y esas partes. No se puede identificar la parte sin identificar el todo.
Basicamente Ynoub explica esta concepcion a parti del ejemplo de una narracion, por lo cual es muy dificil de pasar en limpio. Lo que ella argumenta es que en cualquier narracion (Por ejemplo una novela) pueden ocurrir disintos sucesos, todos los personajes tienen funciones etc. Dos novelas pueden tener las mismas funciones, pero depende si una aparece ante o despues va a cambiar el significado del resto de la novela con respecto a la otra, ya que una variable afecta a otra variable, y una unidad de analisis afecta a otra unidad de analisis. Esto es la concepcion organismica. Por lo tanto a la construccion del dato, el valor de una variable en una cierta nuidad de analisis tiene una concecuencia directa en el de otra u otras variables para esa misma UA (Unidad de analisis). El cuadro siguiente aclara todo bastante bien.
CAPÍTULO 9: EL PUESTO DE LA INSTRUMENTALIZACIÓN EN LA FASE 2: DE LA OPERACIONALIZACIÓN A LA PRODUCCIÓN DE DATOS
Bueno muchachos, comenzamos con el diseño operativo. Ya hablamos mucho de la operacionalizacion o la definicion empirica de los datos. Hoy nos toca hablar del dise;o operativo, que hace referencia al conjunto de decisiones a partir de las cuales se implementa la recoleccion o el relevamiento de los datos. Aqui identificamos dos cuestiones centrales, que nos acompa;aran durante todo el capitulo: Los medios para la obtencion de esos datos (el diseño y la seleccion de los instrumentos) y los casos o entidades que seran recolectados (diseno y seleccion de las muestras). Let’s go
Los mediadores para la accion: los instrumentos
Un instrumento es una herramienta que permite llevar adelante una accion planificada. Dispositivos para captar, recolectar o producir. Lo que se produce es informacion (o datos) que se estiman necesarios para los fines que cada investigacion tenga trazados.
Funcion de los instrumentos en el proceso de investigacion: su relacion con los procedimientos indicadores
El instrumento queda intimimantente vinculado al indicador, mas precisamente, con su procedimiento (Ver el comienzo del resumen del capitulo 8). Por lo tanto el diseño o la seleccion del instrumento surgira del tipo de indicador previsto. Puede verse como la manera de implementar el indicador. Por ejemplo la columna de mercurio (ejemplo que ya utilizamos antes) que se utiliza para medir la temperatura en el termometro se “mete” dentro del vidrio ya que este no es un aislante termico. Por eso se debe ver que no introduzca sesgos o distorciones, en otras palabras, que sea confiable.
Tipos de instrumentos en el campo de la investigacion cientifica
Bueno, mis queridos amigos, lo que resta de este apartado de instrumentos es hablar de 4 tipos” la observacion, el cuestionario, la guia de entrevista, y los tests. Los elegimos porque son instrumentos especificos y de alcance general en las ciencias sociales y humanas
1_Registro de observaciones
Observar es la tecnica mas basica y universal para conocer algo,y todos los instrumentos y modalidades de investigacion, desde los mas simples hasta los mas sofisticados, la suponen. Toda observacion implica una prespectiva, un modo de captar y organizar la experiencia y, por tanto, un modo de crearla al aprehenderla. Esta asume que: Esta motivada por un objetivo de investigacion, por lo tanto, esta conceptualmente orientada, se planifica con algun grado de sistematizacion, de tal modo que, se guia por algun criterio indicador o por supuestos de operacionalizacion. En otras palabras, esta cargada de teoria y esta orentada por la teoria, los objetivos y las hipotesis de la investigacion. Porl o tanto privilegia una perspectiva.
Para identificar los tipos de observacion nos valemos de 2 conceptos, la participacion y el contexto. La participacion, se refiere a la presencia del observador en lo observado, que impacta de manera inevitable. Se debera precisar siempre como va a involucrarse el observador en la experiencia, a saber: observacion participante (el observador interactua o participa deliberada y activamente con aquello o aquellos que observa) y observacion no participante (el observador permanece distante). En cambio el ambiente o contexto al que se refiere puede clasificarse como contexto natural (el fenomeno se observa en su contexto y condiciones habituales) o contexto artificial (condiciones especialmente dise;adas para el registro de la observacion, que por tanto alteran las condiciones habituales). En otras palabras, el contexto del hogar frente al contexto del laboratorio. Por lo tanto tenemos 4 tipos de observaciones posibles (cuadro). En el tipo 1 los investigadores se involucran de modo activo en el contexto natural. Uno de los riesgos que conlleva esta estrategia es volverse nativo, es decir, naturalizar las experiencias de las cuales se participa y acortar la distancia necesaria para analizarlas y cortejarlas a la luz de la teoria. El tipo 2 es un tipo de observacion freciente en diversos ambitos de investigacion etnografica, antropologica, erologica y psicosocial. Se procura captar informacion de forma espontanea. Como riesgo se puede identificar que registrar conductas es siempre atribuirles una significaion, que queda fuera de la “opinion” de los observados. En cuanto al tipo 3 se produce en diversas estrategias, donde la mas comun es la investigacion experimental. Un ejemplo muy comun es la entrevista psicoterapeuta. Finalmente tenemos el tipo 4, donde tambien podemos identificar la investigacion experimental. Aqui se buscar generar condiciones controladas para evaluar el impacto de una o mas variables en el fenómeno estudiado.
Basicamente hay texnicas de registro mas o menos estructurados segun cada caso, donde se pueden identificar las grabaciones, o las tomas de nota
Cuando hablamos de observación de segundo orden hacemos alusión a un modo de evitar no ver lo que no se puede ver. Aquí hablamos de un observador que puede observar lo que sus observados indican y describen -que observan-, pero también puede identificar los esquemas de diferencias con que se marcan tales observaciones y trazan sus distinciones. “Es una observación que se realiza sobre un observador.” Busca observar aquello que el observador no puede ver por razones de posición. En el área del psicoanálisis se ha tematizado este examen del observador como “análisis de la contratransferencia.”
2_El cuestionario estructurado, aplicado mediante encuesta.
A diferencia de la observacion la encuesta esta restringida al contexto de un interrogatorio o dialogo pautado entre sujetos humanos. Se suelen usar planillas o cuestionarios que contiene el conjunto de estimulos verbales para captar cierta informacion. Entre esta, debera precisarse: quienes seran adimitidos para responder (quienes responderan la encuesta); que se recabara, donde se recabaran los datos, cuando se realizara el relevamiento y como se organiza el cuestionario y su aplicacion. Quien responda a la encuesta puede no coincidir con la unidad de analisis (Por ejemplo en las encuestas de hogares quien responda puede ser cualquier miembro de la familia, y no precisamente “la familia”).
El diseno del cuestionario se hace con base en las definiciones conceptuales y operacionales de la investigacion. Contendra diversas variables e indicadores, cada uno de los cuales podra requerir distintos procedimientos (como la observacion, la interrogacion, etc). Las definiciones operacionales previstas al momento de diseñar datos no necesariamente coinciden con la formulación adoptada en la encuesta, ya que éste tendrá que ajustarse al modo coloquial y a las características comunicativas de los destinatarios del mismo. En otras palabras, para “contestar” un mismo indicador se pueden utilizar varios items de la encuesta o variar sustancialmente entre la definición del indicador y el item del cuestionario (por ejemplo, cuando el indicador es definido como total de años de escolaridad cursados, se puede preguntar, máximo nivel de estudios alcanzado, dejando el cálculo al encuestador.
Estos son aspectos formales. Me limitaré a nombrarlos y hacer alguna pequeña descripción.
Modalidades de aplicación de la encuesta:
*Aplicada por un encuestador (telefonicamente, en presencia cara a cara, por medio virtual)
*Autoadministrada (el propio encuestado la completa por su cuenta, en presencia o ausencia del encuestador)
Factores que influyen cuando es aplicada por un encuestador:
*La relación de género entre encuestado y encuestador.
*Relaciones institucionales de poder o jerarquía.
*Aspectos culturales y comunicacionales.
*Aspectos actitudinales y el trato personal.
En el caso de las encuestas autoadministradas se puede acompañanar de “instrucciones breves” para facilitar la comprensión.
Cuando se administra una encuesta se asume que: todos los individuos tienen una opinion; se cuestionan sobre los temas que se les pregunta; todas las opiniones tienen la misma incidencia social. El problema es que resulta imposible estima el verdadero alcance de las respuestas en un contexto tan limitado como el del interrogatorio ocasional de una encuesta. En cada item se abre siempre la posibilidad de una interpretación equivocada o sesgada. Deja por fuera la incidencia del contexto o los patrones culturales. En consecuencia, lo que el individuo expresa es siempre considerado como la opinión de un sujeto que dice la verdad.
3_ La guía de entrevista
LA diferencia entre el cuestionario y la entrevista es el grado de profundidad con que se puede recoger información. En el cuestionario cuando responden, tienen que adecuar o hacer coincidir sus respuestas con los valores previstos por los investigadores. En la entrevista las preguntas tienen un carácter de orientación que sólo busca captar el despliegue de opniones del entrevistado. Las entrebvistas pueden clasificarse como:
*Dirigidas: Las preguntas son abiertas pero se procura seguir un orden estipulado y direccionar al entrevistado a los temas pautados.
*Semidirigida: Hay una guía pero se deja espacio y se recuperan las derivaciones que surjan del intercambio más allá de las temáticas previstas.
*No dirigida: El nivel de direccionamiento es mínimo.
Lo usual en la aplicación de las entrevistas es un contexto de diálogo e intercambio “cara a cara” entre los individuos.
Al igual que en la encuesta, las mismas cuestiones pueden afectar la implementación de la entrevista, a saber:
*La relación de género entre encuestado y encuestador.
*Relaciones institucionales de poder o jerarquía.
*Aspectos culturales y comunicacionales.
*Aspectos actitudinales y el trato personal.
En cuanto al uso del lenguaje se puede reconocer que la entrevista facilita algunas cosas respecto a la encuesta, pero también requiere atención y una alerta permanente sobre los término. El volver a preguntar es una ventaja considerables. Dialogar implica siempre asumir la perspectiva del otro y para el otro, y esta asunción puede ser equívoca. Es por ello que el personal destinado a tomar la entrevista debe estar especialmente capacitado. (motivas la confianza del entrevistado, identificar temas que surjan del discurso, captar información no verbal y autoobservarse). Es una técnica mucho más compleja y delicada que la encuesta.
4_ Tests o pruebas estandarizadas
El últimos de los instrumentos sociales de Ynoub. Se los suele llamar “pruebas estandarizadas” que significa “modelo, norma o patrón de referencia”. Estas pruebas se utilizan como un “patrón de referencia” que sirve para medir alguna competencia, capacidad, rasgo o cualquier otro fenómeno para el que se requiera establecer escalas normativizadas. Una vez fijado el patrón, cualquier test se puede medir en comparación a este; se requiere saber respecto a qué criterio o según qué patrón se debe medir. Con este fin se construyen los llamados instrumentos de medición o pruebas estandarizadas.
Todo comenzó hace mucho mucho tiempo con un tal Alfred Binet, siendo pionero en esta temática con sus test mentales para determinar las edades mentales de los niños, en comparación con su edad cronológica. Ahora tenemos gran cantidad de tests para medir y evaluar diversos asuntos, que pueden clasificarse en psicométricos y proyectivos, de acuerdo con el área del comportamiento estudiado. Una clasificación ordenada de esta gran cantidad de posibilidades puede ser la siguiente:
*Pruebas de medición de aprendizajes, competencias o aptitudes
*Pruebas para la medición de actitudes u opiniones
*Inventarios (para evaluar la personalidad
Cualquiera sea la prueba, el objetivo es construir un criterio normativo o patrón para medir y evaluar un constructo teórico. De la estrategia que nos ocuparemos en este apartado es la Teoría clásica del test (TCT). En esta concepción la construcción y validación de los tests está fundada en una población de referencia. La norma o patrón se extrae de esa población. El primer paso, entonces, consiste en seleccionar una muestra representativa del universo al cual se destina el test (muestra normativa). Los resultados que se obtengan se fijarán como pautas para medir cualquier sujeto del mismo universo. De esta manera se lo podría ubicar en distintos gradientes de inferioridad o superioridad en el asunto evaluado. La puntuación del sujeto sólo puede evaluarse en comparación a ese criterio normativo.
¿Donde encontramos el problema? En que se produce la paradoja de que un ítem es fácil o difícil según la aptitud de los examinados, y la aptitud de los examinados depende de que los ítems del test sean fáciles o difíciles. Por lo tanto presenta limitaciones a la hora de valorar el alcance de dichos procedimientos. Además, si dos examinados que contestan bien el 50% de las preguntas de dos tests que difieren en dificultad ¿pueden ser considerados igual de capaces? Sin duda no, así que vayamos a otra concepción...
El TRI tiene como objetivo general el mismo que el TCT, medir la puntuación de un sujeto en determinado rasgo. Pero ahora el enfoque está puesto en el ítem, y no el test. Este es un modelo estadístico que relaciona la probabilidad de respuesta a un reactivo (item) en función de un parámetro específico del ítem y el nivel de rasgo latente que presenta un determinado sujeto. En otras palabras, cada item presenta propiedades que le son propias (parámetros) e invariantes, sea cual sea la distribución de los niveles de habilidad de la muestra en la que se han aplicado. Lo que se busca con esta concepción es reconocer el nivel de dificultad del ítem, de modo que cada ítem se describe en referencia a una función de probabilidads que permite estimar los parámetros del propio ítem.
Hablaremos en este último apartado del modo en el que pueden presentarse los ítmen que conforman un test. Su formulación contempla ítems con formatos estructurados. Éstos deben permitir valorar de manera unívoca la respuesta de los mismos. Formatos:
*Respuestas verdadero-falso.
*Opción múltiple.
*Opciones para completar frases, esquemas o gráficos.
*Operaciones para resolver.
*Escalas.
Alcance y función de las muestras en la fase 2
último esfuerzo, las muestras
¿Qué muestra la muestra? Representavidad y diseño muestral
La muestra: mediante ella y a través de ella habremos de pesquisar o identificar rasgos regulares, necesarios o característicos del objeto investigado. El punto más importante de ella es que sea representativa, o sea, que da cuenta de aquello regular o característico del objeto o tema de estudio.Pensar que la muestra es representativa, es lo mismo que decir que tenemos fundamento suficiente para pensar que la estructura de la muestra es análoga a la estructura del universo. Las muestras están presentes en toda investigación, incluso en las de historias de vida (como el perfil de Julio Cesar) donde esperamos captar a traves de materiales los aspectos relevantes y característicos del referido sujeto. En otras palabras, lo representativo para el análisis. El interés estará puesto en captar de la mejor manera posible aquello que interesa para los fines de la investigación, de modo tal que el material que se analice constituya una “buena muestra” para acceder a dicho asunto u objeto.
Por lo tanto:
*Existen distintos tipos de muestras (Dependiendo de la unidad de analisis, es decir, de la vida de Julio cesar o de La histeria)
*Las características de la muestra dependerán de las características del objeto a estudiar
*Dependerán del modo en que se aborde el objeto a estudiar, es decir, de la estrategia empírica de trabajo
Los distintos tipos de diseño muestral
Ya nos ocupamos de la representatividad, ahora nos toca la variabilidad . En el diseño de una muestra se debe procurar que “la variabilidad de una muestra sea an{aloga a la variabilidad del universo”, al menos en aquellos aspectos relevantes para los fines de la investigación. La principal limitación surge del hecho de que con mucha frecuencia desconocemos la “variabilidad del universo”. Por lo tanto cuando se conoce poco o no se conoce lo que suele hacerse es servirse de las reglas de la probabilidad y seleccionar los casos por azar. El supuesto que se sigue allí es que el azar se encargará de hacer que las características y rasgos peculiares de los casos seleccionados se distribuyan de un modo análogo a como lo hacen en universo. Entonces a la hora de seleccionar una muestra se tomarán en cuenta aspectos sustanciales, es decir, lo que sabemos del objeto de estudio; y aspectos formales, vinculados al modo de recolectar y seleccionar los casos según sea el conocimineto de los aspectos sustanciales (del conocimiento que tengamos sobre la variabilidad). Por lo tanto tenemos distintos tipos de muestras, probabilisticas y no probabilisticas
1_ Las muestras probabilísticas
Los casos se seleccionan procurando que todos tengan la misma probabilidad de ser elegidos. Por ejemplo el bolillero o un listado generado al azar por un procesador o cualquier medio disponible. Sin embargo presenta muchas limitaciones, si el universo de referencia es muy grande. Cuando se hace uso de la muestra por azar se puede estimar el margen de error que se está asumiendo, pero no se podrá saber con certeza plena cuán representativa resultó ser la muestra efectivamente seleccionada.
La variabilidad incide directamente en la estimación del tamaño muestral, y a su vez, tendrá consecuencias sobre el error o la presición de la muestra. Si la variabilidad es muy grande necesitaremos de muchos casos para que sea representativa.
Por otro lado afirmamos que la estimación del tamaño muestral es independiente del tamaño del universo. Depende de otros factores.
Aquí se combinan criterios formales (basados en la teoría de probabilidades) con criterios sustantivos (basado en nuestros conocimientos de los hechos). Un estrato es una porción de casos seleccionados respecto a algún atributo específico. Lo que se hace es conformar distintos estratos que dependen de variables identificadas y a partir de allí seleccionar al azar de cada grupo seleccionado. La distribución de la muestra en función de los diferentes estratos puede ser de diferentestipos:
*Asignación proporcional: La fracción muestral es proporcional al peso relativo de cada estrato
*Asignación óptima: Se asignan más casos a los estratos que tienen más variabilidad
*Asignación no propocional: Se asigna la misma cantidad de casos a cada estrato
Es un modo particular de selección de casos al azar. La muestra se obtiene a partir de la identificación de todas las unidades del universo, pero en lugar de extraer los casos por números aleatorios sólo se esxtrae uno al azar. Los casos restantes se eligen con base en “segmentos” que resultan de dividir el universo entre el total de casos necesarios.
Éste refiere a un tipo particular de relevamiento de casos. Se utiliza especialmente cuando la selección debe hacerse sobre un universo demasiado grande. Se seleccionan grupos casos antes de directamente los casos. Por ejemplo, en un estudio de ganado existente en el país, se necesitan 500 animales (sobre una población de 2 millones). No vamos a ir distrito por distrito, sino que seleccionaremos algunos distritos y a partir de ellos seleccionaremos algunos casos al azar. Por lo tanto hablamos de 2 etapas
2_ Las muestras no probabilísticas
Estas se definen por oposicoón a las probabilísticas. La selección de casos se basa en un criterio previamente adoptado, el cual supondrá que el investigador dispone de elementos de juicio sobre la naturaleza -o el perfil- de casos que desea estudiar. Algunos autores consideran que estas muestras resultan útiles para el descubrimiento de nuevos hechos, pero no válidas para generar los hallazgos que surjan a partir de las mismas; de modo que serían las muestras a utilizar en las etapas exploratorias de cualquier estudio.
Estas muestras son buenas muestras (representativas) cuando:
*El fenómeno a investigar prsenta poca o nula variabilidad
*Cuando conocemos su variabilidad
*Cuando se busca profundizar en la identificación de la variabilidad a través de un abordaje denso y abierto.
Se pueden identificar dos tipos de estudios:
*Los estudios que consideran el caso como ejemplar típico o paradigmático. Este enfoque se podría definir como enfoque nomotético
*Estudios donde el caso se selecciona por sus rasgos peculiarisimnos, es decir, un ejemplar exepcional. Se lo define como enfoque ideográfico.
El caso se selecciona intencionalmente en tanto expresa de modo característico el fenómeno que se desea estudiar.
Importa resaltar la convicción de que en lo singular se puede captar algo del orden de lo general. (Enfoque nomotético).
En el enfoque ideográfico el caso es el universo de referencia. Es decir, se analiza para extraer de él su pauta peculiar, su propia regla.
Finalmente recordemos que el principio de partición, es decir, identificar las partes-componentes se aplica a todos los estudios de caso: ya sea desde el enfoque nomotético o desde el ideográfico.
Aqui los casos se seleccionan por su caracter inusual o por ubicarse en valores extremos en relación con algún atributo de interés. Se definen como “desviados” por su caracter inusual, de baja frecuencia (su rareza). Son casos que se alejan de los valores normales
Por otro lado, los casos extremos no se consideran por su alta o baja frecuencia, sino por su ubicación en los calores de la variable o el atributo de selección.
Aquí se fijan cuotas, es decir, un número de casos por cada grupo o categoría. El objetivo es estudiar a profundidad los casos que se seleccionen para cada uno de los grupos. El criterio para la conformación del grupo puede hacerse considerando una variable o más de una.
3_ Las muestras incidentales o casuales
Se seleccionan de modo casual (Por ejemplo contactandolos en una esquina de la ciudad) o por cualquier otra forma casual no controlada o estipulada deliberadamente.
Niveles de análisis y diseño muestral: la cuestión del todo y las partes
Siempre que se investigue un caso se adoptarán de modo más o menos sistemático criterio para distinguir al interior del mismo partes-componentes, subunidades de análisis, de tal modo que el numero de casos comprometidos en cada nivel puede variar tanto como varían las partes-componentes identificadas en el abordaje de dicho objeto de estudio.
Básicamente, que en cada muestra tenes que identificar la unidad de análisis, con sus niveles contextuales y subtextuales.
El muestreo teórico y la investigación cualitativa
El muestreo teórico es una teoría dond podemos ubicar dos conceptos claves:
*la emergencia: el surgimiento, desde los datos de categorías/propiedades, dimensiones que resultan significativos para la investigación
*La sensibilidad teórica: la capacidad que tiene el investigador para identificar la pertinencia de estas emergencias.
Muestreo teórico: recolección de datos guiada por los conceptos derivados de la teoría que se está construyendo y basada en el concepto de “hacer comparaciones”. También el muestro procura captar toda la variabilidad del fenómen investigado, con fin de identificarla y establecer relaciones o vínculos entre sus múltiples determinaciones. El propósito del muestreo teórico es maximizar las oportunidades de comparar acontecimientos, incidesnte o sucesos, para determinar como caría una categoría en términos de sus propiedades y dimensiones.
Básicamente es una estrategia procedimental que apunta a un único propósito: identificar la avariabilidad del fenómeno en estudio. ¿Cual es el camino?
Durante el muestreo se busca indicadores (acontecimientos o sucesos) representativos de conceptos teóricos pertinentes, luego los compara en buscar de propiedades y dimensiones.
1_ Muestreo teórico y método comparativo constante
El procedimiento analítico que orienta el muestreo es el método de la comparación constante. Con este se busca integrar la información o eventualmente completarla a partir de los hallazgos del propio trabajo de campo. Por lo tanto el muestreo está orientado por lo que aparece o emerge en el campo y por la sensibilidad de captar la categoría o el concepto en cuestión. Los defensores de este enfoque afirman que una teoría previa hace perder esta sensibilidad. Su propuesta es evitar los propios conocimientos, los propios marcos teóricos. Esto sería posible con el entrenamiento del observador.
2_ El concepto de saturación teórica.
El muestreo teórico implica volver siempre sobre el mismo material, por la comparación constante, ya que a medida que avanza el análisis se vuelve más sensible teóricamente. Ahora, el criterio de seguir recopilando información viene dado por lo que se llama saturación de las categorías. El concepto de saturación es el criterio de referencia para estipular el alcance del muestreo teórico. A partir de la saturación se puede decidir si se ha reunido la información necesaria para el análisis. Esta supone que:
*no hay datos nuevos que emerjan en el muestreo de una categoría (no aparecen nuevas propiedades o dimensiones)
*Complementariamente la categoría está bien desallorada
*Se han establecido las relaciones entre categorías y estas relaciones se han podido validar en el campo.
Preguntas y Respuestas entre Usuarios: