Altillo.com > Exámenes > UBA - UBA XXI > Introd. al Pensamiento Científico
Las Ciencias Formales
La matemática: constructos formales y realidad
Una demostración es una prueba lógica, no supone una prueba empírica ni afirma o niega nada acerca de la verdad fáctica de las premisas o conclusiones involucradas. En lógica, aritmética, geometría, la verdad de las proposiciones no se demuestra mediante ningún método experimental. En estos casos, una prueba lógica es un “señalamiento” de las implicancias entre un conjunto de proposiciones llamadas “axiomas” (que no se demuestran) y otras proposiciones llamadas “teoremas” que sí deben demostrarse.
Desde el punto de vista lógico, una demostración puede verse como un argumento cuyas premisas son los axiomas o postulados, y la conclusión es la conjunción de todos los teoremas deducidos. Esta cuestión lógica tiene que ver con la validez de la interferencia y afecta al plano sintáctico, a la admisión de ciertas reglas dentro del lenguaje, y no a la verdad o falsedad empírica de sus proposiciones. A diferencia de las proposiciones de las ciencias fácticas, sólo los “vacíos” teoremas deducidos de los axiomas son verdaderos, pero no dicen nada acerca del mundo.
La aplicabilidad de las ciencias formales a la realidad es objeto de discusión filosófica. Popper afirma que es insostenible la creencia de que cualquiera de los cálculos de la aritmética es aplicable a cualquier realidad. La aplicación no es real, sino aparente.
La concepción clásica sobre la metodología de las ciencias formales se encuentra ya en Aristóteles, cuando destaca los 3 supuestos fundamentales de la ciencia demostrativa:
Supuesto de deducibilidad: admite que la ciencia demostrativa debe partir de ciertos principios, los indefinibles, que servirán para definir cualquier otro término, y, por otro lado, deberá partir de los indemostrables o axiomas para demostrar todas las verdades de esa ciencia mediante el empleo de reglas.
Supuesto de evidencia: exige que los axiomas sean de tal naturaleza que se los pueda aceptar como verdaderos sin demostración. La evidencia debe alcanzar también a los términos primitivos de manera que su claridad permita aceptarlos sin definición. Las definiciones son las encargadas de declarar unívocamente el ser de las cosas y por ello serían verdaderas.
Supuesto de realidad: los dos supuestos anteriores se admiten junto a este, puesto que, para Aristóteles, “ciencia” es siempre”ciencia de la realidad”.
El prototipo de esta “presentación axiomática” son los Elementos de la Geometría de Euclides. En los Elementos, toda la geometría, hasta entonces una reunión de reglas empíricas para medir o dividir figuras, se convierte en ciencia deductiva: de este modo, el conocimiento empírico pasa a ser conocimiento formal.
Además de los axiomas, Euclides emplea postulados.
Axiomas:
“Cosas iguales a una misma cosa, son iguales ente sí.”
“Si a cosas iguales se le agregan cosas iguales, las sumas son iguales.”
Postulados:
Desde cualquier punto a cualquier otro se puede trazar una recta.
Toda recta limitada puede prolongarse indefinidamente en la misma dirección.
Con cualquier centro y con cualquier radio se puede trazar una circunferencia.
Todos los ángulos rectos son iguales entre sí.
Si una recta, al cortar a otras dos, forma de un mismo lado ángulos internos menores que dos rectos, esas dos rectas prolongadas indefinidamente se cortan del lado que están los ángulos menores que dos rectos.
Los axiomas tienen un carácter general, mientras que los postulados son considerados como los puntos de partida específicos de cada ciencia. Ambos son considerados verdades evidentes que no tienen necesidad de demostración. Sobre la base de ellos demuestra un conjunto de proposiciones; estas proposiciones demostradas son los teoremas.
Durante el siglo XIX y principios del XX, desarrollos revolucionarios en el campo de las matemáticas pusieron en crisis los presupuestos de la ciencia demostrativa.
Saccheri: sustituyó el postulado de las paralelas por otros supuestos contrarios y después trató de deducir una contradicción del conjunto de los otros postulados de Euclides y este nuevo conjunto de enunciados. Demostró que la geometría euclideana es incompatible con otras, y no contradictoria.
Gauus, Lobachevsky, Bolyai y Riemann: abrieron nuevos caminos para el desarrollo del sistema aximático.
Bool y De Morgan: en el campo de la lógica, constituyeron un estímulo para que distintas disciplinas incorporaran desarrollos cada vez más generales.
Teoría de conjuntos de Cantor y la lógica de Frege: aportaron el maximo de generalización premisible para la época, y permitieron caracterizar una nueva concepción de las ciencias formales.
Whitehead y Russell: en los Principia Mathematica complementan la tarea revolucionaria. En esta concepción, la visión clásica de las ciencias deductivas es reemplazada por otra donde la matemática se presenta como una jerarquía de estructuras caracterizadas por ciertas propiedades formales definidas axiomáticamente.
Euclides ya no es la última palabra en geometría, puesto que se pueden construir nuevos sistemas geométricos empleando axiomas distintos e incluso incompatibles con los suyos. La convicción de que los axiomas pueden establecerse en virtud de su autoevidencia resultó desmentida.
Sistemas axiomáticos:
Los componentes de los sistemas axiomáticos son:
Los términos primitivos.
Las definiciones.
Los axiomas.
Reglas (razonamientos deductivos)
Teoremas.
A fines del S.XIX, Peano intentó sistematizar axiomáticamente las verdades conocidas tradicionalmente sobre los números naturales, sus propiedades y operaciones básicas. Ejemplo: algunos componentes del sistema axiomático construido:
Términos primitivos:
C1 Número natural.
C2 Cero.
C3 El siguiente de.
Axiomas:
A1 Si un objeto es número natural, el siguiente también lo es.
A2 El cero es un número natural.
A3 El cero no es el siguiente de ningún número natural.
A4 Dos objetos con el mismo siguiente son el mismo número natural.
A5 Si el cero tiene una propiedad Ø y el que un número natural sea Ø implica que su siguiente también es Ø, entonces todo número natural tiene Ø.
A5 es considerado un sistema axiomático ya que tiene una variable Ø
Teoremas:
T1 El siguiente del siguiente de cero es un número natural.
T2 El siguiente del siguiente de cero no es el siguiente de cero.
T3 Cero no es el siguiente del siguiente de cero.
Definiciones:
D1 Uno es el siguiente de cero.
D2 Dos es el siguiente de uno.
Los términos primitivos no se definen, pero sirven para definir otros términos (un intento de definir todos los términos conduciría a un círculo vicioso) Para evitar esto, en un sistema axiomático se seleccionan ciertos conceptos primitivos, y se definen a partir de ellos todas las demás nociones necesarias. Construcción de un sistema axiomático:
1° paso: Consiste en proporcionar una lista de todos los términos sin definición (es conveniente disponer sólo de pocos de estos términos)
2° paso: Consiste en establecer una relación de todas las proposiciones para las que no se dan demostraciones. Estas proposiciones son los axiomas del sistema.
3° paso: Para los axiomas es necesario partir de enunciados que no necesiten demostración. Los axiomas se consideran enunciados verdaderos sin que su verdad se derive de otros enunciados. Se busca siempre partir del menor número de axiomas.
Los axiomas y las definiciones son aparentemente triviales (Ej. Si soy argentino o soy argentino, entonces, soy argentino.) Aquí radica la fuerza de un sistema axiomático, en la medida en que, construido sobre sencillos axiomas, un sistema axiomático conduce a la formulación completa de una ciencia de ellos derivada.
4° paso: Consiste en desarrollar el sistema, deducir las consecuencias lógicas mediante el empleo de reglas de inferencia, que, en todos los casos, son razonamientos deductivos. Estas consecuencias son los teoremas del sistema.
Puede definirse a un teorema como “el último paso de una demostración”. Una demostración es un conjunto finito de enunciados donde cada uno de ellos es un axioma o es una consecuencia lógica de otros enunciados anteriores, en virtud de una regla de inferencia. Dado que los axiomas se admiten como enunciados verdaderos y las reglas de inferencia son razonamientos deductivos (transmiten la verdad entre premisas y conclusión), los teoremas son enunciados verdaderos.
Propiedades de los sistemas axiomáticos:
¿Qué condiciones deben satisfacer los axiomas y las reglas de inferencia para construir un sistema axiomático? No es necesario que los axiomas sean evidentes, elementales o escasos. E l sistema axiomático debe ser:
· Consistente: Un sistema es consistente si, desde los axiomas, no se puede derivar una fórmula y su negación. Un sistema inconsistente, carece de utilidad, puesto que todas las fórmulas podrían ser consideradas teoremas, incluso aquellas que se contradijeran. Si se logra derivar una fórmula y su negación como teoremas de un sistema, esto constituye una prueba de su inconsistencia. Pero si no se logra probar un caso de inconsistencia en un sistema axiomático, eso no prueba que el sistema sea consistente.
· Independientes: Los axiomas deben ser independientes entre sí. Ningún axioma debe derivarse de otros o del conjunto de axiomas. A menos que se pueda establecer que dos proposiciones son independientes, no se puede saber si son proposiciones distintas o dicen lo mismo de otro modo. Si se logra deducir un axioma de otro se prueba que el sistema es redundante y no independiente, pero si se trata de derivarlo y no se logra, eso no constituye una prueba de que los axiomas sean independientes.
· Completo: Esto permite derivar de los axiomas todas las leyes del sistema. En un sistema completo, el agregado de una ley no derivable hace inconsistente el sistema.
Estos requisitos constitutivos de los sistemas axiomáticos fueron objeto de revisión durante el S.XX. Gödel escribió un trabajo (“Acerca de proposiciones formalmente indecidibles de los Principia Mathematica y sistemas relacionados”) Las conclusiones establecidas por Gödel son actualmente aceptadas por sus implicancias revolucionarias en los fundamentos de las ciencias formales; son una prueba de la imposibilidad de demostrar ciertas proposiciones fundamentales en la aritmética y obligaron a reconocer que nunca se logrará construir una disciplina deductiva completa y exenta de contradicción, que contenga todas las proposiciones ciertas de la aritmética y la geometría, en las que hay problemas que no pueden decidirse de modo concluyente, lo que posibilita la aparición de inconsistencia e incompletitud. Lo que Gödel probó es comparable (isomorfo) a la afirmación “ese teorema no tiene demostración”; descubrió que existían afirmaciones verdaderas (teoremas) que no podían ser probadas dentro del sistema, probó que todo sistema formal que contuviera a la aritmética elemental es incompleto y descubrió que la consistencia de dichos sistemas era imposible de probar. Gödel no consideraba que sus teoremas de incompletitud demostrasen la inadecuación del método axiomático, sino que permitían advertir que la deducción de teoremas no puede mecanizarse; justificaban el papel de la intuición en la investigación matemática.
La metodología de las ciencias formales es hoy una ciencia deductiva: se ocupa de investigar y analizar las teorías deductivas en lógica y en matemáticas, los signos que las componen, las relaciones semánticas que se establecen entre esas expresiones, el estudio de las propiedades de estas estructuras, etc. La semiótica (con el deslinde de sus dimensiones sintácticas, semánticas y pragmáticas) aporta un andamiaje conceptual útil para esta disciplina. El grado de desarrollo alcanzado ha servido para tomar nuevas precauciones al establecer los límites de los lenguajes formales, al realizar afirmaciones absolutas respecto de la verdad o falsedad de sus enunciados.
Interpretación y modelo de los sistemas axiomáticos:
El método axiomático es un poderoso instrumento de abstracción. El carácter ciego y mecánico de las demostraciones permite que puedan ser realizadas por máquinas. Los sistemas axiomáticos actuales son sistemas formalizados, lo que permite que un mismo sistema axiomático pueda tener varias interpretaciones. Cada interpretación se denomina un modelo. Se dice que se interpreta un concepto primitivo cuando se le atribuye un sentido, y se obtiene un modelo de un sistema axiomático cada vez que uno de tales conceptos se ha interpretado de manera que son ciertas las proposiciones que resultan de los axiomas. Para afirmar que una interpretación dada de los conceptos primitivos de un sistema axiomático constituye un modelo, deberemos disponer de un criterio para determinar la veracidad de proposiciones particulares formadas por las interpretaciones de los postulados.
Si dos modelos corresponden a un mismo sistema axiomático son isomorfos. Y si dos modelos son isomorfos, se admite que tendrán las mismas propiedades formales.
La cuestión del método en las ciencias fácticas
El lenguaje de una teoría fáctica
Una teoría empírica es un conjunto de hipótesis de partida y sus consecuencias lógicas; es un sistema de enunciados, y un enunciado es una oración declarativa que vincula términos. Los términos son los “ladrillos fundamentales del pensamiento científico”
Existen 3 tipos de términos en una teoría fáctica:
· Términos lógicos: constituyen el vocabulario formal de la teoría, son enlaces sintácticos (“todos”,”y”).
· Términos observacionales: constituyen el vocabulario que se refiere a entidades, propiedades y relaciones observables (“azul”,”frío”).
· Términos teóricos: constituyen el vocabulario teórico de la teoría; se refiere a entidades, propiedades y relaciones no directamente observables (“electrón”,”gen”).
Los enunciados construidos en el contexto de la teoría contienen términos lógicos y términos no lógicos (en la descripción anterior son los términos teóricos y observacionales)
Pueden ser de 3 tipos:
Enunciados teóricos: contienen como vocabulario descriptivo únicamente términos teóricos (“los genes tienen dos pares de alelos”).
Enunciados observacionales: contienen como vocabulario descriptivo únicamente términos observacionales (“el trozo de papel tornasolado viró al rojo vivo”).
Enunciados mixtos (o reglas de correspondencia): contienen tanto términos teóricos como observacionales; permiten pasar de lo observacional a lo teórico y viceversa (“diferencias en el color de ojos van acompañadas de diferencias en los genes”).
Ninguna teoría es una acumulación de enunciados, sino que se estructura como un sistema que incluye diferentes estratos:
Nivel 1. Enunciados empíricos básicos: deben cumplir dos condiciones: a)todos los términos no lógicos que incluyen son empíricos; b) son enunciados singulares o maestrales: se habla de una sola entidad o de un conjunto finito de ellas. (ejemplo del papel tornasolado).
Nivel 2. Generalizaciones empíricas: deben cumplir dos condiciones: a) no incluyen términos teóricos; b) son afirmaciones generales que establecen regularidades o uniformidades en conjuntos amplios (“todos los cueros se dilatan con el calor”).
Nivel 3. Enunciados teóricos: deben contener al menos un contenido teórico. A este nivel pertenecen las hipótesis teóricas puras fundamentales, que no contienen contenido empírico.
Estructura de las teorías empíricas
Teorías empíricas caracterizadas como cálculos interpretados. Una teoría axiomática formal puede tener diversas interpretaciones (modelos) siempre que los enunciados que resultan de los axiomas sean verdaderos (sobre esto Frege redujo la aritmética a la teoría de conjuntos). Además de esta condición, es necesaria una vinculación con el mundo empírico. Unateoría empírica es un cálculo axiomático empíricamente interpretado.
Estructura de una teoría empírica
H1 Hipótesis fundamental
H2 Deducción
H3 Ô
H4 Hipótesis derivadas
H5
H6
CO1
CO2 Consecuencias observacionales
CO3 Contrastación
Se deben cumplir 3 condiciones :
1. No puede haber tautologías entre las hipótesis, ya que son verdaderas en cualquier mundo posible, por lo que no aportan información.
2. No puede haber contradicciones en las hipótesis. Una hipótesis no puede contener una tautología ni puede ser falsa (tanto las hipótesis fundamentales como las derivadas). Si se deduce A y no A, la teoría es inconsistente.
3. La teoría debe ser contrastable, es decir, poder inferir las CO y estas luego ser contrastadas
· Nagel: distingue tres componentes en una teoría
1. Un cálculo abstracto que es el esqueleto lógico del sistema explicativo y que define implícitamente las nociones básicas del sistema
2. Un conjunto de reglas de correspondencia que asignan de modo efectivo un contenido empírico al calculo abstracto, poniéndolo en relación con los materiales concretos de la observación y la experimentación.
3. Una interpretación o modelo del cálculo abstracto que provea a la estructura esquelética de carne en términos de materiales conceptuales o visualizables más o menos familiares.
_Sostenía que los sistemas teóricos deben estar formulados de forma clara, definida y rigurosa, que tienda a la forma de un sistema axiomatizado.
_Concibe al sistema axiomático como un sistema de hipótesis, por eso dice que no debe considerarse los axiomas como verdaderos a priori. Si fueran axiomas lógicos o matemáticos serian tautologías, pero al conferirles el carácter de hipótesis, su verdad o falsedad resultara de la contrastación empírica.
_Un sistema teórico de las ciencias empíricas debe ser consistente e independiente. En cuanto a las relaciones del sistema con el conjunto de la teoría, los axiomas deben ser suficientes (para deducir todos los enunciados pertinentes a la teoría) y necesarios (no deben contener supuestos superfluos)
5.2 a) La reconstrucción de la investigación científica desde el Enfoque Clásico
La ciencia moderna nació a comienzos del siglo XVII al adoptarse, por primera vez, la estrategia de tomar los hechos observacionales como base de la ciencia. Algunos afirman que los hechos observables no eran tomados como fundamento antes del siglo XVII, sino que en vez de ello, el conocimiento se basaba en la autoridad de Aristóteles y en la de la Biblia. La ciencia moderna se hizo posible solo cuando esta autoridad fue desafiada por precursores como Galileo (ley de la caída de cuerpos)
Los empiristas y positivistas formaron las dos escuelas que intentaron dar una visión común de la ciencia, afirmando que el conocimiento científico se deriva de los hechos. Los empiristas ingleses de los siglos XVII y XVIII (como Locke, Berkeley y Hume) sostenían que todo conocimiento debía derivarse de ideas implantadas en la mente por medio de los sentidos. Los positivistas, en tanto, tenían una visión más amplia, pero también compartían esta idea. Ambas corrientes conformarían el Círculo de Viena, retomando el positivismo introducido por Comte en el siglo XIX, e intentando formalizarlo.
En el siglo XX se constituye por el Enfoque Clásico o Perspectiva Heredada, conformada inicialmente por las reflexiones de filósofos del Círculo de Viena, y otros que, sin pertenecer al Círculo, compartieron alguno de sus puntos de vista. Este movimiento buscaba dar cuenta del conocimiento científico y fundar la filosofía de la ciencia como disciplina. Los principales representantes de esta ideología fueron Carnal, Reichenbach, Hempel, Popper, entre otros.
Dentro del enfoque clásico de la ciencia aparecen tres posiciones a analizar: el verificacionismo, el confirmacionismo y el refutacionismo (explicado más adelante)
5.2 b) La nueva epistemología, la nueva filosofía de la ciencia.
En los años ’60 algunos epistemólogos comienzan a dale un mayor peso a la historia de la ciencia, se presenta una perspectiva totalmente distinta: lo que el científico observa e investiga es una <<construcción» de la realidad de acuerdo con su formación, marco teórico y hasta valores sociales. La idea del método científico común a los filósofos clásicos –tanto el empirismo lógico como el racionalismo critico- resulta severamente cuestionada por una serie de concepciones que responden al interés de explicar cómo, de hecho, la ciencia cambia y se desarrollan, y ponen en duda el conjunto de reglas metodológicas de la perspectiva heredada y la distinción entre teoría y observación.
Se propone entonces la división en contextos del descubrimiento y de la justificación de teorías.
Algunos filósofos: Hanson, Toulmin, Kuhn, Lakatos, Feyeraben, Laudan
Características principales. Las teorías empíricas:
1. Son entidades complejas y dúctiles que evolucionan en el tiempo
2. Como totalidad no pueden calificarse como verdaderas o falsas, aunque contienen enunciados empíricos verdaderos o falsos.
3. Tienen un componente formal (las leyes o hipótesis) y otro empírico o aplicativo (los sistemas a los que se pretenden aplicar)
4. El núcleo es intocable. Ante una contrastación negativa, el núcleo siempre se puede salvar modificando los elementos no nucleares (accidentales)
²Se propone entonces partir de un concepto de axiomatización que se aparta de la perspectiva popperiana.
· Sneed: emprendió la axiomatización a partir de un uso intuitivo de la teoría de conjuntos. No utilizo un sistema formal de la teoría de conjuntos, sino el lenguaje corriente. Suppes y Stëgmuller también lo adoptaron
Concepto de método científico en las ciencias fácticas
El método científico
Un método resultara razonable porque sus resultados pueden ser sometidos a una prueba repetidamente por cualquiera que lo intente. Es plausible si desarrolla las dudas todo lo posible y permite ser contrastado con la realidad.
La “claridad” y “precisión” de los enunciados científicos no garantizan la concordancia con la realidad. Tampoco la sistematización y corrección formal fundamentan la verdad de una teoría, ni la reiterada contrastación empírica garantiza la certeza de que lo que paso hasta ahora, pase en el futuro.
El método científico es el estudio sistemático, controlado, empírico y critico de proposiciones hipotéticas acerca de presuntas relaciones entre varios fenómenos. Son procedimientos o reglas destinados a producir un conocimiento nuevo o a convalidar uno ya aceptado.
La ciencia se concibe ahora como una actividad productora de conocimientos.
Etapas o momentos de la ciencia
El contexto de descubrimiento de teorías : abarca todo lo relativo al modo en que los científicos arriban a conjeturas, hipótesis o teorías, y se relaciona con el campo de la psicología, sociología o historia (Reichenbach)
El contexto de justificación de teorías : comprende todas las cuestiones relativas a la validación del conocimiento, relacionado con la gnoseología o lógica (Reichenbach)
· Klimovsky: suma el contexto de aplicación de teorías o tecnológico
· Popper: afirma que el trabajo del científico consiste en proponer teorías y contrastarlas. Acepta el contexto de justificación pero no el de descubrimiento, ya que éste no tiene un análisis lógico, sino que forma parte de la psicología. Sólo se basa entonces en la investigación de los métodos usados en las contrastaciones a las que deben someterse las hipótesis (esta idea fue planteada en 1934, que ha resistido hasta que los neoempiristas la cuestionan)
· Kuhn: rechaza la distinción entre los contextos y propone eliminarla, arguyendo que no es posible distinguir los procesos, la justificación es parte constitutiva del descubrimiento de una teoría.
· Putnam: “la idea de que las ideas correctas caen del cielo, mientras los métodos de verificación son sumamente rígidos y predeterminados, es uno de los peores legados del Círculo de Viena. […] No ver la importancia de la práctica conduce directamente a no ver la importancia que tiene el éxito.
· Lakatos: “la filosofía de la ciencia sin historia de la ciencia es vacía, la historia de la ciencia sin filosofía de la ciencia es ciega”
· Feyerabend: afirma un “anarquismo epistemológico” al admitir que todo vale, ya que los científicos no tendrían que estar obligados por las reglas del método.
Estrategias metodológicas básicas de las ciencias fácticas
_Ciencias fácticas (buscan explorar, describir, explicar y predecir aquello que tiene lugar en el mundo)
Ciencias naturales estudio de naturaleza orgánica (física)
Estudio de naturaleza inorgánica (química)
Ciencias humanas lingüística
Historia
Economía
Psicología
· Dilthey: sostiene (en Introducción a las cs. Del espíritu) que el objeto primordial de las ciencias sociales es la comprensión
· Rickert: (en Ciencia cultural y ciencia natural) sostiene que la noción de valor sirve de guía para el estudio de los objetos culturales pero no tiene lugar en las cs. Naturales
· Durkhein y Weber: afirman que no hay diferencias entre cs. Naturales y sociales
· Freíd: pensaba a la psicología como una cs. Natural.
· Nagel: afirmaba que no hay grandes diferencias entre cs. naturales y sociales (la falta de objetividad afecta a ambas)
· Schuster: propone una clasificación de las ciencias en
Formales (lógica, matemática) índole sintáctica
Naturales (física, química, biología) índole semántica- CS. De baja pertenencia
Humanas (economía, sociología, antropología, psicología, historia, etc.) índole pragmática. CS. De alta pertenencia.
Monismo metodológico
Sostiene en considerar un único método científico valido, ya sea el hipotético deductivo o el dialéctico, aplicable a cualquier investigación. Quienes lo apoyan son Hempel, Nagel, Mill, Carnal y Comte.
Pluralismo metodológico
Sostiene la independencia, así como la necesidad de evaluar cada método por separado, y admite la utilización de métodos distintos en diferentes situaciones. Quienes lo apoyan son Dilthey, Rickert, Weber, Schuster, etc
Las ciencias naturales pueden recibir el aporte de la metodología de las ciencias sociales para evaluar el papel del investigador en el marco social y el lugar q ocupan las teorías científicas
· Schuster: advierte que no debe confundirse el pluralismo con eclecticismo (posturas cerradas, ambiguas). Se debe evitar el monismo metodológico cuando atenta contra la autonomía de los distintos campos de investigación.
Método inductivo: inductivismo “estrecho” e inductivismo “sofisticado”
Inductivismo :
Identifica la ciencia como una forma de conocimiento que alcanza un alto grado de objetividad, neutralidad y progreso. De él deriva gran parte de la epistemología actual. Aquí la observación cuidadosa y desprejuiciada esta al comienzo de todo proceso.
Enunciados basados en la enunciados basados en la autoridad, emoción, experimentación y la observación ≠ especulación, tradición o prejuicios
( son considerados científicos )
Engloba todas las corrientes que sostienen
1. Solamente es fecundo el conocimiento de los hechos
2. La certeza está dada por las ciencias experimentales
3. El contacto con la experiencia y la renuncia a cualquier forma de a priori es la manera de evitar el verbalismo y el error
Indica el razonamiento donde las premisas contienen información acerca de algunos de los miembros de una clase y, sobre esa base, se arriba a una generalización de toda la clase o una predicción.
Admite la experiencia o la observación para captar la realidad.
Precursores
· Bacon: considero que el verdadero método de conocimiento se apoya en el experimento y en la observación. Para él en la ciencia se parte de los hechos sensibles hasta llegar a los conceptos.
· Mill: sostiene que la inducción es un proceso mental, con cuya ayuda inferimos algo que nos es conocido como verídico en uno o varios casos, y que será verídico en todos los casos semejantes al primero. Da la descripción clásica de los métodos de la inducción científica que constituyen una formulación de varios procedimientos inductivos considerados parte del método experimental, para determinar las condiciones por las que afirmamos A es causa de B. Actualmente son reformulados en términos estadísticos.
Él sostiene que sus métodos sirven para descubrir, probar o demostrar conexiones causales. Son reglas para la prueba. Cuando se interpreta los resultados de estos métodos estadísticamente, se busca si la correlación de las variables es alta, tanto positiva como negativamente.
Método de la concordancia . Si dos o más casos del fenómeno que se investiga tienen solamente una circunstancia en común, ésta es la causa o efecto del fenómeno. Aquí se eliminan como causas posibles todas aquellas en cuya ausencia el fenómeno igual se produce, y luego inferimos que las restantes son la causa. Cuando es suficiente que ocurra A para que pase B, encones A debe ser la causa de B. (Ej. Si en un comedor escolar se intoxican 10/100 niños, se busca qué alimento en común ingirieron. Si todos los demás factores varían, menos la intoxicación y un alimento, entonces éste es la causa)
Método de la diferencia . Si un caso en el cual el fenómeno que se investiga se presenta y un caso en el cual no se presenta tienen todas las circunstancias comunes excepto una, presentándose ésta solo en el primer caso, la circunstancia única en la cual difieren los dos casos es el efecto, o la causa, o una parte indispensable de la causa del fenómeno. En este caso se excluye una de las circunstancias mientras se dejan inalteradas otras: si el fenómeno no aparece, inferimos que todas las circunstancias que permanecen pueden ser eliminadas como causas y concluimos que la circunstancia ausente es la causa del fenómeno. Es posible que no haya una única causa, pero puede ser considerada como un factor importante. (Ej. Si se sospecha que la causa del paludismo es la picadura de un mosquito, se busca que un grupo de personas esten en contacto con elementos utilizados por enfermos. Si no se contagian y luego contraen la enfermedad al ser picados por mosquitos, entonces esa es la causa.)
Son IMPRACTICABLES ambos métodos, ya que si no suponemos hipótesis previas acerca de cuáles son las variables pertinentes para mantener constantes o no. Si la correlación de A con B es alta y la de ¬ A con ¬ B también, entonces hay una correlación causal.
Método conjunto de la concordancia y de la diferencia . Combinación de los anteriores. Copi da como ejemplo: Eikman alimento a un grupo de pollos con arroz refinado exclusivamente (concordancia). Todos tuvieron polineuritis y murieron. Luego alimento a otro grupo con arroz sin refinar y no murió ninguno. Luego reunió el salvado para alimentar a los pollos enfermos de polineuritis y se curaron (diferencia). Así descubrió que la causa de la enfermedad era una mala dieta, y la forma de curarla
Método de los residuos . Restad a un fenómeno la parte de la cual se sabe, por inducciones anteriores, que es el efecto de ciertos antecedentes y el residuo del fenómeno es el efecto de los antecedentes restantes. Esta forma se acercaría a la deducción. (Ej. El caso del planeta Neptuno. Se había estudiado el planeta Urano con las leyes de Newton y se diseñó su órbita. Pero los cálculos no coincidían con las observaciones del movimiento de Urano. Suponiendo que estas diferencias se debían a la influencia de otro planeta, se calculo y luego se lo descubrió.)
Método de las variaciones concomitantes . Se lo toma ya que a veces no es posible eliminar ciertas variables. Un fenómeno que varía de cualquier manera, siempre que otro fenómeno varia de la misma manera es, o una causa, o un efecto de este fenómeno, o está conectado con él por algún hecho de causalidad. Se utiliza mucho en la economía. Es un método cuantitativo. (Ej. Fenómeno del ascenso y descenso del mar se debe a la atracción gravitacional de la Luna. Dado que no puede eliminarse la Luna con los métodos de diferencia y el de residuos, y también deberían tenerse en cuenta las estrellas, se plantea que las variaciones de la posición de la Luna van seguidas de variaciones de la marea alta en la parte mas próxima o mas alejada de la Tierra y de la Luna)
Inductivismo estrecho, ingenuo o verificacionismo.
Considera que la investigación científica comienza con la observación pura de los hechos. Se denomina observación pura a la simple observación por medio de los sentidos sin prejuicios, sin teorías previas en que basarse, sin ideologías deformantes de la realidad. En principio, podríamos decir que para el inductivista estrecho el científico puede captar objetivamente la realidad tal cual es. Cada observación particular el científico la traduce al plano lingüístico en un enunciado observacional. Dichos enunciados observacionales son singulares o muestrales. Según el verificacionismo, si se toma a cada enunciado observacional como premisa de un razonamiento inductivo, será posible obtener una supuesta ley universal (que en realidad es tan solo una generalización empírica). Vamos a ejemplificar lo que estamos diciendo: un científico que hace una cantidad de observaciones determinada en una gran variedad de condiciones como ser observar loros verdes en distintas partes del mundo, según el inductivismo estrecho, puede inducir una ley universal que diga “Todo los loros son verdes”. Sin embargo acá se presentan dos problemas: un problema epistemológico y otro problema lógico. En primer lugar, no existe la observación pura de los hechos, toda observación está fundamentada en teorías previas (problema epistemológico). Y en segundo lugar, el razonamiento inductivo es inválido, a pesar de que las premisas o sea en este caso, los enunciados observacionales, sean todas verdaderas, la conclusión, o sea la supuesta ley, no es necesariamente verdadera, podría ser falsa. Sobre estos dos problemas es que se monta la crítica del método hipotético-deductivo al verificacionismo.
_En condiciones de una investigación “ideal” sus pasos son:
1.Observación y registro de los hechos |
Crítica : Imposible reunir "todos" los hechos a ser observados en una investigación. |
2.Análisis y clasificación de los hechos observados |
Crítica : No existe una hipótesis previa por lo tanto no se sabe respecto de qué algo es o no relevante |
3.Derivación inductiva de generalización |
Crítica : La inducción no ofrece garantías formales de derivación lógica. No permite hipótesis que cuenten con términos teóricos. |
4.Contrastación empírica de las conclusiones |
Crítica : Imposible la contrastación de enunciados generales por lo que se dice en 1. |
· Hempel: es quien lo denomina concepción inductivita estrecha de la investigación científica. Critica que es impracticable, y desde ya es imposible observar todos los hechos que existen en el mundo (no existe una idea, criterio o teoría que determine cuales son los hechos a observar), por lo tanto, se autorrefuta.
· Chalmers: plantea el problema de cómo justificar enunciados universales a partir de hechos universales. Ejemplo del pavo inductivita, el cual “efectúa por inferencia deductiva” que siempre come a las 9 de la mañana pero supo que su conclusión era falsa cuando en víspera de Navidad le cortaron el cuello.
· Hume: su escepticismo supone rechazar la justificación de cualquier forma de inferencia ampliativa, así como creencias acerca del futuro sobre la base del pasado, incluso si provienen de información verdadera. Él atribuye una inclinación psicológica a creer en el principio de inducción y niega que su creencia tenga fundamento racional.
· Díez y Moulines: aceptan el lo dicho por Hume. Establecen que si por “A justifica B”, se entiende que la verdad de A garantiza la verdad de B. Las inferencias justificativas entonces son las demostrativas, pero las inferencias ampliativas no lo son. No se puede justificar que las inferencias ampliativas con premisas verdaderas tengan conclusiones verdaderas.
_Se podría aceptar un principio de uniformidad de la naturaleza que dijera “los casos de los que no hemos tenido experiencia son semejantes a los casos de los que hemos tenido experiencia”, aunque no obstante la inducción no se podría justificar por la experiencia, ya que el argumento cae en la circularidad. Ejemplo:
El principio de la inducción funciono en la Teoría 1
El principio de la inducción funciono en la Teoría 2
El principio de la inducción funciono en la Teoría 3
---------------------------------------------------------------
El principio de la inducción funciona siempre
Inductivismo sofisticado, ampliado o confirmacionismo
El confirmacionismo o inductivismo amplio, sostenido por Carl Hempel, es una de las dos versiones del método hipotético-deductivo. Hempel sostiene que si las consecuencias observacionales esperadas deducidas de la hipótesis no se cumplen entonces la hipótesis queda refutada por modus tollens. En cambio si las consecuencias observacionales esperadas se cumplen entonces la hipótesis no queda verificada (porque la falacia de afirmar el consecuente es inválida) sino que se va confirmando probabilísticamente. Cuanto más efectos observables esperados favorables tenga una hipótesis entonces más alto es el grado de probabilidad de que sea verdadera. En nuestro ejemplo anterior de la hipótesis de la droga X que cura el Sida, podemos decir que , según Hempel, cuanto más pacientes que recibieron la droga X se curen, entonces más alto es el grado de probabilidad de que sea verdad que la droga X cure el Sida. Hempel acepta la inducción como método de justificación pero no de descubrimiento de las hipótesis. Para Hempel las hipótesis no se descubren por observación pura de los hechos y por inducción sino que se inventan creastivamente para dar cuenta de los hechos problemáticos. Pero Hempel acepta la inducción para confirmar probabilísticamente las hipótesis
²Sus principales representantes son Carnap y Hempel, aunque también lo apoyan Bergmann, Duhem, Braithwaite. Reichenbach, Campbell, Rampsey, Margenau, Nothrop, Nagel, Ayer y Kaplan, quienes se encontraron con el problema de la circularidad de la inducción. Por ello suplantaron el verificacionismo.
· Hume: demostró la imposibilidad ontológica de la inducción. Su propuesta parte de la necesidad de una prueba epistemológica, sosteniendo que “la posibilidad de predicciones supone la posibilidad de una clasificación de los acontecimientos tal que el procedimiento de inducción repetida conduzca al éxito”. Este método no busca hallar soluciones definitivas, sino someter cada uno de los resultados al control experimental permanente. (Ej. “Todos los cisnes son blancos” ≠ “en toda especie biológica el color es un atributo variable”, lo que justifica a los métodos científicos como una red de inducciones donde unas corrigen a otras.)
· Reichenbach: apoya la idea de Hume en que no se puede probar la verdad del principio de inducción (da el ejemplo del apostador, diciendo que no hay apuestas verdaderas o falsas, sino mas o menos probables de que se cumplan). Cita: “sabemos que una red más grande y de trama más fina promete más rendimiento, pero no puede garantizar […a la ciencia] ninguna garantía de éxito”
· Carnap: acuerda con Reichenbach en que la búsqueda de un método que permita pasar, sin error, de los hechos a la ley, es imposible, y que la lógica inductiva no puede garantizar la verdad material de la conclusión de un razonamiento. El método científico debería establecer, una ver formulada una hipótesis, en que medida está justificada, por eso establece el “grado de confirmación de una hipótesis”
Método hipotético-deductivo
Es el método de la fundamentación de las generalizaciones teóricas, adoptadas como hipótesis, con ayuda de la deducción de consecuencias empíricas comprobadas . Le da importancia a la investigación metodológica del análisis del proceso de comprobación y fundamentación de hipótesis, y presupone su evaluación por la posibilidad de explicar los hechos existentes y la previsión de otros. Consiste en contrastar hipótesis con consecuencias observacionales para establecer la falsedad de una proposición, pero no su verdad. Las teorías se mantendrán si son corroboradas o se descartaran si son refutadas.
Secuencia
a) Hipótesis fundamentales o de partida: intentan responder a un problema
b) Hipótesis derivadas o deducidas de las anteriores
c) Consecuencias observacionales: enunciados del más bajo nivel de generalidad, que se extraen deductivamente de las hipótesis fundamentales y de las derivadas, dando una generalización decreciente de los enunciados. Se someten a prueba empírica:
_la hipótesis puede ser refutada: si la CO resulta de un enunciado falso.
En este caso se utiliza la regla del Modus Tollens, planteando que si es falsa la CO, es falsa la hipótesis.
H>C.O.
- CO
- H
_la hipótesis puede ser corroborada: si la CO prueba un enunciado verdadero.
En este caso podrían ser verdaderas las premisas y falsa la conclusión (la deducción de CO verdaderas no permite inferir que la H es verdadera), ya que no se verifica la hipótesis, sino que es confirmada. Si se reiteran los experimentos y se obtienen CO verdaderas, la hipótesis es probablemente verdadera por inducción (confirmacionismo).
H>C.O.
CO
----------
H
d) Hipótesis auxiliares: tienen carácter instrumental o auxiliar, cumplen el papel de premisas o suposiciones adicionales. Se usan cuando se intentan derivar CO de las hipótesis fundamentales, que no son suficientes por sí solas y requieren la conjunción de otras. Las hipótesis auxiliares deben ser:
1. Falsables
2. Contrastadas con anterioridad y/o con independencia de la hipótesis fundamental.
Esquema: H y Ha1 y Ha2 y Ha3 CO. Es decir, si se presenta -CO, puede deducirse - Ha1 o - Ha2.
e) Hipótesis ad hoc: aparecen cuando no se cumple con las condiciones de las hipótesis auxiliares. Puede ser una conjetura audaz, algo que se especula que debería ocurrir para que se cumpla lo dicho en la hipótesis principal.
Refutacionismo o falsacionismo (Popper)
El falsacionismo o refutacionismo, sostenido por Karl Popper, es la otra versión del método hipotético-deductivo. Según Popper, al igual que Hempel, si las consecuencias observacionales esperadas deducidas de la hipótesis no se cumplen, entonces la hipótesis queda falsada por modus tollens. Por ejemplo en nuestro ejemplo de la droga X que cura el Sida, si los pacientes que recibieron la droga X no se curan entonces la hipótesis era falsa. Ahora bien, si los efectos observables esperados se cumplen entonces, para Popper, la hipótesis no queda verificada (porque la falacia de afirmar el consecuente es inválida) pero tampoco se confirma probabilísticamente porque él no acepta la inducción probabilística como método de justificación. Para Popper la hipótesis queda tan solo corroborada provisoriamente, es decir, se la acepta provisionalmente como verdadera porque no ha podido probarse que sea falsa. Pero ello no significa que sea verdadera, ni siquiera que sea probablemente verdadera. Popper dice que se la corrobora provisoriamente hasta tanto es falsada. Popper no acepta la inducción ni como método de descubrimiento ni como método de justificación
Rechazo a la inducción como método científico y al inductivismo en cualquier forma.
Gran importancia a la asimetría entre verificación y refutación se proponía para la ciencia el uso del método hipotético-deductivo, considerando a la falsabilidad el camino para distinguir a la ciencia de la metafísica.
Una hipótesis científica puede ser controlada, confrontada con la experiencia y falsada por ella. Ningún numero finito de casos a favor de una generalización empírica es suficiente para formular una ley, y la totalidad lógica es inabarcable: ejemplo “todos los cuervos son negros”.
Plantea otro modo de uso del método H-D: no se busca confirmar las hipótesis ya que caería en la falacia de afirmación del consecuente. Se busca la refutación o falsación de las H con la estructura del Modus Tollens, y si la hipótesis resiste hay que aceptarla provisionalmente
Una hipótesis es falsable (“ble” indica posibilidad, lo que la diferencia de “falsada”) cuando da un informe de riesgo acerca del mundo. Ej. Teoría geocéntrica.
Existen grados de falsabilidad de las H: depende del grado de generalidad de su sujeto y de precisión de su predicado respecto a otra hipótesis. Ej. “todos los planetas tienen atmósfera donde esta presente el oxigeno” es más falsable que “todos los planetas tienen atmósfera”
No son falsables:
a) los enunciados probabilisticos (la probabilidad los protege de la refutación)
b) los enunciados tautológicos, porque no poseen ninguna información precisa acerca del mundo.
c) los enunciados que contienen términos sin denotación (ej. “ángel”, “bruja”)
d) los enunciados problemáticos (ej. “quizás mañana te conteste el mail)
· Chalmers: afirma que en la teoría científica clásica es posible encontrar afirmaciones observables que fueron generalmente aceptadas en esa época y que se consideran incompatibles con la teoría. No obstante, estas teorías no fueron rechazadas. Así da el ejemplo de la teoría gravitatoria de Newton, que fue falsada por las observaciones de la orbita lunar, pero nunca se pudo explicar su falsación, y esa teoría quedaría protegida.
· Lakatos: da una nueva interpretación del falsacionismo, aplicando elementos de la teoría paradigmática de Kuhn, sosteniendo que el problema metodológico no se basa en la falsación de teorías, sino en los criterios de evaluación entre teorías rivales. Para el falsacionista sofisticado, una teoría es “científica” si tiene más contenido empírico corroborado que su rival, pero ningún experimento, informe, enunciado o hipótesis bien corroborada puede originar por sí mismo la falsación. Desde su punto de vista una teoría puede ser reemplazada por otra que incluya los mismos elementos, pero luego la supere al alcanzar el éxito.
Métodos estadísticos en ciencias naturales y en ciencias sociales.
· Pascal y P. Fermat: se supone que con ellos comienza el estudio sobre la probabilidad ligados a los juegos de azar y a las estadísticas de mortalidad, sosteniendo la división apropiada de las apuestas de un juego de azar, y con los consejos dados por Pascal a Chevallier de Meré acerca de cómo hacer las apuestas en los juegos de dados.
· Graunt: publicó un análisis de los registros de mortalidad conservados en Londres.
· Laplace, De Morgan, Keynes: formularon la teoría clásica sobre la probabilidad, admitiendo el grado de creencia racional. Cuando estamos muy convencidos de que algo ocurre, le otorgamos el valor de 1. A la convicción contraria le otorgamos 0. Así, la probabilidad es siempre el resultado de un conocimiento parcial y el cálculo de probabilidades es una rama de la matemática donde puede calcularse la probabilidad de que algo complejo ocurra.
· Copi: ejemplo del suceso de que una pareja viva para celebrar sus bodas de oro.
Promedio estadístico : se usa para analizar los resultados de mediciones, sobre la base de cálculos estadísticos arriesgan una tendencia de que algo suceda. Ej. Servicio meteorológico. Objetivos:
1. Proporcionar una representación sinóptica de un grupo de datos.
2. Comparar diferentes grupos de datos.
3. Caracterizar a todo un grupo sobre la base de muestras tomadas por él
El promedio más conocido es la aritmética, que se obtiene sumando todas las cantidades del conjunto y dividiendo la suma por el numero de términos.
Ej. de Copi y Nagel de un estudiante que duerme en los días de la semana 48/7 horas.
Resultado falso, esa cifra no corresponde al nro de horas que duerme en ninguna noche. Por lo tanto, se indican características grupales, no sobre ningún individuo particular.
Resultado engañoso, ya que induce a creer que el tiempo dedicado al sueño es tan exacto. Por lo tanto, aporta el valor más probable de las horas de sueño.
El objeto de los estudios estadísticos es el descubrimiento de relaciones significativas dentro de un campo de estudio. Las cifras resultantes de los cálculos sirven para comparar índices de mortalidad, pobreza, accidentes de trabajo, etc, comprobando si estos conjuntos están relacionados causalmente o si son independientes entre sí.
1. los números estadísticos proporcionan información sobre características de un grupo, no de individuos del grupo.
2. Sin un estudio adicional, no se pueden interpretar los resultados de los cálculos estadísticos
3. Puede inducir a error la adjudicación de causalidad entre fenómenos porque se presentan con cierta frecuencia juntos.
4. Cuando se sacan conclusiones sobre la base de “muestras” suelen cometerse falacias, ya que las muestras pueden no ser imparciales o pueden no ser representativas de la clase.
¿Qué significa explicar?
La palabra explicación tiene distintos significados en su uso habitual como:
a) narración (“le explico a los movileros lo que estaba haciendo cuando sonaron los disparos”)
b) adiestramiento en procedimientos (“el técnico me explico cómo reiniciar Windows)
c) explicitación de significados (“…el psicólogo me explico qué quiere decir megalómano”
d) elucidación conceptual (“Pierce dio una explicación del signo”)
e) distinción conceptual (“Copi explica la diferencia entre verdad y validez”)
Tal polisemia no es una falta grave en la comunicación, pero la ciencia debe buscar la univocidad y precisión.
Concepto de explicación científica
Describir: responder a la pregunta acerca de cómo es algo. Ej. Un censo de población describe la realidad soc.
Explicar: responder a la pregunta acerca de por qué algo es como es. Ej. Un sociólogo puede explicar como el aumento de la tasa de natalidad influye en la calidad de vida.
Salmon: afirma que la explicación científica es un intento por hacer comprensible o inteligible eventos particulares o hechos generales apelando a otros hechos particulares o generales.
El análisis de la explicación se remonta a Aristóteles con la teoría de las cuatro causas, pero el análisis independiente del concepto explicación es una idea del s. XX. Se comienza con el trabajo de Hempel y Oppenheim.
Se llama explanandum a aquello que requiere una explicación y explanans a aquello que proporciona la explicación.
Modelos de explicación científica.
1) Explicación nomológico deductiva (ND) o deductiva: la explicación (explanans) de un enunciado E (explanandum) está integrada por dos tipos de enunciados:
a. las condiciones antecedentes (C1, C2, Cn…). Describen las circunstancias particulares iniciales en las que se produce E.
b. las leyes generales (L1, L2, Ln…) que explican E
C y L funcionan como premisas de una inferencia deductiva cuya conclusión es E.
L1, L2, …Ln Explanans (lo que explica)
C1, C2,…Cn
--------------------------------------------------------------------------
E Explanandum (lo explicado)
· Schuster: ante el hecho (descrito por E) cabe preguntarse por qué ocurre este fenómeno. para ello identificamos enunciados generales (leyes L) de las que E pueda deducirse. Ej.
Todos los metales se dilatan con el calor
Este trozo de hierro es un metal
Por lo tanto
Este trozo de hierro se dilata con el calor
· Hempel. Establece que una explicación nomológica-deductiva debe cumplir las siguientes condiciones de adecuacion:
_El explanandum debe ser consecuencia lógica del explanans
_El explanans debe contener leyes generales (que se derivan del explanandum)
_El explanans debe tener contenido empírico.
_Los enunciados que componen el explanans deben ser verdaderos.
El tipo de explicación nomológica-deductiva es fundamental para Hempel y Nagel y las otras formas de explicación serán pertinentes en la medida de que se aproximen a ella (la estadística) o que puedan reducir a ella (la teleológica y la genética)
2) Explicación estadística-inductiva (EI) o probabilística: estructura muy parecida a la explicación deductiva
L1,L2,…Ln
C1, C2,…Cn
------------------------------------------------------
E
Se diferencia en:
a. las leyes no son leyes generales de universalidad estricta, sino generalizaciones estadísticas.
b. la doble línea indica que las premisas apoyan a la conclusión con una probabilidad p (numero probabilístico comprendido entre 0 y 1).
La conclusión no se decide de las premisas: el explanans no implica lógicamente al explanandum, solo le otorga probabilidad. La línea doble representa una relación de sustento inductivo tal que el valor numérico de la variable p constituye la “fuerza” de ese apoyo. La atribución de un valor numérico puede reemplazarse con expresiones (como muy probable- poco probable, o apoyo inductivo fuerte- apoyo inductivo débil)
· Hempel. Ej. La gran mayoría de las infecciones con estreptococos remiten rápidamente al ser tratadas con penicilina.
Juana tenia una infección por estreptococos. 1º condición inicial
Juana recibió un tratamiento con penicilina 2º condición inicial
---------------------------------------------------------------------
--------------------------------------------------------------------- p= 0,9
Juana se recuperó rápidamente
Hempel considera fundamental a la explicación deductiva ya que la relación de implicación lógica entre premisas y conclusión maximiza el valor predictivo de la explicación. La relevancia explicativa de la explicativa de la explicación inductiva depende de una muy alta probabilidad. Hempel, en su obra Aspects of scientific explanation afirma: …una explicación estadística debe mostrar que el explanandum tiene alta probabilidad de ocurrir.
3) Explicación genética. Se usaba en la historiografía y en la sociología. Consiste en explicar un hecho histórico señalando una sucesion de hechos anteriores, encadenándolos de modo que integren un proceso que termina en el hecho a explicar. No se registran todos los hechos, sino sólo los que tienen relevancia causal.
· Hempel. Cancelo la autonomía de esta modalidad reduciéndola a las explicaciones legaliformes: cada eslabón del proceso seria una explicación deductiva o estadística, lo que equivale a transformar la explicacion genetica en una secuencia de explicaciones ND o EI.
· Schuster. Otras posiciones difieren de la reducción hempeliana:
_Brown, señala que la explicación genética puede explicar el hecho en cuestión por sucesos, procesos o situaciones que “se pueden fechar”, que no se exponen a través de leyes universales ni generalizaciones estadísticas.
_Winch sostiene que la explicación histórica es la búsqueda de relaciones particulares internas.
4) Explicación teleológica. En su versión actual establece una relación explicativa intenciones-fines. Ej. ¿por qué estudian con denuedo los alumnos de IPC? Porque tienen la intención de aprobar la materia.
· Braithwaite, Hempel y Nagel: su posición implica sostener:
a) que la explicación teleológica consiste en explicar un hecho presente por lo que ocurrirá en el futuro.
b) es legítimo entender el fin en l sentido aristotélico de “causa final” con lo que la relación medios-fin se vuelve relación causal
c) puede reducirse a una explicación legaliforme
· Wright, sostiene que ninguna de estas posiciones describe adecuadamente la explicación teleológica:
1. en ella se explica un hecho presente por algo que ocurre en el presente
2. la relación medios-fines o intenciones-fines no es asimilable a la relación causa-efecto.
Así él en 1971 retoma la propuesta aristotélica de los silogismos prácticos y lo describe asi:
a) la premisa mayor del silogismo menciona algo pretendido o una meta.
b) la premisa menor presenta algún acto o acción conducente al logro de la meta, un medio dirigido al fin.
c) la conclusión consiste en el empleo de ese medio para alcanzar el fin en cuestión. El silogismo práctico traducirá la naturaleza de la intencionalidad y la racionalidad teleológica en las acciones humanas. Esquema:
A se propone dar lugar a p.
A considera que no puede dar lugar a p a menos que haga a.
Por consiguiente, A se dispone de hacer a.
El explanandum es entonces una acción y no puede evaluarse al silogismo práctico en términos de validez lógica, ya que la verdad de las premisas no garantiza la verdad de la conclusión.
Elster: intencionalidad y explicación por mecanismos.
Contra la concepción según la que las diferencias metodológicas permiten distinguir a las ciencias entre si, afirma que las ciencias se diferencian por las modalidades explicativas que utilizan.
Reconoce tres modalidades de explicación: causal, funcional e intencional. La explicación intencional o teleológica la considera un tipo de explicación de las ciencias sociales. La explicación social se basa en la acción individual guiada por alguna intención. La conducta intencional es aquella que tiene lugar para lograr un fin. Elster no explica la acción en términos de un estado futuro, porque el explanandum no puede preceder al explanans, y el futuro deseado puede no producirse.
La conducta intencional esta relacionada con el futuro en la medida en que es una acción guiada por una meta, deseo o creencia ausente, aun no realizada. Un agente intencional elige una acción que cree que será el medio para alcanzar su meta. De este modo la explicación intencional comprendería una relación acción-deseo-creencia. Elster utiliza la palabra razón para las creencias y los deseos: el actor hizo lo que hizo por una razón. El requisito de ello implica:
a) la razón es causalmente eficiente para producir la acción
b) la razón causa la acción de modo que excluye la casualidad.
No asimila intencionalidad y racionalidad, ya que la conducta intencional se basa a menudo en creencias y deseos inconscientes, es decir, irracionales.
Apoya la explicación por mecanismos. El punto de partida es la convicción de que no existen explicaciones legaliformes en las ciencias sociales.
· Gibson ya antes reconocía que lo máximo que puede lograr una teoría social son hipótesis restrictivas, que puede ser la estimación probabilística en las generalizaciones estadísticas, las restricciones espacio-temporales o “hechos impudentes” que pueden modificar una hipótesis.
Responde a la pregunta sobre cómo pueden explicar las ciencias sociales, y por ello da una definición de “mecanismos”: “…pautas causales de ocurrencia frecuente y fácilmente reconocibles que son provocadas en condiciones generalmente desconocidas o con consecuencias indeterminadas”. La explicación por mecanismos adoptaría la forma: Si se dan C1, C2,… Cn, entonces a veces E. Por ejemplo: un ambiente alcohólico puede dar lugar a niños alcohólicos o abstemios. No predecimos entonces que ocurrirá, pero sí explicamos por qué.
No propone la explicación por mecanismos como un ideal o norma. Afirma que es mejor, pero también es más difícil. Cuando las generalizaciones se derrumban, los mecanismos nos permiten explicar a falta de un modelo mejor.
Dimensión explicativa y dimensión predictiva.
· Hempel. Consideraba que en el tipo nomológico-deductivo la explicación y la predicción tienen la misma estructura lógica, aunque con dos aspectos distintos:
a) en la explicación disponemos del explanandum y buscamos las leyes generales que lo implican (explanans), mientras que en la predicción anticipamos deductivamente el explanandum.
b) la predicción se proyecta al futuro, se permitiría entender a la explicación deductiva como homogénea. En el futuro siempre que se dé el explanans se dará el explanandum (mientras que en la explicación estadística es a posteriori, porque se explica un hecho luego de ocurrido). No podemos predecir estadísticamente casos individuales.
c) la tesis de Hempel y Popper de la identidad estructural explicación-predicción es difícil de sostener en las explicaciones y proyecciones sociales.
· Lenk: decía que en las ciencias sociales, en vez de predicciones legaliformes, se dan pronósticos condicionados en los que la aparición del evento pronosticado depende de la aparición aun pendiente en condiciones antecedentes. Puso énfasis en los pronósticos tecnológicos. Sostenía que lo expuesto no puede entenderse como matices pragmáticos que no comprometen la asimilación lógica y estructural entre explicación y predicción. Cita a Broke que analizo los pronósticos tecnológicos para evidencias que no son estructuralmente idénticos al modelo explicativo, ni tampoco sintáctica ni semánticamente. Éstos no se presentan como conclusiones singulares de argumentos, incluyen variables temporales y tienen la estructura de un enunciado condicional que expresa dependencia respecto de una situación construible. La identidad estructural es poco significativa en las cs sociales.
También hay que reflexionar sobre en que medida la extrema complejidad de la acción humana admite perspectivas explicativas alternativas. El pluralismo metodológico de las ciencias sociales obedece a ello. En ciencia, las condiciones de pertinencia teórica, explicativa y predictiva tienen que ver siempre con las mismas dimensiones: relevancia, fecundidad explicativa y simplicidad.
La epistemología del siglo XX: problemas fundamentales.
²uno de los problemas centrales de la epistemología es la naturaleza o estructura de las teorías científicas. A partir de 1920 se considero a las teorías científicas como cálculos axiomáticos con los que se interpreta parcialmente el material empírico por medio de reglas de correspondencia, con lo que se dio lugar a la concepción heredada de la ciencia.
· Suppe. Plantea que la expresión “concepción heredada” para referirse a la posición positivista, especialmente a la “versión” del Círculo de Viena, fue usada por primera vez por Putnam en 1962.
También a principios de los ’20 un grupo de científicos sociales, la “Escuela de Frankfurt” (Horkheimer, Adorno, Marcase, Habernas y otros) trabajaron en el análisis del impacto de la ciencia, centrándose en el modo en que la ciencia en los siglos XIX y XX logró establecerse como único medio considerado licito para conseguir un conocimiento cierto. De alli el uso de ‘cientificismo’ para referirse a la concepción heredada.
El cientificismo incluye la convicción de que los problemas del conocimiento se identifican con los de la ciencia.
Los logros del siglo XX en el campo de las ciencias formales (Frege, Rusell, Hilbert) generaron en los filósofos de las ciencias empíricas la idea de adoptar la axiomatización, y esto lo asumieron los positivistas lógicos del Círculo de Viena, los de la Escuela de Berlin, y los hipotéticos-deductivistas. Se había buscado el método científico único y universal para demarcar el ámbito de la ciencia, de la no ciencia y de la pseudociencia. Esto se explico en la frase “No existe una lógica de descubrimiento”, en la medida en que el desarrollo de la ciencia es considerado como un proceso de creciente acumulación de conocimientos.
Desde 1950 se comienza a reformular el campo de la epistemología sobre otras perspectivas. El problema del método deja de ser el centro y se releva la Historia de la ciencia. En su evolución, las ciencias fácticas muestran una estructura que difiere de lo reconocido por las concepciones inductivista y falsacionista.
· Lakatos adopto algunos de los resultados de Kuhn en la elaboración de la metodología de los programas de investigación científica, intentando superar las limitaciones del falsacionismo popperiano.
· Piaget. Sus trabajos de psicología genética y epistemología interrogan sobre la construcción del conocimiento, y da lugar a la epistemología genética, desarrollada en el siglo XX, llamada así porque estudia el origen y desarrollo de las capacidades cognitivas desde su base orgánica, biológica, genética. Describe el curso del desarrollo intelectual desde la fase del recién nacido, donde predominan los mecanismos reflejos, hasta la etapa adulta, caracterizada por procesos conscientes de comportamiento regulado. En el desarrollo genético del individuo se identifican y diferencian periodos del desarrollo intelectual, como el sensorio-motriz, el de operaciones concretas y el de las operaciones formales.
Considera al pensamiento y a la inteligencia como procesos cognitivos que se basan en un sustrato orgánico-biológico determinado que va desarrollándose con la maduración y el crecimiento biológico. Las distintas investigaciones en el dominio del pensamiento infantil le hicieron descubrir que la lógica del niño se construye progresivamente siguiendo sus propias leyes y que se desarrolla a lo largo de la vida, pasando por distintas etapas antes de alcanzar el nivel adulto.
· Bachelard, Cavailles, Koyré, Canguilhem, Focault. Sostienen que la historicidad de la ciencia pone en evidencia la historia de la racionalidad. Si la epistemología es el discurso normativo, es el lugar mismo de la verdad y de la construcción de la racionalidad. Tal construcción no es ajena a la constitución de las instituciones sociales que regulan la vida de las personas.
La concepción epistemológica del positivismo lógico.
El Círculo de Viena:
La concepción heredada es un producto del Positivismo lógico, escuela que surgió del Círculo de Viena y de la Escuela de Reichenbach de Berlin, cuales buscaban resolver los problemas filosóficos propios de las ciencias. El Círculo de Viena fue conformándose como un partido político, sobre todo después de su publicación “El punto de vista científico del Círculo de Viena”, escrito por Carnal, Naurath y Hahn.
Principales precursores: Hume, Comte, Mill, Avenarius y Mach, Helmholtz, REimann, Poincaré, Enriques, Duhem, Boltzmann, y Einstein.
Deudores de Leibniz, Peano, Frege, Schöder, Rusell, Whitehead y Wittgenstein.
Principal medio de publicación: revista Annalen der Philosophie y monografías.
Propusieron a la filosofía avanzar sobre la “segura senda de la ciencia” integrando la física y la biología en una ciencia unificada, empírica e inductiva, en condiciones de legitimar sus métodos por la observación.
· Mach reconoce la importancia de la observación y el fenómeno de que todas las ciencias pueden reducirse al estudio de las sensaciones.
La concepción heredada buscaba evitar la introducción de entidades metafísicas en las ciencias.
“Positivismo lógico” se refería a la incorporación de los descubrimientos de la lógica contemporánea, en especial el simbolismo logico dado por Frege, Peano y Russell. Dividian a las proposiciones significativas en dos tipos:
1. las proposiciones formales, como las de la lógica o matemática pura (tautologías)
2. las proposiciones fácticas (verificables empíricamente) de tal modo que si una proposición no es una verdad o falsedad formal o no puede someterse a prueba experimental, carece de sentido
Los positivistas lógicos advierten la imposibilidad de conocer más allá de la experiencia sensible, a lo que se pueda decir de ello. El uso de los términos teóricos se da cuando hay reglas de correspondencia que permiten dar una definición fenoménica.
La formula con la que el sentido de una proposición consiste en el método de su verificación contradice los sistemas metafísicos y casi toda la historia de la filosofía, si bien esto trajo problemas. Esta prescripción significa que en principio no es posible su verificación, pero hay que también determinar en que momento del proceso de verificación esta terminado.
Los positivistas lógicos buscaron un punto de partida absoluto epistemológicamente y se determinaron entonces las proposiciones primeras o protocolares que constituyen las descripciones inmediatas de las sensaciones. Sin embargo se determino que las proposiciones de la metafísica son carentes de sentido por contener pseudoproposiciones y no por tener proposiciones falsas o contradictorias. Las pseudoproposiciones en la historia de la filosofía son importantes porque sirven para la expresión de una actitud emotiva ante la vida y por ello se busco eliminarlas.
Para que una palabra tenga sentido es necesario:
1. Que las notas empíricas de “a” sean conocidas
2. Que haya sido estipulado de qué proposiciones protocolares es derivable “P (a)”
3. Que las condiciones de verdad para “P(a)” hayan sido establecidas
4. Que el método de verificación “P(a)” sea conocido
La propuesta positiva consistió en afirmar que el lenguaje observacional o protocolar debería ser un lenguaje fisicalista en el que se hablara de cosas materiales a las que se adscribieran propiedades observables, y se reducía todo concepto a relaciones de magnitud, atribuyendo números a puntos espacio-temporales. Este lenguaje se considero universal, incluso en ciencias como la psicología.
· Carnap. Sostiene que toda proposición puede formularse en lenguaje fisicalista ya que todas las proposiciones de psicología describen acontecimientos físicos, a saber, la conducta física de los humanos y de otros animales.
Neurath. Definió las reglas de una sociología empírica que cumpliera los requisitos de un lenguaje unificado y rechaza todo tipo de dualismo. Busca formular una sociología libre de metafísica. Sostiene que el sociólogo es libre para encontrar sus propias leyes
Las perspectivas falsacionistas: Popper y Lakatos
Para Popper, mediante la contrastación, de las hipótesis con los hechos observables, la ciencia pretende refutar sus hipótesis. Solo con
apoyo evidencial se logro un grado de corroboración, una aproximación a la verdad que sirve de guía para la acción. Los enunciados observacionales dependen
de la teoría, son falibles, por lo tanto, la teoría no se puede falsar de modo concluyente. En el modelo monoteórico la falsación de la
teoría se produce por la confrontación bipolar teoría – experiencia. En el modelo multiteórico, la falsación se produce por la
confrontación entre dos teorías rivales y la experiencia.
Realismo crítico
:
La realidad existe independientemente de las capacidad humanas para conocerla. El conocimiento científico es intersubjetivo, donde la
ciencia es un objeto social y surge a partir de la cooperación y competición entre científicos.
El desarrollo de Lakatos de los programas de investigación, compuesto por un núcleo central formado de hipótesis teóricas
generales, infalsable por decisión de sus iniciadores, y protegido por hipótesis auxiliares.
Heurística: permite resolver problemas por medio de la disolución de anomalías y la conversión en evidencia positiva. La Heurística negativa consiste en la exigencia de que durante el desarrollo del programa, el núcleo quede intacto.
Se deben desviar las falsaciones a la teoría principal hacia la red de supuestos. El programa requiere tiempo y sus éxitos determina su carácter
progresivo, cuando no puede producir fenómenos se vuelve degenerativo.
La ciencia progresa por la competencia entre programas de investigación, un programa es mejor que otro si es más progresista.
Un rasgo común entre inductivistas y falsacionistas es la búsqueda de un criterio universal y ahistórico para juzgar los méritos entre teorías rivales.
La ruptura: del racionalismo de justificación al análisis de la historia de la ciencia
Visión común entre el verificacionismo y el falsacionismo:
La ciencia como empresa racional.
Lo racional entendido como orden lógico en un contexto teórico.
El ámbito científico es el contexto de justificación.
Coinciden en la visión axiomática de la ciencia.
La justificación de una teoría es su remisión a una base empírica externa e independiente de ella.
El conocimiento científico tiene que ver con la búsqueda de la verdad.
Transformación de la imagen de la ciencia empírica a partir de Kuhn:
Las teorías se convierten en un consenso racional tentativo.
Los hechos son definidos dentro de su contexto teórico.
La dualidad teórico-observacional no se resuelve en términos lógico- algorítmicos.
Se abandona la concepción popperiana de la ciencia como proceso de aproximación progresiva a la verdad.
La misión de la epistemología es el examen del proceso histórico del conocimiento científico.
El pensamiento de Kuhn en perspectiva
Modalidades de producción científica histórica:
Modo normal, como procede la mayor parte del tiempo la ciencia.
Modo no-normal o revolucionario.
En el modo normal los científicos comparten presupuestos de índole teórica y metodológica que les permiten dedicarse a al resolución de enigmas. Se buscan
nuevas explicaciones a nuevos fenómenos pero no se cuestionan los supuestos. Con la presencia de anomalías que se resisten al aparato teórico sobrevienen
crisis donde se cuestionan los supuestos guías, se organizan nuevos supuestos, se adopta una nueva perspectiva y con ello se produce una revolución científica.
Paradigmas:
Sirve de modelo para casos del mismo tipo. Conjunto de supuestos compartidos por una comunidad científica que guían la investigación normal, cuando se
produce una revolución se da el paso de un paradigma a otro.
Dos sentidos para los paradigmas:
El paradigma como una Matriz disciplinar. La ciencia realizada por una comunidad que comparte un cuerpo de creencias, valores y técnicas, es decir, comparten una matriz disciplinar común. Es global.
El paradigma como Ejemplar. Son aplicaciones empíricas específicas del aparato formal que sirven del modelo guía, aceptados por una comunidad científica. Una teoría se acompaña de diversos ejemplares como modelos de aplicación de la teoría a los fenómenos.
La ciencia normal es la ciencia practicada por una comunidad científica que posee en común una matriz disciplinar, basada en ejemplares compartidos. El
cambio revolucionario se produce por la aceptación de una nueva matriz lo cual implica un cambio conceptual. La inconmensurabilidad de las
teorías, refiere a que si una teoría suplanta a otra, ambas no pueden ser compatibles, por lo tanto son incomparables, entonces ningún argumento racional
puede decidir entre ambas teorías.
Críticas a Kuhn:
-Es dudoso que la ciencia normal se de realmente.
-La distinción entre ciencia normal y no normal no es aplicable a todas las ciencias.
-La descripción del científico normal es la de un sumiso que no pone en duda la doctrina dominante.
-Si el conflicto revolucionario entre matrices inconmensurables no puede resolverse por argumentación lógica se convierte a la ciencia en irracional.
-Contradicción entre la tesis de inconmensurabilidad y la tesis de incompatibilidad de teorías rivales. Si los paradigmas son incomparables, no puede haber competencia entre ellos.
-Si la matriz configura los datos, el mundo empírico no puede controlar las afirmaciones de la ciencia.
-Es indemostrable que todo cambio de matriz disciplinar origina un cambio en el significado de los términos básicos utilizados por la ciencia.
Preguntas y Respuestas entre Usuarios: