Altillo.com > Exámenes > UBA - UBA XXI > Introd. al Pensamiento Científico
Sistema axiomático
Origen de los primeiros conocimientos geométricos
La característica fundamental de los documentos encontrados tanto en la Mesopotamia como en Egipto es que contienen conocimientos aislados,no articulados entre sí. Allí aparecen resueltos algunos problemas de índole práctica, de los que no se ofrece prueba alguna o método de resolución; simplemente se resumen los resultados. El tratamento era de carácter concreto, no abstracto.
La geometría prehelénica –o sea, anterior a la civilización griega– constituye una técnica cuyo fin fundamental era la práctica.
Geometria grega
Hacia el siglo VII a.C., comienza a desarrollarse una forma de pensamiento para tratar de explicar los fenómenos de la naturaleza . Intentaban ofrecer explicaciones de los fenómenos naturales sin apelar a elementos míticos o sobrenaturales.
Tales de Mileto utilizaba métodos deductivos en la geometría . Es decir, un método que permite justificar un enunciado a partir de otros enunciados ya conocidos . Una de las contribuciones estava relacionada com el tratamiento general de los problemas.
Si llamamos a y b a sus lados, podremos calcular su perímetro: P = a+b+a+b = 2a + 2b. Hemos resuelto el problema de forma general.
Euclides y la geometria
Euclides logró sistematizar los conocimientos geométricos
cuya finalidad inmediata no era la resolución de problemas concretos, a la
manera de los egipcios y de los babilonios. Cuando hablamos de
sistematizar, nos referimos a presentar los enunciados articulados, organizados,
estructurados entre sí; es decir, no se trata de presentar enunciados
sueltos, sin relación entre ellos, sino de mostrar cómo se van infiriendo
unos de otros. Así,
Euclides establece enunciados que se aceptan sin demostración y
que constituyen los principios a partir de los cuales se va a poder
demostrar el resto de los enunciados del sistema
. Euclides distingue tipos de principios a los que
denomina
postulados, nociones comunes y definiciones
, respectivamente.
A partir de los postulados y de las nociones comunes, Euclides obtiene deductivamente enunciados llamados por él proposiciones, o en terminología contemporánea, teoremas. Las proposiciones o teoremas –que frecuentemente tienen la forma de enunciados universales– son enunciados verdaderos, ya que se obtienen deductivamente de los postulados y las nociones comunes. Euclides construye demostraciones de las proposiciones o teoremas, en las que a partir de las premisas se deduce la conclusión por aplicación de reglas de inferência.
El problema del quinto postulado
Si la recta c corta a las rectas a y b y la suma de los ángulos α y β es menor que dos rectos (α + β es menor que 180º), entonces las rectas a y b se cortan en el punto P.
John Playfair, elaboró la siguiente versión del quinto postulado: “Por un punto exterior a una recta, puede trazarse una única paralela a dicha recta”.
El trabajo de Sachheri
En vez de tratar de demostrar dicho postulado a partir de los cuatro primeros, intenta probarlo por vía indirecta, partiendo de los postulados 1º a 4º y de la negación del quinto postulado como supuesto provisional . Saccheri suponía que negando el quinto postulado iba a encontrar una contradicción que lo llevaría a rechazar ese supuesto provisional y le permitiría, entonces, concluir la afirmación del quinto postulado. Si lo lograba, ello valdría como una demostración –de carácter indirecto– del postulado 5 a partir de los otros cuatro y probaría, por ende, que este no era independiente.
Geometria no euclideanas
Um postulado o axioma es independiente cuando no puede deducirse de los demás postulados o axiomas del sistema . Si el postulado quinto de Euclides fuera independiente, podría ser reemplazado por otro diferente y, manteniendo los demás postulados (1º a 4º), podría desarrollarse una nueva geometría a partir de ese nuevo grupo de postulados.
Estos sistemas axiomáticos fueron concebidos como estructuras formales, que partiendo de enunciados permitían construir estructuras coherentes desde el punto de vista lógico, que no referían a ninguna entidad concreta.
Que un conjunto de axiomas sea consistente quiere decir que no se deriva de ellos contradicción alguna.
Sistema axiomáticos desde una perspectiva contemporânea
Los axiomas son los enunciados que se aceptan sin demostración y constituyen los puntos de partida de las demostraciones . No se exige que los axiomas sean verdades evidentes; los axiomas son ahora enunciados que se aceptan como puntos de partida del sistema . De acuerdo con el nuevo enfoque formal con que se aborda la formulación de los sistemas axiomáticos, la exigencia respecto de la verdad de los axiomas pierde sentido . Esto es así, en tanto se considera que los axiomas no refieren a entidades específicas, si son meros constructos formales, no cabe ni siquiera predicar de ellos verdad o falsedad.
Los teoremas son enunciados que se demuestran, es decir , se obtienen deductivamente, a partir de otros enunciados mediante reglas de inferencia.
Los sistemas axiomáticos también deben incluir de modo explícito lasreglas de inferencia que se utilizan para demostrar teoremas. Estas reglas lógicas garantizan que, si se parte de enunciados verdaderos, las conclusiones también serán verdaderas . Aplicado a nuestro caso: si se admiten los axiomas como verdaderos, los teoremas también lo son .
Las demostraciones parten de axiomas o de teoremas ya demostrados previamente, y por aplicación de las reglas de inferencia, permiten obtener nuevos teoremas. Los axiomas de una demostración juegan un papel similar al de las premisas de una deducción, y los teoremas (último enunciado de una demostración)pueden ser asimilados a su conclusión. Una demostración es, entonces , una secuencia finita de pasos en donde cada uno se deriva de un enunciado anterior , que es o bien un axioma, o bien otro teorema que ya ha sido demostrado.
Los enunciados están compuestos por términos (expresiones lingüísticas con significado), y podemos distinguir entre:
- Términos primitivos: se aceptan y emplean sin definición;
- Términos definidos: se definen a partir de los primitivos.
Los sistemas axiomáticos suelen incluir reglas de formación que indican cómo combinar los diferentes términos para dar lugar a expresiones complejas bien formadas.
La seleccion de los axiomas
Propriedades de los sistemas axiomáticos
La revolución Darwiniana
Teología
Explicaciones que dan cuenta de la existencia de eventos, estados o procesos actuales en virtud de un propósito, finalidad o meta futura, son denominadas explicaciones teleológicas . Así, se explica la conducta actual em función de sus objetivos o propósitos futuros.
En la Grecia antigua el mundo natural era explicado de manera teleológica. Podríamos considerar que dado el carácter adaptativo de la gran variedad y complejidad de rasgos del mundo natural era coherente pensar sobre la naturaleza como el producto de un diseño, o bien, sirviendo un propósito ulterior.
Aristóteles consideraba que las explicaciones teleológicas se aplicaban tanto al ámbito de los artefactos como al dominio de los procesos naturales. Aristóteles consideraba que el universo no había sido creado (sino que este es eterno), la finalidad que explica los procesos naturales debía ser intrínseca. Por ejemplo, el fin de la semilla es convertirse en árbol y el del niño es convertirse en adulto, pero esta finalidad no está dada por un creador o diseñador externo, sino que es parte de la esencia de las cosas.
Según la cosmovisión cristiana, así como las características de los artefactos se explican en virtud del propósito con el que fueron creadas y diseñadas por el hombre, los procesos y eventos naturales se explican en virtud del propósito con el que fueron creados y diseñados por Dios. Se trata de un dios todopoderoso y omnisciente que de acuerdo con un plan o diseño propio constituyó el mundo natural, hace algunos miles de años, tal y como lo encontramos hoy en día. De este modo, ante la pregunta ¿cómo llegó cierto organismo a poseer esa función? la respuesta creacionista es: porque Dios así lo dispuso.
La teoría desarrollada por Darwin marca un punto de inflexión en este sentido. Introdujo en la Biología la idea de un mecanismo de selección natural que permite explicar el origen, la variedad, la complejidad y el carácter adaptativo de los rasgos de los organismos en virtud de causas antecedentes. De este modo, la teoría darwiniana marca el abandono de las explicaciones meramente teleológicas del mundo natural y el comienzo de la Biología como una ciencia en el sentido en el que la entendemos hoy en día.
Antecedentes de la teoria darwiniana
Una de las tesis más conocidas de las asociadas a Darwin es la tesis evolucionista, según la cual las especies cambian sus rasgos a lo largo de las generaciones, dando a veces origen a nuevas especies . Sin embargo, la idea de evolución era familiar antes de la aparición de la teoría darwiniana. Uno de los defensores de las ideas evolucionistas fue el naturalista Jean Baptiste Lamarck. Este biólogo sostuvo que los animales evolucionan de acuerdo con una jerarquía preconcebida por dios que va de lo más simple a lo más complejo . Lamarck afirmó que los rasgos adquiridos son heredables y que este mecanismo es el motor de la evolución. De acuerdo con esta teoría, el uso o desuso de ciertos órganos provoca que estos se hipertrofien o atrofien , haciendo que el organismo adquiera un nuevo rasgo. Ese rasgo es heredado por su descendencia, y su uso o desuso genera a su vez una nueva hipertrofia o atrofia. Este proceso, repetido por generaciones, moviliza la evolución de una especie.
Además de evolucionista, la teoría darwiniana es gradualista. De acuerdo con la tesis gradualista, la selección natural obra solamente mediante la conservación y acumulación gradual de pequeñas modificaciones heredadas. Con respecto a esto, cabe señalar que Darwin tuvo influencias de Charles Lyell. Lyell se opuso a las teorías geológicas catastrofistas, que sostenían que el estado geológico actual de la Tierra se debía a una sucesión de catástrofes naturales ocurridas en un período de tiempo corto. El líder teórico de la posición catastrofista fue el naturalista George Cuvier, quien propuso la teoría como una manera de explicar el registro fósil disponible que parecían indicar la existencia de fenómenos de extinción abrupta de las espécies. Frente a esta teoría Lyell sostuvo una posición gradualista y actualista, es decir, los fenômenos geológicos del pasado debian ser explicados em funcion del mismo tipo de causas que pueden observarse en la actualidad, y esos fenômenos serian del mismo tipo que los actuales.
Cabe destacar la tesis darwiniana del origen común. Contra la idea de que las especies habían sido creadas en un único acto de creación, de manera independiente y en lugares geográficos específicos, la tesis del origen común sostiene que muchas especies actuales descienden de otras especies , en muchos casos, de una especie en común.
La teoria de Thomas Malthues también influyó Darwin. En sus trabajos en torno al crecimiento demográfico, Malthus observó que mientras la población tiende a crecer exponencialmente, la producción de alimentos crece solo linealmente. Esto es, la población crece más rápido que la capacidad de producción de alimentos . En virtud de este desfase, Malthus estipuló que en algún momento se produciría inevitablemente una lucha por la supervivencia relacionada con la escasez de recursos.
La teoria de la selección natural
Mientras que las poblaciones de organismos aumentan exponencialmente, los recursos disponibles en su medio ambiente crecen tan solo de manera lineal. Como consecuencia de ello, la capacidad de determinado medio ambiente para sustentar una población de organismos resultará eventualmente insuficiente. En otras palabras, para un medio ambiente dado, siempre existirá una lucha por la supervivencia entre los organismos de una población.
Al mismo tiempo, existen dos mecanismos que funcionan simultáneamente: la herencia y la variación. Por un lado, los organismos se parecen a sus progenitores. La descendencia hereda sus rasgos en gran medida de sus progenitores. Por otro lado, no todos los rasgos presentes en un organismo son heredados: de una generación a otra suele haber cierta variación. En otras palabras, la descendencia se parece, pero no es exactamente igual a sus progenitores. Ahora bien, la variación de rasgos puede producir en los organismos una diferencia en términos de eficacia, esto es, una diferencia en cuanto a su capacidad para desarrollar determinada función. Esta ganancia o pérdida de eficacia puede volver a dicho organismo más o menos apto en relación con las condiciones de su medio. Las variantes más aptas son aquellas que tienen más probabilidad de sobrevivir y/o reproducirse, dejando así descendencia. A su vez, la herencia garantiza que la descendencia posea a su vez estos rasgos que los hacen más o menos aptos , afectando así su probabilidad de sobrevivir y/o reproducirse. Este proceso se repite de generación en generación. Así, los organismos evolucionan gradualmente.
Darwin pudo observar que en sucesivas generaciones los organismos presentan rasgos novedosos, es decir, rasgos que no estaban presentes en sus progenitores. Esta variación en la aparición de rasgos es, para Darwin, inagotable y aleatoria. Es inagotable porque Darwin consideraba que siempre aparecerían rasgos nuevos en la descendência. Además, la variación es aleatoria, porque los rasgos de los organismos no aparecen como una respuesta a necesidades adaptativas impuestas por el medio ambiente, sino por mero azar . De esta manera, la aparición de diferentes rasgos puede ser tanto beneficiosa como neutral, e incluso perjudicial en relación con el medioambiente que la población de organismos habita.
Así como Darwin sostiene que a menudo aparecen en la descendencia rasgos novedosos, afirma también que la mayoría de los rasgos presentes en los progenitores son heredados por su descendencia. Gran parte de la evidencia que poseía Darwin en favor de este punto provino de su estudio de la actividad de los criadores de animales, esto es, de la selección artificial. Darwin observó que seleccionando para la procreación únicamente a los individuos que poseían ciertos rasgos, los criadores podían generar a voluntad animales con los rasgos en cuestión.
El concepto de eficacia concierne a una determinada función; por ejemplo, entre distintos organismos de una especie, algunos pueden poseer rasgos que los hacen más eficaces para camuflarse, cazar y escapar de los depredadores. Por supuesto, la eficacia con que cierto organismo desarrolla cierta función impacta en su aptitud en relación con el medio ambiente, esto es, impacta en la probabilidad de supervivencia y/o de reproducirse y dejar descendência. Por ejemplo, supongamos que en una población de cebras algunos individuos poseen cierto rasgo que los hace más rápidos, mientras que el resto que carece de este rasgo es más lentos. Aquellas cebras que sean más rápidas serán más eficaces a la hora de escapar de los depredadores, de manera que tendrán mayor probabilidad de llegar a la vida adulta. Del mismo modo, supongamos que ciertas cebras poseen un rasgo que las hace tener en promedio dos crías más que las cebras que carecen del rasgo en cuestión. Las cebras que posean ese rasgo serán más eficaces para la reproducción, de manera que poseerán una diferencia en términos de fertilidad, es decir, tendrán mayor probabilidad que las demás de dejar descendencia.
A través de estos conceptos, la teoría de la selección natural explica el origen, la diversidad y el carácter adaptativo de las diferentes especies de organismos en virtud de la aparición aleatoria de variaciones heredables con diferentes rasgos de eficacia y en relación con el medio ambiente en el que habitan.
Evidencia para la teoria Darwiniana
Seleccion natural – Exemplo de las polillas inglesas
Seleccion artificial
Darwin observó el trabajo de los criadores de animales y plantas y el modo en que estos pueden seleccionar las características que desean haciendo que solo se apareen entre sí los individuos que tienen esas características y no los otros. Estas prácticas aportan evidencia a la idea de que los rasgos de los organismos son heredables. Además, Darwin observó que, muchas veces, los criadores obtienen resultados inesperados: los animales ostentan rasgos que no estaban en sus progenitores. Este hecho reiterado proporciona evidencia para la idea de variación de rasgos.
Definamos ‘especie’ del siguiente modo: dos individuos pertenecen a diferentes especies si y solo si no pueden producir descendencia fértil viable.
Paleontologia
La Paleontología es la ciencia que estudia el origen y el cambio de los seres vivos en el pasado, fundamentalmente a partir del análisis del registro fóssil. El registro fósil muestra que en el pasado existieron ‘nexos’ o formas intermedias entre especies, lo que sugiere que ciertas especies evolucionaron a partir de formas más antiguas.
Biogeografia
La Biogeografía estudia la distribución de organismos alrededor del planeta. A partir de las observaciones llevadas a cabo en su extenso viaje alrededor del mundo en el Beagle, Darwin pudo observar algunos fenómenos respecto de la distribución de especies en las islas oceânicas. Consideremos el archipiélago de Galápagos. Darwin observó que estas islas oceánicas poseen especies endémicas, es decir, que no pueden encontrarse en ningún otro lugar del mundo. Aceptaba también que espécies presentes en diferentes continentes emigraran hacia las islas. Una vez allí, las diferentes condiciones del medio ambiente condujeron a una selección de rasgos diferentes hasta producir especies nuevas, aunque presentan rasgos similares en virtud de poseer un ancestro común con las espécies que inicialmente migraron.
Homología entre diferentes espécies
Darwin piensa en las homologías como estructuras que parecen ser del mismo tipo y que están presentes en diferentes grupos de organismos, aun cuando difieran en forma o función. En este sentido, la homología estructural proporciona evidencia de la existencia de un ancestro común a partir del cual se fueron ramificando diferentes especies.
Darwin observó que numerosas especies, muy diferentes cuando adultos, presentan características muy parecidas cuando se encuentran en estado embrionário.
Selección natural y genética
Para elaborar una teoría que combinara la selección natural con una explicación apropiada de los mecanismos de variación y herencia fue necesario esperar hasta la integración entre la teoría de la evolución y la teoría genética en la Teoría Sintética de la Evolución.
Los inicios de la genética se remontan a Gregor Mendel. La contribución de Mendel fue demostrar que las características heredadas son portadas por unidades discretas que se reparten por separado -se redistribuyen- en cada generación. Estas unidades son las que hoy conocemos como genes. Actualmente, sabemos que los genes se encuentran en los cromosomas y estos, a su vez, constituyen las moléculas de ADN presentes en el núcleo de las células. La constitución genética completa de un organismo se denomina genotipo y las características externas observables en un organismo se llaman fenótipo. La teoría genética permite completar los ‘huecos’ en la teoría de la selección natural, es decir, proporciona una explicación para los mecanismos de herencia y variación que aquella postula.
La Teoria Sintética de la Evolución a sostiene que las moléculas de ADN presentes en el núcleo de cada célula contienen la información genética completa del individuo y que esas moléculas tienen la capacidad de replicarse, es decir, de hacer copias fieles de sí mismas y traspasarlas a otras células. De este modo, se explica el mecanismo a través del cual ciertos rasgos son heredados: la información genética está codificada en el ADN de los organismos, los cuales, al reproducirse, lo transfieren parcialmente a su descendência.
Las moléculas de ADN poseen la capacidad para hacer copias fieles de sí mismas y pasarlas a su descendencia. Sin embargo, a menudo la copia no es perfecta, sino que difiere del original. Las variaciones producen cambios en la conformación del ADN, que luego son heredados por la descendencia, produciendo así en muchos casos la aparición de rasgos novedosos que pueden ser ventajosos o desventajosos en la competência por la supervivencia en el medio ambiente que habita el organismo.
Así, de acuerdo con la Teoría Sintética de la Evolución, la selección natural actúa sobre los genes seleccionando aquellos que poseen una ventaja en eficácia.
Repercusiones del pensamento darwiniano
En primer lugar, cabe señalar, la teoría de la selección natural es incompatible con la doctrina cristiana del creacionismo, según la cual Dios creó todas las especies a la vez, tal y como son en la actualidad y en locaciones geográficas específicas. La propuesta evolucionista de Darwin atenta contra esta concepción en dos formas. En primer lugar, es incompatible con la idea de que las especies fueron creadas tal y como son actualmente, pues mantiene que estas evolucionaron gradualmente a través de millones de años. Más radicalmente, el evolucionismo darwiniano presupone que el desarrollo de la vida no responde a ningún plan o diseño divino. Es decir, Darwin rechaza la idea de un diseño o plan divino como guía para la evolución, sostenida por Lamarck. Contra la cosmovisión cristiana, de acuerdo con la teoría de la evolución el mundo de la vida avanza a ciegas , sin un sentido predeterminado. En lugar de un plan divino, desde esta perspectiva, lo que ocurre es la aparición aleatoria de rasgos que de manera azarosa resultan ventajosos, neutros o desventajosos en relación con un medio y con otros organismos de la misma especie. Así, la selección produjo paulatinamente la fijación de los rasgos más eficaces en términos de supervivencia y reproducción, pero sin que exista un plan o un principio que guíe el proceso.
Esta ruptura se agudiza aún más con la publicación de El origen del Hombre, donde Darwin presentan una versión naturalista del origen de los seres humanos como producto de la evolución a través de la selección natural a partir de ancestros que compartimos con otras espécies . Esta teoría atenta contra la idea antropocéntrica Cristiana desplazando a los seres humanos del lugar de privilegio que se les otorgaba en relación con el resto del mundo natural.
La tradición filosófica moderna , a partir del siglo XVIII concebía el desarrollo de la historia y del hombre como un proceso de continuo avance hacia lo mejor. La concepción desarrollada en El Origen de las especies, da por tierra con esta idea. Si bien es cierto que la palabra ‘evolución’, tal como es vulgarmente utilizada, sugiere a menudo la idea de un cambio hacia lo mejor, de lo más simple a lo más complejo o de lo menos completo o acabado a lo más desarrollado, la idea darwiniana de evolución no implica nada de esto.
En síntesis, al renunciar a las explicaciones teleológicas, Darwin abandona la idea de que exista un fin último que regule los procesos naturales.
Sesgos em el pensamento darwiniano
La estructura y contrastación de las teorias científicas
Los inícios de la Filosofia de la ciência
Recién en la primera mitad del siglo XX, la Filosofía de la ciencia se constituyó como una disciplina en cierto sentido autónoma y se institucionalizó. Este proceso coincide con la formación del Círculo de Viena y con el surgimiento en su seno de una corriente epistemológica conocida como Positivismo lógico o Empirismo lógico. El Círculo de Viena estaba integrado por científicos y filósofos con formación científica; se reunian para discutir problemas filosóficos acerca del conocimiento científico . Su objetivo es “promover y diseminar la concepción científica del mundo” en la ciencia, la filosofía, y más allá de ella. Con carácter eminentemente cooperativo, esta agrupación abordó problemas filosóficos en torno a la ciencia, especialmente, aquellos de carácter lógico, epistemológico y metodológico.
Esta corriente de pensamiento pretendió eliminar el pensamiento metafísico y teologizante de la ciencia, de la filosofía y de la vida diaria, e imponer un “modo de pensar fundado en la experiencia y contrario a la especulación” . Y, para ello, propuso una depuración o “purificación” de la ciencia y, por sobre todo, una transformación en la filosofia . La filosofía debía tomar un tenor más científico, adoptando estándares de la ciencia y el rigor de la Lógica. Es en este contexto que la Filosofía de la ciencia se instala como disciplina autónoma.
La Filosofia de la ciência como reconstrucción racional
Se orientaba a la clarificación y análisis de la ciencia, más específicamente, de sus teorias. Estas teorías eran concebidas como sistemas de enunciados y de lo que se trataba era de analizar las relaciones lógicas entre enunciados y de estos, con la experiencia .
La nueva lógica de los Principia mathematica de Bertrand Russell y Alfred North Whitehead se volvió la principal forma de abordaje para el análisis de la ciencia empírica a través del empleo de formalismos lógico-matemáticos. Tal como lo resume Harold Brown: “Para el positivista lógico hay dos formas de investigación que producen conocimiento: la investigación empírica, que es tarea de las diversas ciencias, y el análisis lógico de la ciencia, que es tarea de la filosofía.” El análisis lógico de las teorías y explicaciones permitiría descomponer los enunciados en otros cada vez más simples, hasta llegar a enunciados elementales de carácter empírico.
El rechazo a la metafísica
Esta concepción científica del mundo rechazaba la metafísica y se orientó a establecer una distinción clara entre ciencia y pseudo-ciencia, entre ciencia y metafísica. En la reconstrucción racional que se aplicaba tanto a la ciencia, como a la filosofía, el análisis lógico podía clarificar los problemas y transformarlos en problemas empíricos a ser resueltos, o bien revelar su carácter de pseudo-problemas y, de ese modo, disolverlos.
Como advierte Michael Friedman, es uma intención de comprender los objetos con los que trata, esclarecer su metodología y ofrecer clarificación lingüística y conceptual, tratando de reconstruir axiomáticamente sus teorias. La Filosofía debe adaptarse a los desarrollos de la ciencia, identificar la estructura lógica de las teorías, su relación con la evidencia observacional y con otras teorías.
Cabe destacar que el Círculo de Viena poseía aspiraciones que excedían el ámbito de la ciencia y su filosofía. Además de la reforma en el interior de la Filosofía y del proyecto de unificación de la ciencia, se orientaba a una transformación social, cultural, educativa y política.
Los problemas de la Fisolofia de la ciência
La Filosofía de la ciencia se constituyó en el seno del Positivismo lógico , identificó problemas que debían ser resueltos y delineó un marco conceptual y metodológico.
La distinción contexto de descubrimiento vc. Contexto de justificación
La tarea de la Filosofía era lograr una reconstrucción racional de la ciência (las teorias), identificar su estructura lógica . El interés se centraba en el análisis de esas teorías y en su relación con la experiencia y no en cómo se arriba a su formulación .
El contexto de descubrimiento se refiere al proceso de generación de nuevas hipótesis . Allí es posible reconocer factores, por exemplo, psicológicos e sociológicos, que intervienen en la generación y surgimiento de una idea o hipótesis. Contexto de justificación alude al testeo y validación de las hipótesis ya formuladas . El contexto de justificación resultaba de incumbencia para la Filosofía, pues allí sí cabía llevar adelante el análisis lógico-filosófico. Una vez formulada una teoría, podía estudiarse su estructura y su relación con la experiencia, para lograr de ese modo, su justificación. Dada una teoría y ciertas hipótesis −aquellos enunciados que componen las teorías− es posible llevar adelante el proceso de validación de esas hipótesis a partir de sus consecuencias, proceso que se conoce como el de contrastación de hipótesis.
Critério de demarcación
El rechazo a la metafísica, y el intento de eliminarla de la ciencia y de la filosofía, llevó a los positivistas a interesarse en distinguir ciencia de metafísica.
Uno de los objetivos de la Filosofía consiste en establecer un criterio de demarcación entre ciencia y pseudo-ciencia, entre enunciados auténticamente científicos que pertenecen a las ciencias empíricas y los pseudo-científicos que deben ser excluidos de ellas.
La estructura de las teorías científicas
El abordaje filosófico de la ciencia se orienta al análisis lógico de las teorías científicas .
La investigación científica se orienta a dar cuenta de los fenómenos, explicarlos y predecirlos. Para lograr tal cosa, científicas y científicos construyen teorías. Estas teorías empíricas son concebidas como sistemas de enunciados, más precisamente, de hipótesis.
Las hipótesis pueden ser entendidas como posibles respuestas a las preguntas que se hacen los científicos en sus prácticas, son enunciados que proponen en un determinado momento para dar cuenta de un problema. Cuando son formuladas, se desconoce si son verdaderas o falsas , pero se trabaja para demostrar que son correctas. La ciencia se desarrolla sobre estas versiones provisorias de la realidad e investiga si, efectivamente, dan cuenta del fenómeno que necesitan explicar.
Un sistema axiomático es concebido desde una perspectiva contemporánea como un conjunto de elementos. Por un lado, un lenguaje, con términos y reglas sintácticas de formación de esos términos. Entre esos términos, algunos de ellos se toman como primitivos, mientras que otros se definen. Así, los sistemas axiomáticos incluyen enunciados que funcionan como definiciones explícitas de los términos. Además, incluyen otros enunciados: axiomas y teoremas. Los axiomas son los puntos de partida, aquellos enunciados que se aceptan sin justificación alguna . Por último, los teoremas son enunciados que se obtienen por aplicación de las reglas de inferencia del sistema, a partir de axiomas u otros teoremas ya demostrados .
Una vez que los términos son interpretados, la teoría adquiere contenido empírico y los axiomas son concebidos como hipótesis fundamentales de las cuales pueden deducirse otras hipótesis, como teoremas, que llamaremos hipótesis derivadas . Finalmente de esas hipótesis es posible deducir lo que llamaremos consecuencias observacionales , enunciados que pueden ser evaluados por la experiencia. Lo que suele llamarse sistemahipotético-deductivo puede ser entendido como un sistema axiomático interpretado o aplicado.
Las teorías son sistemas de enunciados de distinto tipo . Que sea un sistema quiere decir que los enunciados guardan relaciones entre sí y esas relaciones son deductivas y, por lo tanto, garantizan la trasmisión de verdad . De modo que, si los enunciados que se toman como puntos de partida fueran verdaderos, todas las consecuencias que se obtengan deductivamente de ellos también lo serían. La constatación empírica de esas consecuencias es el modo de decidir si efectivamente lo son.
Los términos que componen las teorias
Uma distinción que suele formularse en relación con el vocabulario de las teorías, clasifica a los términos en teóricos y observacionales.
Los términos lógicos sirven para formar oraciones complejas y los no lógicos hacen referencia a ciertos objetos, sus propiedades o relaciones entre ellos.
Los términos no lógicos pueden ser teóricos u observacionales. La diferencia en aquello a lo que hacen referencia. Los términos observacionales son aquellos que refieren a objetos, propiedades o relaciones accesibles de modo directo por medio de la experiencia, es decir, por medio de los sentidos. En cambio, los términos teóricos son aquellos a los que se accede de modo indirecto, por medio de instrumentos o teorias . Así, por ejemplo solo si disponemos de microscopios poderosos podemos observar, las células y su estructura. Más aún, en los inicios de la genética, cuando se hablaba de genes, no se hacía referencia a nada que se hubiera podido identificar mediante observaciones, sino que se postuló este tipo de entidades para explicar los fenómenos que sí se observaban: la herencia de caracteres de los progenitores a su descendencia.
El desarrollo teórico presupone la introducción de un vocabulario específico que no refiere a entidades observables de modo directo, pero que sirve a los efectos de dar cuenta y articular los fenómenos observables. Por su parte, el vocabulario observacional resulta crucial para el registro de observaciones y resultados experimentales.
Los enunciados que componen las teorias
Enunciados empíricos básicos
Estos enunciados son empíricos y son básicos. Lo primero sugiere que se formulan en vocabulario observacional: todos sus términos no lógicos son observacionales. Lo segundo, que se trata de enunciados singulares o muestrales. Los enunciados singulares son aquellos que se refieren a un individuo específico . Existen enunciados que refieren a un conjunto de indivíduos pequeno. Los enunciados muestrales son aquellos que hablan sobre un conjunto finito y accesible, es decir, un conjunto lo suficiente pequeño como para que los enunciados puedan ser evaluados , del mismo modo que los singulares.
Los enunciados empíricos básicos son enunciados singulares o muestrales que se formulan utilizando términos no lógicos de carácter observacional.
Estos enunciados, al referirse a un individuo o a una muestra y a lo inmediatamente observable, tienen una característica importante que es la efectividad, por la que podemos decidir de manera directa, por simple observación, acerca de su verdad o falsedad.
Generalizaciones empíricas
Al igual que los enunciados empíricos básicos, las generalizaciones empíricas también contienen exclusivamente términos no lógicos de carácter observacional pero, a diferencia de aquellos se refieren a clases infinitas o potencialmente infinitas estableciendo regularidades o uniformidades. Distinguimos tres tipos de generalizaciones empíricas según el alcance de dichas generalizaciones: las universales, las estadísticas o probabilísticas y las existenciales .
En las generalizaciones empíricas universales, si bien todos sus términos no lógicos se refieren a entidades observables , las generalizaciones empíricas de este tipo requieren de una evaluación indirecta. No es posible abarcar la totalidad de los objetos a los que se refieren para probar su verdad , es decir, para verificar el enunciado. Sin embargo, si atendemos a su forma, bastaría encontrar un contraejemplo para establecer su falsedad .
Podemos referirnos a un porcentaje de una población o asignar una probabilidad a la ocurrencia de un fenómeno en una población infinita o inaccesible, como en las generalizaciones empíricas que tienen la forma de oraciones estadísticas o probabilísticas y cuyos términos descriptivos son exclusivamente empíricos.
Las generalizaciones empíricas existenciales son enunciados existenciales que poseen únicamente términos observacionales.
Enunciados teóricos
Los enunciados teóricos se caracterizan por la presencia devocabulario teórico. Estos contienen al menos untérmino teórico. Pueden ser singulares, muestrales o generales.
Suele distinguirse a los enunciados teóricos entre puros y mixtos o reglas de correspondência . Los primeros son aquellos que solo contienen términos teóricos como vocabulario no lógico, mientras que los mixtos son aquellos que contienen al menos un término teórico y al menos uno observacional.
Algunas hipótesis que se consideran fundamentales juegan el rol de axiomas, y otras derivadas de las anteriores, el de teoremas.
El processo de contrastación de hipótesis
Primera aproximación a la contrastación
Las hipótesis pueden ser entendidas como son enunciados que los científicos proponen en un determinado momento para responder a un problema. Al momento de formularla entonces no es más que una respuesta posible , se desconoce si es una respuesta acertada.
Averiguar si una hipótesis es correcta o no es lo que se conoce como proceso de contrastación de hipótesis . Este mecanismo consiste en inferir deductivamente consecuencias de las hipótesis que queremos contrastar y luego comprobar si éstas se cumplen o no. Las consecuencias que debemos deducir de la hipótesis son enunciados básicos, es decir, enunciados singulares o muestrales con términos solamente observacionales.
Las consecuencias observacionales son muy importantes para el desarrollo de la ciencia porque son el camino que permite investigar la verdad de una hipótesis. En virtud del tipo de enunciado que son −enunciados generales con o sin términos teóricos−, las hipótesis no se pueden poner a prueba directamente, es por eso que se deben deducir de ella las consecuencias observacionales que, al ser enunciados empíricos básicos, es más sencillo llegar a un acuerdo en si se cumplen o no.
A esto es lo que en muchas ocasiones se lo conoce como método científico, el procedimiento por el cual la ciencia pone a prueba sus conjeturas. Es común entender por método científico a la práctica de postular hipótesis y ponerlas a prueba mediante observaciones y experimentos que pueden ser replicados por otras personas.
La assimetria de la contrastación
Cuando se demuestra que una hipótesis no es verdadera, los científicos dicen que queda refutada.
La contrastación de hipótesis a partir de la deducción de consecuencias observacionales y el testeo de estas con la experiencia es lo que se llama“método hipotético deductivo” ya que en ella reside un razonamiento deductivo.
De acuerdo com la assimetria de la contrastación es lógicamente posibleafirmar la falsedad de una hipótesisa partir de una consecuencia observacional gracias al Modus Tollens pero es imposible decir que es verdadera a partir de la verificación de su consecuencia observacional . Se suele llamar “refutación” al rechazo de una hipótesis como falsa y “verificación” a la prueba de su verdade.
El rol de las condiciones iniciales em la contrastación de hipóteses.
Además de la hipótesis, a la hora de contrastar o ponerla a prueba, partimos de ciertas condiciones, que llamaremos Condiciones Iniciales.
El rol de las hipotesis auxiliares en la contrastacion de hipótesis
Se trata de una hipótesis que cuenta con apoyo independiente y previo; su legitimidad no esta en juego, y que se la utiliza entonces en la contrastación . Este tipo de hipótesis suelen ser denominadas hipótesis auxiliares.
El rol de las hipotesis derivadas em la contrastación de hipotesís
Las hipótesis auxiliares , además, puedenunirse a la hipótesis principal para deducir de ellasotras hipótesis generales, que son conocidas como hipótesis derivadas. Son enunciados generales que, a diferencia de las hipótesis auxiliares, dependen de la hipótesis principal.
Las hipotesis ad-hoc
Los factores que inciden en la práctica científica son de índole variopinta y no hay laboratorios “inmunes” a ellos. Así, cuestiones personales, sociales, políticas y económicas pueden estar detrás de una hipótesis y es por eso que se quieran mantener como confirmadas a pesar de la evidencia en contra . En estos casos se suele recurrir a las hipótesis ad hoc, hipótesis formuladas con el único propósito de salvar a la hipótesis principal de la refutación. Son hipótesis que buscan invalidar ciertas evidencias o anular otras hipótesis auxiliares en juego. Como hay tantos elementos en juego, las hipótesis ad hoc van al rescate de la principal y sugieren que son los otros elementos los que nos llevan a la idea errada de que están equivocados.
La explicacion cientifica
Ya en la antigüedad los filósofos griegos concibieron la ciencia como proveedora de explicaciones, sin embargo, la conceptualización de la explicación de la actividad científica es característica de la denominada filosofía clásica de la ciencia. El objetivo de la ciencia, de acuerdo con esta corriente, es la elaboración de teorías cuyos enunciados puedan emplearse para fines explicativos –es decir, para dar cuenta de los fenómenos ocurridos en el mundo – y predictivos – para anticipar hechos futuros.
A modo de conclusión
El modelo de cobertura legal
Este modelo fue propuesto, con variantes, porCarl Hempel y Karl Popper. La idea central consiste en que un hecho resulta explicado cuando se muestra que puede considerárselo como caso de una ley científica. En términos generales, una ley científica puede entenderse como un enunciado general que describe una regularidad empíricamente constatada .
Por el momento, supongamos que disponemos de tales teorías y leyes: ese marco teórico –según el modelo de cobertura legal– puede utilizarse para dar cuenta de los fenómenos, para comprender aquello que observamos; y puede utilizarse para predecir hechos futuros.
Explicar un fenómeno bajo la perspectiva del modelo de cobertura es mostrar que responde a una ley general pues no se trata de una ocurrencia aleatoria, sino de un caso de esa regularidad formulada en un enunciado general.
De acuerdo con el modelo de cobertura legal, las explicaciones científicas se estructuran en la forma de razonamientos en los que el enunciado que describe el fenómeno que se desea explicar (enunciado denominado explanandum) ocupa el lugar de la conclusión, mientras que las premisas (denominadas en conjunto explanans) constituyen las razones que se aducen para dar cuenta de por qué se produjo el fenómeno mencionado en la conclusión. Las premisas que componen el explanans deben contener, al menos, una ley.
En primer lugar, el enunciado que figura como explanandum se acepta como verdadero. Es decir, ofrecemos explicaciones de aquello que sabemos que ocurre o ha ocurrido. En segundo lugar, hemos de advertir que aquello que se pretende explicar puede ser de dos tipos diferentes: puede tratarse de un fenómeno particular (que tiene o tuvo lugar en un momento y lugar determinado) o de una regularidad o patrón.
Cuando lo que se pretende explicar sonfenómenos particulares, el explanans contendrá leyes –pues sin ellas no sería una explicación de acuerdo con este modelo–; pero esas leyes estarán acompañadas por enunciados que describen las condiciones iniciales o antecedentes , que son aquellos factores específicos cuyo concurso efectivo fue necesario para la ocurrencia del fenómeno en cuestión.
La estructura de la explicación revela sus distintos componentes.El explanans está compuesto por leyes (L1, L2, L3,…., Lm):enunciados generales que expresan regularidades; e incluye además condiciones antecedentes (C1, C2, C3,….., Cn): enunciados empíricos básicos que describen los factores sin los cuales no habría sucedido el fenómeno a explicar. Por último, como conclusión figura elexplanandum, aquel enunciado que describe el fenómeno a explicar.
Cuando la ley presente en el explanans es universal –es decir, es un enunciado que afirma algo paratodos los miembros de una clase–, entonces la explicación se clasifica como nomológico deductiva; mientras que se denomina inductivo-estadísticas a las explicaciones que dan cuenta de un fenómeno aduciendo al menos una ley estadística o probabilística.
Explicaciones nomológico deductivas
Las leyes incluidas en las explicaciones son enunciados generales que ya han sido constatados empiricamente. Sabemos que los enunciados generales pueden ser de diferente tipo. Así por ejemplo, las leyes que componen el explanans pueden ser universales y referirse a todos los miembros de una clase afirmando que algo es el caso sin excepción alguna; o en otros términos, que toda vez que se dé un acontecimiento de cierto tipo, este irá invariablemente seguido de otro de distinto tipo. En ese caso, el vínculo que se establece entre explanans y explanandum es deductivo, y esto quiere decir que toda vez que el explanans sea verdadero, también habrá de serlo el explanandum.
Explicar y predecir
El modelo de cobertura legal se extiende también a las predicciones científicas, ya que supone la identidad estructural entre explicación y predicción. En ambos casos, los razonamientos son idénticos; la diferencia radica en que en el caso de las predicciones, el fenómeno descripto en el explanandum aún no ha sucedido o aún no es conocido; mientras que en las explicaciones, se parte de un fenómeno cuya ocurrencia ya se conoce.
Gracias a la identidad estructural entre explicación y predicción, una vez ocurrido el hecho anticipado en una predicción, podremos emplear la misma estructura y componentes de la predicción para explicarlo. De modo semejante, el explanans que hoy sirve para explicar un fenómeno podría haber servido para predecirlo de haber tenido conocimiento de la información consignada en el explanans.
Explicaciones estadísticas inductivas
De acuerdo con Hempel , cuando no se dispone de una ley universal que dé cuenta de un fenómeno, pueden emplearse leyes estadísticas o probabilísticas. Si bien estos enunciados –al igual que los universales– se refieren a clases potencialmente infinitas o inaccesibles, a diferencia de las leyes universales, enuncian que un fenómeno ocurre con cierta frecuencia.
Si bien el explanans ofrece razones que dan cuenta del explanandum, el explanandum no se sigue necesariamente del explanans como ocurría con la variante nomológico deductiva. En las explicaciones basadas en leyes estadísticas, el explanans no otorga al explanandum la certeza deductiva , sino que le confiere sólo un cierto grado de probabilidad, (que estará vinculado con la probabilidad enunciada en la ley). Por esa razón el vínculo que se establece entre explanans y explanandum es de tipo inductivo.
El empirismo logico y el falsacionismo como corrientes epistemologicas clássicas
La justificación de las teorías resulta crucial para la filosofía de la ciencia, ya que todo cambio de creencias científicas supone un proceso crítico en el que las teorías son evaluadas para determinar cuáles de ellas serán aceptadas y cuáles rechazadas. Esta evaluación recibe el nombre depuesta a prueba o contrastación, y consiste en laconfrontación de las hipótesis investigadas con los elementos de juicio empíricos.
Además de ser sometidos a contrastación, los enunciados que componen las teorías deben ser examinados para establecer si efectivamente pertenecen al ámbito de la ciencia o corresponden a otras formas de conocimiento o expresión humanas. Esta circunstancia nos enfrenta al problema de la demarcación que consiste en la estipulación de un criterio que permita determinar si un enunciado pertenece al ámbito científico o no.
Cuestiones de la Filosofia clássica de la ciência
Pese a las diferencias que encontraremos entre las respectivas propuestas del Empirismo lógico y el Falsacionismo, es posible señalar algunas características que permiten ubicar ambas corrientes dentro de las que denominamos perspectiva clásica de la Filosofía de la ciência. Recordemos sus principales rasgos comunes:
· 1. La tarea de la filosofía de la ciencia consiste en realizar unareconstrucción racional de la investigación y las teorías científicas.
· 2. En la investigación científica deben distinguirse netamente las instancias que quedan incluidas en el denominado contexto de descubrimiento de aquellas otras pertenecientes al llamado contexto de justificación.
· 3. Toda filosofía de la ciencia debe aportar un criterio de demarcación para determinar qué enunciados pertenecen a la ciencia empírica y cuáles deben ser excluidos de ella.
· 4. Las teorías empíricas constituyen sistemas axiomáticos interpretados donde los enunciados de los distintos niveles se organizan a partir de sus relaciones lógicas en estructuras deductivas. Esas estructuras adquieren contenido empírico a través de la interpretación que asigna significado empírico a los términos teóricos presentes en las hipótesis fundamentales .
· 7. Las hipótesis generales de las ciencias empíricas se aplican para la explicación de hechos particulares y de regularidades constatadas en la experiencia y para la predicción de fenómenos futuros (o aún no conocidos). En este sentido, esas hipótesis, que cuentan con alto grado de apoyo empírico, constituyen las leyes que, acompañadas por enunciados que describen condiciones de las situaciones específicas, pueden usarse como premisas de los razonamientos que permiten concluir un enunciado que describirá el hecho explicado o predicho (si la información necesaria se conoce antes de la ocurrencia de ese hecho).
La filosofia del positivismo lógico
El papel del la inducción: descubrimiento y justificación
Según los pensadores que se inscriben en el marco de la filosofía del Positivismo lógico el conocimiento es legítimo, solo cuando se apoya en la experiencia perceptiva, es decir, en lo dado inmediatamente a los sentidos.
Bajo la reconstrucción racional que proponen, los datos observacionales son considerados como la base para confirmar inductivamente las hipótesis generales . Esta fue la estrategia de dos de los principales representantes delEmpirismo lógico, Carl Hempel y Rudolf Carnap, quienes dieron origen al denominado inductivismo crítico. Su propuesta ilustra cómo se aplicaron las herramientas de la lógica para reconstruir y analizar las distintas instancias de la investigación científica. Al aplicar la distinción entre contexto de descubrimiento y contexto de justificación , los inductivistas críticos –también llamados confirmacionistas–determinaron cuál era el papel de la inducción en cada uno de los contextos.
Los inductivistas críticos se pronunciaron en contra de una creencia muy extendida según la cual los argumentos inductivos se empleaban en la generación de hipótesis (instancia que se conoce como contexto de descubrimiento).
Según la posición que corresponde a un inductivismo estrecho (que Hempel y Carnap rechazaron), la investigación científica ideal comienza con la observación de casos particulares, estos se registran en enunciados singulares observacionales y luego, a partir de ellos y mediante la generalización inductiva, se infiere la hipótesis.
Pero para Carnap y Hempel, que se parta de la observación y la generalización inductiva para generar hipótesis no es sostenible por dos razones:
La primera es que para hacer observaciones es necesario contar con un criterio que determine qué es lo que será relevante observar. De no ser así, deberían registrarse infinitos hechos, la mayoría de los cuales serían inútiles para la investigación. Tener un criterio que sirva para determinar qué debe observarse presupone que ya se tenga una hipótesis. Por lo tanto, las hipótesis no se derivan de las observaciones, sino que estas dependen de aquellas .
La segunda razón es que si las hipótesis se derivaran inductivamente a partir de enunciados observacionales que dan cuenta de casos particulares constatados, no existirían hipótesis con términos teóricos. Pero la ciencia contiene muchísimas teorías cuyas hipótesis refieren a entidades inobservables.
Según el inductivismo crítico, las hipótesis teóricas se generan por medio de la imaginación creativa. En otras palabras: en el marco del contexto de descubrimiento, las hipótesis se inventan para dar cuenta de los hechos. Contrariamente a lo que proponía el inductivismo estrecho, la generación de hipótesis tiene lugar sin ninguna intervención de la lógica inductiva ni de la deductiva .
Los inductivistas críticos adhirieron a las siguientes tesis:
· Las teorías científicas son sistemas de enunciados que se clasifican de acuerdo con su alcance y según contengan términos teóricos y/u observacionales.
Pero, el resultado favorable de una contrastación no permite inferir con certeza deductiva la verdad de la hipótesis , y ello por dos razones. En primer lugar, esto es así porque cada contrastación favorable se reconstruye con la estructura de una falacia de afirmación del consecuente –que es una forma inválida de argumento– y, en segundo lugar porque nunca pueden revisarse todos los casos mencionados por una hipótesis universal. Por el mismo motivo, siempre existirá la posibilidad de que aparezca un caso refutatorio.
Hempel y Carnap consideraron, sin embargo, que aunque lashipótesis empíricas no puedan serprobadas concluyentemente, sí es posible confirmarlas, es decir, es posible asignarles un grado de probabilidad o apoyo inductivo a partir de cada uno de los casos que resultan favorables en sucesivas contrastaciones. A esta perspectiva adoptada por Hempel y por Carnap se la denomina inductivismo crítico porque, si bien se reconoce que la inducción desempeña un papel crucial en la justificación de las teorías, se considera que los argumentos inductivos no permiten arribar con certeza a las conclusiones . Estos autores propusieron una estrategia para estimar un grado de probabilidad, de acuerdo con la cantidad de casos particulares hallados como favorables para las hipótesis bajo investigación. Es decir que las hipótesis se considerarían más probables cuanto más fueran los casos confirmatorios hallados en las contrastaciones realizadas.
El critério de demarcación del Positivismo lógico
El Positivismo lógico planteó su fuerte rechazo con respecto a los contenidos de la metafísica, considerados centrales para la filosofía tradicional.
Los positivistas lógicos tenían la convicción de que los problemas metafísicos no eran más que pseudoproblemas originados en usos inadecuados del lenguaje. Para mostrarlo, analizaron el lenguaje y la estructura de las teorías científicas aplicando la Lógica y la Matemática. Ello se cristalizó en la formulación –y en sucesivas reformulaciones– de un criterio de demarcación específico: el requisito de traducibilidad a un lenguaje observacional.
El análisis lógico permitía determinar si un enunciado pertenecía a la ciencia formal (es decir, si era un enunciado lógicamente verdadero) o si pertenecía a la ciencia fáctica (en cuyo caso debía poseer contenido descriptivo acerca del mundo). La filosofía debía dedicarse, de acuerdo con esta perspectiva, al análisis lógico del lenguaje científico para dictaminar si las afirmaciones formuladas con pretensión cognoscitiva pertenecían al primero o al segundo tipo de ciencia y, también, descartar como metafísica cualquier otra expresión que se propusiera.
Desde esta perspectiva, las afirmaciones metafísicas –que refieren a entidades ubicadas más allá de la experiencia y que no pueden conectarse con ella a través de deducciones– no expresan auténticos enunciados –susceptibles de ser consideradas verdaderas o falsas– y constituyenexpresiones carentes de sentido debido a que no pueden ser clasificadas como empíricas ni como formales . Por ello, deben ser eliminadas del ámbito de la ciencia.
El criterio de demarcación del Positivismo lógico cumple una doble función: sirve para determinar si una afirmación pertenece a la ciencia o no y, a la vez, para indicar si dicha afirmación tiene sentido o carece de él (y, en ese caso, ser relegada al ámbito de la metafísica). En consecuencia, para que un enunciado tenga sentido (dicho de otro modo, para que tenga algún significado dado por su contenido empírico), debe ser traducible al lenguaje observacional. Los positivistas lógicos sostuvieron que todos los enunciados de las teorías empíricas debían ser susceptibles de reducción a proposiciones denominadas protocolares ; entendidas estos como enunciados empíricos básicos, constituidos exclusivamente con términos lógicos y observacionales.
Para los positivistas lógicos, incluso los enunciados teóricos puros deben poder ser traducidos a afirmaciones empíricas que expresen las propiedades y relaciones observables entre los objetos materiales.
Si un enunciado contiene uno o más términos referidos a alguna entidad inobservable, es clasificada como enunciado teórico . La aplicación del criterio de traducibilidad impone que todos los términos descriptivos (es decir, los términos no lógicos) deben ser definidos empleando solo términos observacionales. En el caso de que se tratase de términos teóricos esta tarea podría realizarse especificando en la definición qué fenómenos observables se consideran señales de su presencia.
Todo enunciado que pretenda ser empírico debe ser expresable en términos de afirmaciones empíricas. Así es posible llegar a formular los enunciados empíricos básicos que serán empleados para la puesta a prueba de las hipótesis, garantizando así la contrastabilidad de los enunciados científicos y, con ello, su conexión con la experiencia.
El recurso a los enunciados empíricos básicos garantiza la objetividad del conocimiento científico, ya que estos refieren directamente a las determinaciones físicas de los objetos observables.
Los positivistas lógicos sostuvieron que la contrastación requiere que se deduzca, a partir de las hipótesis, enunciados empíricos básicos, denominados consecuencias observacionales . Estos serán verificados o refutados a partir de observaciones . De este modo, funcionan como una especie de tribunal que decide si la hipótesis bajo contrastación se transformará en conocimiento científico o no. Si los enunciados de las consecuencias observacionales se verifican, la hipótesis de la que se deducen debe considerarse confirmada . Pero, si las consecuencias observacionales resultan falsas –es decir, si las observaciones muestran que los fenómenos predichos por esos enunciados no se cumplen-, entonces la hipótesis debe ser descartada, pues ha sido refutada.
Por esa razón, por su papel crucial como “tribunal” donde las hipótesis se confrontan con la observación, al conjunto de afirmaciones empíricas básicas se lo denominó base empírica de las teorías.
El criterio de demarcación está ligado a la posición del Círculo de Viena acerca de la justificación de las teorias: que un enunciado pueda ser traducible a enunciados empíricos es lo que garantiza que las hipótesis sean, si no inductivamente verificables, al menos, inductivamente confirmables a partir de la experiencia -como luego propusieron Carnap, Hempel y Reichenbach y otros.
El progresso de la ciência
Una vez contrastadas, las hipótesis altamente confirmadas se organizan componiendo las estructuras deductivas que constituyen las teorías científicas. Muchas de esas hipótesis podrían, a partir de allí, ser empleadas como leyes para explicar y predecir fenómenos, dado su alto grado de confiabilidade.
El desarrollo científico es considerado como un proceso acumulativo en el que las teorías más firmes son, luego, reemplazadas por otras que las corrigen, enriquecen o amplían, pero siempre conservando el contenido verdadero de las anteriores .
La meta de la unificación de la ciência
Uno de los principales rasgos del Círculo de Viena fue suobjetivo: alcanzar la construcción de una ciencia unificada, tarea que podría llevarse adelante mediante la constitución de un lenguaje observacional autónomo, al que pudieran ser traducidas las teorías de todas las disciplinas.
El propósito de unificar la ciencia a partir de su lenguaje, manifiesta el compromiso del Positivismo lógico con la distinción entre enunciados teóricos y observacionales.
La aspiración del trabajo científico radica en alcanzar el objetivo de la ciencia unificada por medio de la aplicación de ese análisis lógico al material empírico. Debido a que el significado de todo enunciado científico debe ser establecido por la reducción a un enunciado sobre lo dado, de igual modo, el significado de todo concepto debe ser determinado por una reducción paso a paso a otros conceptos, hasta llegar a los conceptos de nivel más bajo que se refieren a lo dado.
En la década de 1930, el recrudecimiento de la persecución política que sufrieron varios de los integrantes del Círculo de Viena en virtud de su filiación religiosa judía o de sus ideas políticas de izquierda, condujo a la disolución del grupo y a la emigración de gran parte de sus miembros a los Estados Unidos, donde prosiguieron sus respectivos trabajos.
Se inicia allí la fase del Positivismo lógico que ha sido bautizada como la Concepción heredada. Em ella se revisaron y modificaron algunas de sus tesis para hacerlas más sofisticadas e intentar superar múltiples dificultades detectadas por los propios pensadores.
El desarrollo científico fue visto como un proceso acumulativo en el que las teorías reciben justificación inductiva confirmatoria que les confiere un alto grado de probabilidad . Las teorías así confirmadas se van complejizando y se va extendiendo su ámbito de aplicación. Las nuevas teorías, más amplias y generales, incluyen los logros de las anteriores, en tanto que conservan el contenido no refutado de estas. Esta noción de progreso lineal y acumulativo supone que en el pasaje desde una teoría hacia otra más inclusiva, los términos presentes en los enunciados componentes conservan inalterado su significado o pueden ser traducibles recurriendo al lenguaje observacional neutral.
Las respuestas del Falsacionismo
El rechazo de la inducción
Popper asumió los supuestos de la filosofía clásica y centró su perspectiva en la reconstrucción racional y el análisis lógico de las teorías, entendidas como sistemas axiomáticos interpretados con contenido empírico. Aplicó la clasificación de los componentes de las teorías, que distingue entre enunciados observacionales, teóricos y mixtos y sostuvo que las teorías deben contrastarse mediante el establecimiento de relaciones lógicas entre las hipótesis teóricas y los enunciados observacionales, que aportan los elementos de juicio empíricos.
Popper tomó como punto de partida -encontraste con los pensadores positivistas- lanegación de cualquier aplicación de las inferencias inductivas a la investigación científica. Esa posición lo condujo a rechazar el criterio positivista de demarcación y a proponer uno propio –la falsabilidad– y a conceptualizar el proceso de contrastación de hipótesis con el empleo de inferencias exclusivamente deductivas.
El problema de la inducción puede formularse, asimismo, como la cuestión sobre cómo establecer la verdad de los enunciados universales basados en la experiencia. Muchos creen que la verdad de estos enunciados se “sabe por experiencia”. Por lo tanto, quien dice que sabe, por experiencia, la verdad de un enunciado universal, suele querer decir que la verdad de dicho enunciado puede reducirse, de cierta forma, a la verdad de otros enunciados –estos singulares– que son verdaderos, según sabemos por experiencia. Esto equivale a decir que los enunciados universales están basados en inferencias inductivas.
Los argumentos inductivos no logran establecer la conclusión de modo concluyente .
Popper analizó la estrategia de los inductivistas de postular un principio de inducción. El principio de inducción es un enunciado especial que se agrega a toda inferencia inductiva y justifica el pasaje desde las premisas hacia la conclusión. Ese enunciado general sostiene que los casos futuros siempre son como los ya observados, que la naturaleza es constante. Es decir que este principio es una especie de garantía para legitimar toda inferencia inductiva. Y esa fue, precisamente, la estrategia llevada adelante por los positivistas.
Según Popper, no es posible justificar el principio de inducción porque ni la lógica ni la experiencia ofrecen recursos para ello.
La Lógica solo permite justificarlo atendiendo a su forma o estructura lógica, pero ocurre que no se trata de un enunciado tautológico y, por lo tanto, no podemos justificarlo como verdadero en ese sentido. El principio de inducción tampoco puede justificarse por la experiencia, pues al ser un enunciado universal, solo podría probarse a partir de premisas que describieran casos particulares favorables que lo verificaran (o que, al menos, le asignaran un grado de probabilidad confirmatoria).
Popper concluye que la inducción no puede ser justificada.
La distinción entre contexto de descubrimiento y justificación: cuestiones lógicas y cuestiones psicológicas
El Falsacionismo suscribió a la distinción entre contextos de la investigación científica en la que se aborda la diferencia entre las cuestiones susceptibles de reconstrucción lógica (que se ubican dentro del contexto de justificación) y las que no pueden analizarse mediante estructuras y relaciones lógicas (que quedan incluidas en el contexto de descubrimiento).
Igual que para los inductivistas críticos, como Hempel y Carnap, para el autor no existen reglas lógicas mecânicas (ni inductivas ni deductivas) para generar hipótesis. Por esa razón, la invención de hipótesis cae bajo el dominio de ciencias empíricas, como la Psicología de la ciencia o la Sociología de la ciência.
En cuanto al contexto de justificación, Popper afirma que es allí donde la Filosofía de la ciencia halla su objeto propio y propone su propia reconstrucción del modo en que los enunciados observacionales pueden vincularse lógicamente con las teorías, para su puesta a prueba.
El critério de demarcación del Falsacionismo
El rechazo de la inducción condujo al autor adescartar el criterio de demarcación del Positivismo lógico que está ligado a la pretensión de que los enunciados generales que expresan las hipótesis científicas sean susceptibles de recibir apoyo empírico inductivo, a partir de enunciados observacionales. En tal sentido, según el criterio positivista, el enunciado propuesto es una legítima hipótesis empírica, pues es reducible al lenguaje observacional y, por lo tanto, es verificable o confirmable a partir de la experiencia.
Por otra parte, el autor considera un error del Positivismo el que se desestime como sin sentido a todos los enunciados no científicos, pues existen otros tipos de afirmaciones que no poseen contenido empírico pero sí pueden tener sentido y expresar proposiciones.
El criterio de demarcación alternativo propuesto por el Falsacionismo no es un criterio de sentido, sino solamente una condición para determinar el carácter empírico de una hipótesis.
El criterio popperiano sostiene que para que un enunciado pertenezca al ámbito de la ciencia empírica debe ser falsable . El concepto de falsabilidad muestra el compromiso con las tesis de la Filosofía clásica de la ciência: el interés por la reconstrucción lógica de los aspectos metodológicos y la tesis fundamental acerca de la diferencia entre enunciados teóricos y observacionales. La falsabilidad es una propiedad que se determina lógicamente: una hipótesis es falsable cuando pueden formularse contra ella enunciados básicos que funcionen como falsadores potenciales.
Un falsador potencial es un enunciado empírico básico . Se trata de un tipo de afirmación singular (es decir, que especifica una región espacial y un momento en el tiempo), existencial (porque afirma que hay algo en esas coordenadas espaciotemporales) y observacional (en virtud de que se compone exclusivamente de términos empíricos, además de los lógicos). El enunciado falsador potencial describe un fenómeno observable que, de constatarse, refutaría la hipótesis bajo contrastación (de ahí el nombre de potenciales). Pero debe tratarse, además, de un enunciado lógicamente posible. Eso significa que no debe ser contradictorio.
Entre la hipótesis y el enunciado básico falsador potencial debe existir una relación lógica – denominada incompatibilidad o contrariedad– que determina que no es posible que ambos enunciados sean verdaderos.
La mera formulación de un enunciado básico falsador potencial no determina si la hipótesis es falsa o no, pero sí indica que pertenece al ámbito de la ciencia empírica, es decir, que es falsable.
El criterio de demarcación permite así excluir toda afirmación que no sea empírica. Así ocurrirá con las creencias metafísicas, religiosas, de contenido artístico u otras formas de conocimiento no empírico y con los enunciados de las ciencias formales, que no son falsables.
El criterio de demarcación excluye los enunciados de las ciencias formales, que carecen de contenido empírico. Lo mismo ocurre con los enunciados de las generalizaciones empíricas probabilísticas. Las denominadas leyes probabilísticas son infalsables porque es imposible que tengan enunciados básicos falsadores potenciales y, por ello, Popper no las considera conocimiento empírico.
El contexto de justificación: refutación y corroboración, según el Falsacionismo
Cuando se trata de hipótesis que satisfacen la condición de la demarcación, la falsabilidad es el índice que determina su valor para la ciencia. Según Popper, las mejores hipótesis son aquellas que son más falsables, esto es, aquellas que afirman más o las que más prohíben. Todas las hipótesis prohíben. Lo que prohíben es la aceptación de enunciados que describan casos que las refutarían.
Por ejemplo, los enunciados universales son los que poseen más contenido informativo, dado que refieren a todos los miembros de una clase. Por eso son los enunciados que más prohíben, ya que no admiten siquiera un caso contrario a ellos y, por lo mismo, también son los más falsables, puesto que para refutarlos, basta con verificar solo un enunciado contrario. En cambio, para enunciados de menor grado de generalidad, como las generalizaciones empíricas existenciales el hallazgo de un caso que verifique su contrario no bastaría para probar su falsedad.
Una vez determinado el carácter empírico de una hipótesis, la metodología popperiana prescribe a los científicos un procedimiento especial para la contrastación: no se trata de buscar casos favorables, como sucedía en el marco de las posiciones inductivistas, sino de intentar refutar la propia hipótesis a partir de la corroboración de sus enunciados falsadores potenciales.
Así, queda delineada que la demarcación es la determinación del carácter empírico de un enunciado propuesto como hipótesis, y que la contrastación es la puesta a prueba de dicho enunciado.
Para llevar adelante la puesta a prueba se deberá contrastar observacionalmente el enunciado básico propuesto como falsador y determinar si se lo acepta o no .
Los enunciados observacionales que se emplean para la contrastación de hipótesis, de acuerdo con la metodología popperiana, no son los que se deducen de la hipótesis a prueba, sino que son incompatibles con ella. Esta característica permite distinguir los enunciados básicos falsadores, de los enunciados de las consecuencias observacionales que sí se deducen de la hipótesis y describen ciertos fenómenos observables que, bajo condiciones especificadas, se espera que ocurran si esa hipótesis es verdadera. Los enunciados falsadores potenciales, por el contrario, describen siempre eventos observables “prohibidos” por la hipótesis.]
El razonamiento de toda refutación tiene la estructura del Modus Tollens.
El enunciado básico falsador es incompatible con la hipótesis. Es precisamente esa relación lógica la que permite que la aceptación de un enunciado básico falsador suponga necesariamente la refutación de la hipótesis con respecto a la cual dicho enunciado es incompatible: si el falsador potencial se considera verdadero, entonces la hipótesis no puede serlo también y, por ello, debe ser rechazada.
La metodología popperiana promueve así la crítica constante de las creencias científicas. Siempre deben buscarse nuevas maneras de exponer las teorías a los intentos de refutación, diseñando contrastaciones que puedan poner en riesgo las hipótesis aceptadas previamente. En consonancia, el autor rechaza de plano cualquier intento de proteger las teorías contra la refutación, como ocurre, por caso, con la introducción de hipótesis ad hoc, aquellas hipótesis que pueden proponerse para excusar a una hipótesis frente a un caso refutatorio.
El concepto de corroboración propuesto por Popper es la aceptación provisoria de una hipótesis ante intentos fallidos de refutación.
Resulta que no se trata de una verificación (pues no es posible probar concluyentemente la verdad de enunciados generales, como son las hipótesis, a partir de casos particulares observados), pero hay que advertir que tampoco se trata de una confirmación (pues la asignación de probabilidad postulada por el confirmacionismo supone el uso de la inducción, que es rechazada de plano por la metodología popperiana).
El concepto de corroboración se apoya en el reconocimiento de lo que Popper denomina asimetría de la contrastación, que consiste en que, por su estructura lógica, las hipótesis universales nunca son totalmente verificables (ya que se requerirían, para ello, infinitos casos favorables) pero sí son refutables, ya que para dar por refutada una hipótesis basta con hallar un solo caso incompatible con lo que ella afirma, es decir, bastará con aceptar un enunciado básico falsador.
De una hipótesis corroborada, diremos que ha resistido por el momento los intentos de refutación y la consideramos conocimiento científico, en tanto no se pruebe su falsedad.
La falibilidad de la base empírica
Todos los enunciados científicos son para Popper provisorios, falibles, hipotéticos. Los enunciados de la base empírica son revisables, puesto que, ellos no son verificables sino que son aceptados mediante un acuerdo entre los distintos científicos, luego de que cada uno realice su propia inspección observacional.
Para fundamentar la idea de que la falibilidad alcance a la base empírica, el autor muestra que adoptar la idea de que un enunciado básico se verifique por medio de la percepción sensorial de un sujeto es un error por dos razones:
La primera es que para Popper los enunciados solo pueden justificarse mediante la deducción, es decir, tomando otros enunciados ya aceptados como premisas y deduciendo el enunciado básico en cuestión como conclusión . Pero las experiencias perceptivas no pueden tomarse como premisas para deducir , ya que son vivencias y, como tales, son absolutamente heterogéneas con los enunciados, que son entidades lingüísticas.
La segunda es que el conocimiento científico debe válido intersubjetivamente . Esto significa que lo que se afirme debe ser justificable de igual modo por cualquier sujeto . Pero como fácilmente puede advertirse, las experiencias perceptivas de un sujeto no son intersubjetivas, ya que cada percepción es privada y cualquier otro observador, aunque intentara replicar exactamente la misma observación, realizará un acto perceptivo distinto y único, intransferible.
Por esas razones, los enunciados básicos no se verifican con experiencias subjetivas . Pretender tal cosa sería caer en lo que Popper llama psicologismo .
Sin embargo, la experiencia debe ser el tribunal que determine si se acepta o no una hipótesis, ya que de otro modo no tendría sentido sostener el carácter empírico de las teorias. El planteo de Popper para superar este problema se apoya en la distinción entre decisión y justificación. Así, según el autor, la experiencia perceptiva privada de cada científico motiva su decisión de aceptar un enunciado, pero no alcanza para justificarlo, pues eso solo puede hacerse mediante relaciones lógicas con otros enunciados. La aceptación colectiva de un enunciado resulta del consenso, del acuerdo convencional entre distintos observadores que individualmente han tenido experiencias perceptivas que motivaron su respectiva decisión particular.
Por lo tanto , todos los enunciados de las ciencias son hipotéticos, es decir: provisorios. No es posible probar la verdad de las teorías; solamente es posible probar su falsedad. Y ello debido a la asimetría entre verificación y refutación de los enunciados universales. Tales enunciados pueden refutarse mediante la aceptación de un solo enunciado básico falsador, en tanto que su verificación es lógicamente imposible.
Solo puede llegarse a la corroboración de las hipótesis, puesto que la prueba de la verdad no es accesible a la ciência. Las hipótesis corroboradas se incorporan al corpus del conocimiento científico, pero nunca de manera definitiva. Puede decirse que su contrastación jamás se da por concluida, ya que la máxima popperiana indica que los científicos deben continuar buscando ocasiones de refutar aun a las teorías más establecidas.
El progreso de la ciencia bajo la perspectiva falsacionista
De acuerdo con la propuesta de Popper, la contrastación de las hipótesis nunca concluye ya que todos los enunciados que componen las teorías científicas son falsables y, debido a la asimetría de la contrastación, no puede probarse su verdad sino, a lo sumo, considerar esos enunciados como corroborados.
Popper sostiene que la ciencia progresa aproximándose a la verdad, pero la verdad de las teorías jamás puede probarse. Así, según Popper , en la medida en que nos deshacemos de los contenidos falsos, nos acercamos a la verdade . No se trata de un acercamiento acumulativo, en el que se incrementa la probabilidad a través de la inducción –como sostuvo el confirmacionismo–. Se trata de un avance hacia la verdad mediante la eliminación de teorías falsas. Y, en la medida en que nos alejamos de los errores, al descartar teorías refutadas, estará más cerca de la verdad, pese a que no podamos acceder jamás a ella.
En palabras de Popper, la ciencia progresa mediante conjeturas y refutaciones.
La nueva filosofia de la ciência
El surgimento de la Nueva filosofia de la ciência
El análisis epistemológico se ocupa de definir cómo se produce el avance del conocimiento científico.
La postura del Positivismo lógico es coherente con su idea de que el conocimiento científico debe fundarse en la experiencia sensible y en la Lógica ; y que, en consecuencia, estos dos son los únicos caminos que permiten justificar el legítimo conocimiento científico. Los filósofos positivistas consideraban que laciencia progresa de manera acumulativa y continua,y que las nuevas teorías –altamente confirmadas– son mejores que las anteriores, por ser más abarcativas y más explicativas. Sin embargo, esto no implica rechazar y abandonar los logros ya alcanzados, puesto que las últimas teorías integran los éxitos de las viejas teorias.
Para Karl Popper, en cambio, la inducción no tiene papel alguno en el método de justificación de teorías , y el criterio de cientificidad para determinar qué enunciados forman parte de la ciencia y cuáles no, no es de significado empírico −como proponía el Empirismo lógico− sino un criterio de demarcación. El mismo le permite identificar las condiciones en que las hipótesis se deben dar por refutadas en la contrastación experimental. En cuanto al desarrollo en la ciencia, también advertimos contrastes entre los planteos de Popper y los del Positivismo, dado que a diferencia de este último, para Popper este proceso tiene que ver con un acercamiento a la verdad que ocurre por medio de refutaciones de las teorías que deben abandonarse cuando no superan la crítica llevada a cabo en el proceso de contrastación.
Tanto Popper como el Positivismo lógico , coinciden en el lugar central que otorgan a la justificación de teorías, dentro de la Filosofía de la ciencia, y en el papel fundamental que le asignan a la lógica. Su preocupación central está puesta, tanto en la reconstrucción de la estructura lógica del lenguaje científico, como en determinar las relaciones adecuadas entre hipótesis y evidencia. De manera diferente, ambas corrientes hacen especial hincapié en que toda explicación de los cambios científicos debe hacerse de manera racional y objetiva, es decir, sin intervención de factores extracientíficos. Esta exigencia implica poder establecer criterios neutrales para determinar cuándo estamos en presencia de teorías mejores que otras.
Esta perspectiva epistemológica es criticada por los filósofos de la ciencia que podemos englobar dentro de la corriente conocida como corriente historicista . Un exponente muy importante de dicha corriente fue Thomas Kuhn.
Kuhn señala que para comprender cómo se dan los cambios científicos debemos reconocer que hay otros factores (ideológicos, sociales, psicológicos, etc.) externos a la ciencia, que intervienen en las decisiones para elegir entre teorías. Además, conocer su funcionamiento real implica poder explicar cómo se ha desarrollado históricamente. Solo un enfoque histórico puede revelar en qué consiste la racionalidad científica.
Esta corriente comenzó a cuestionar algunos puntos fundamentales de la Perspectiva heredada o Concepción clásica de la ciencia −sostenida tanto por el Positivismo lógico como por el racionalismo crítico de Popper−.
Uno de los problemas que Kuhn observa en las propuestas epistemológicas anteriores consiste en la pretensión de encontrar un método unificado −de toda práctica científica− que justifique de manera objetiva el conocimiento producido. Para los epistemólogos clásicos, el cambio de teorías es posible a partir de patrones objetivos y neutrales, que autorizan a decidir qué teorías aceptar y cuáles rechazar . Desde esta perspectiva, la reconstrucción lógica permite decidir si una hipótesis está lógicamente justificada por la evidencia empírica y, en caso de ser racional, habilitar su aceptación. La Lógica es la instancia que logra conectar una creencia con la evidencia empírica. Asimismo, la pretendida objetividad presupuesta, reduce el papel de los sujetos que forman parte de esta actividad (dejando fuera sus intereses, sus valores, su contexto social, etc.). En suma, la concepción tradicional de la ciencia, la comprende como un saber fuera de la historia y ajeno a los sujetos que la producen.
La irrupción del pensamiento kuhniano puso en duda esa concepción de la ciencia. Kuhn sostiene que cualquier análisis que se haga sobre cómo cambia la ciencia debe incorporar una reflexión filosófica que, al mismo tiempo, esté sujeta al contexto histórico de su realización. Pone en evidencia que el o los métodos científicos evolucionan y varían en virtud de las distintas tradiciones de investigación. Esta concepción permite que el análisis epistemológico, antes reducido a las hipótesis y teorías, incorpore los procedimientos de prueba y los criterios de evaluación utilizados.
De esta forma se incorpora una nueva imagen de la ciencia: se trata de una práctica y no de un produto. Kuhn analiza los procesos por los cuales surgen y se abandonan las distintas teorías y plantea un nuevo enfoque sobre el cambio y el progreso científicos.
Para Kuhn, las propuestas anteriores no resisten una comparación con las pruebas históricas y ello ocurre, justamente, porque solo han ofrecido un análisis sincrónico de la ciencia, sin haber reparado en el contexto o en la realidad socio-histórica concreta en la cual se inserta la práctica científica. Así, Kuhn presta atención a las características sociológicas de los actores involucrados.
Critica la división entre contexto de descubrimiento y contexto de justificación de las hipótesis , así como la revisión sobre la distinción entre términos teóricos y términos observacionales . Para Kuhn no es posible la observación neutral, pues toda observación está encuadrada bajo un marco de supuestos básicos compartidos y determinada por una teoría previa. También los conocimientos previos, las experiencias pasadas y las expectativas del observador influyen y condicionan cualquier observación. Kuhn niega la pretendida neutralidad de la base empírica.
Para comprender, la dinámica de la ciencia que plantea Kuhn, es fundamental reparar en la noción de revolución científica.
Proceso histórico de la ciência
Período pré-científico
Kuhn encuentra que se pueden identificar diferentes períodos que se repiten en el desarrollo científico.
De acuerdo con el autor, en la primera etapa de una disciplina (por ejemplo, la Física o la Química) se encuentran diversas escuelas de pensamiento, heterogéneas entre sí y que coexisten. Cada escuela elabora sus propios presupuestos y creencias acerca de la naturaleza , lo cual implica que cada una de ellas lleva a cabo sus propias investigaciones que se traducirá en perspectivas incompatibles entre sí. En la medida en que ellas no cuentan con ningún marco conceptual unificado, capaz de guiarlas y organizarlas, en este primer momento, compiten para tratar de lograr más y mejores explicaciones de los fenómenos. Además, cada investigador se siente obligado a no compartir un método común con el resto de los investigadores. Este período es llamado precientífico y es considerado el momento previo al alcance de madurez de la disciplina. Cuando el campo de investigación queda unificado bajo la dirección de un mismo conjunto de supuestos básicos compartidos tiene lugar la aparición de un paradigma. Cuando este es universalmente aceptado, se conforma y consolida la genuina comunidad científica.
Este inicial período de caos es, como indica Kuhn, la manera en la que se alcanza la ciencia normal, es decir, es el momento preparadigmático, en el que se generan de manera heterogénea las condiciones para el surgimiento de um paradigma .
Ciencia normal
Al pasar del período precientífico al de madurez disciplinar, comienza el período de ciencia normal. Esto sucede porque se ha logrado, a lo largo del tiempo, constituir una cosmovisión compartida entre las distintas escuelas que antes competían entre sí pero que ahora se nuclean en torno a consensos básicos. Este primer consenso da paso al paradigma. Un paradigma es, para Kuhn, un logro científico. Es un logro porque ha sido consensuado por los investigadores. Kuhn compara las revoluciones científicas con una conversión religiosa por parte de los miembros de la comunidad científica porque se produce un cambio en la percepción del mundo objetivo. Por otro lado, al cambiar los criterios valorativos y la concepción general del mundo, no puede presuponerse para Kuhn un terreno objetivo y neutral desde donde pueda debatirse y decidir entre paradigmas alternativos.
Podemos entender por paradigma un concepto holista, es decir, una manera común de ver el mundo y que estructura tanto la actividad como la experiencia de todos los investigadores de la comunidad científica . El paradigma es invisible, funciona como una suerte de anteojo a través del cual vemos el mundo y no hay conciencia -por parte de los investigadores- de su intervención , ni se discuten sus fundamentos hasta entrar en crisis.
En el período de ciencia normal, se desarrolla la actividad propia de los miembros de cada especialidad científica, regida por un paradigma que les otorga la confianza de que se encuentran en el buen camino de la investigación.
En la obra de Kuhn, “La estructura de las revoluciones cientificas”, se caracteriza la noción de paradigma como las “realizaciones científicas universalmente reconocidas que, durante cierto tiempo, proporcionan modelos de problemas y soluciones a una comunidad científica ”. Aquí se incluyen tanto leyes o teorías como los instrumentos que serán utilizados por los científicos. Allí dice que el paradigma funciona como una matriz disciplinar y le otorga un sentido sociológico, en virtud de su referencia a la constelación de creencias que determinan la conducta de los miembros de la comunidad científica . Habla de matriz, en un sentido general, porque el paradigma está constituido por componentes de distinta índole que funcionan conjuntamente:
· Los principios metafísicos o presupuestos ontológicos son cierto tipo de creencias en modelos particulares que otorgan a la comunidad científica un horizonte general y una determinada orientación en la investigación.
· Las generalizaciones simbólicas son los componentes formales o fácilmente formalizables de la matriz disciplinaria. Las generalizaciones pueden expresar leyes de la naturaleza o, sencillamente, definiciones de términos.
· Los valores son importantes e influyentes en el comportamiento del grupo. Los miembros comparten cierta mirada de cómo debe ser la práctica científica; por ejemplo: qué requisitos deben cumplir las predicciones o cómo deben ser las teorias. Otro valor importante es que la ciencia debe tener una finalidad social.
· Los modelos compartidos por los miembros de la comunidad proporcionan analogías que permiten investigar otras estructuras.
Paradigma también puede ser considerado, en un sentido más específico, como ejemplar. Este último sentido refiere a los logros y soluciones concretas que se han encontrado frente a ciertos problemas. Estos ejemplares paradigmáticos conectan la teoría y la experiencia, y señalan desde qué perspectiva teórica debe verse y manipularse la naturaleza. De esta forma, cuando un miembro de la comunidad se encuentra con un nuevo problema, puede resolverlo como se han resuelto problemas ejemplares, estableciendo similitudes y diferencias.
La actividad específica de la ciencia normal es la resolución de enigmas. Kuhn define enigma como “una categoría especial de problemas que pueden servir para poner a prueba la habilidad de los científicos para resolverlos ”. Para que un problema pueda ser entendido como enigma, Kuhn dice que “debe caracterizarse por tener más de una solución asegurada. Asimismo debe haber reglas que limiten tanto la naturaleza de las soluciones aceptables, como lo pasos que es preciso dar para obtenerlas ”.
De manera que los científicos, guiados por el paradigma, llevan a cabo su propia actividad, esto es, resuelven problemas puntuales a partir de un método compartido que les permite ofrecer respuestas a los enigmas que se puedan ir planteando. El profesional debe poner a prueba sus conocimientos para resolverlos . Si los intentos por resolver el enigma se frustran, se juzgará al científico por su poca destreza o falta de ingenio, pero el fracaso no será atribuido al paradigma .
La actividad científica normal, gobernada por un paradigma , es concebida como acumulativa en tanto consiste en acrecentar el cúmulo del conocimiento sobre los fenómenos que el paradigma indica como relevantes . Asimismo, en esta etapa, se intenta articular cada vez más las predicciones de los hechos con el aparato teórico que el paradigma ofrece. Los miembros de la comunidad resuelven en esta etapa desde problemas conceptuales hasta instrumentales. Pero es el paradigma el que delimita o señala cuáles son los verdaderos enigmas e indica, además, cómo resolverlos.
La ciencia normal se sostiene a partir de compromisos conceptuales, teóricos, instrumentales y metodológicos que la relacionan con la resolución de enigmas, regida por un paradigma que es anterior a estos supuestos compartidos.
Hay progreso en los períodos de ciencia normal en tanto este se percibe como laaparición de enigmas y sus soluciones. La ciencia normal es acumulativa en lo referido al ajuste experimental y teórico. Sin embargo, no aspira a producir novedades fácticas o teóricas. De hecho, toda la dinámica científica se desarrolla a partir del intento por parte de los científicos deresolver enigmas, es decir, de dar una respuesta a fenómenos.
Si tomamos en cuenta el cambio científico desde una perspectiva histórica, esto es, desde el punto de vista de las revoluciones, entonces podría pensarse que ya no habría progreso acumulativo, porque hay una ruptura, un salto de un paradigma a otro que supone una nueva manera de pensar y ver el mundo y para poder afirmar el progreso es preciso presuponer una continuidad que aquí, tal como lo plantea Kuhn, no se da.
Las anomalías también son unainstancia problemática que reclama ser resuelta, , pero a diferencia de los enigmas −que implican una perspectiva de solución posible y determinada al interior del paradigma - designan casos y experiencias que se resisten a subsumirse en el aparato teórico y metodológico con el que se desarrolla la ciencia normal. Es decir, ellaspersisten como casos abiertos cuya respuesta no solo no se vislumbra como una posibilidad efectiva con los medios teóricos y metodológicos disponibles, sino que además involucran, según Kuhn, “el reconocimiento de que en cierto modo la naturaleza ha violado las expectativas, inducidas por el paradigma, que rigen a la ciencia normal”.
De esta manera, al interior del paradigma se podrían plantear dos escenarios frente a la aparición de an omalías: uno en el que se logra estabelecer alguna vía de resolución que permita disolverla y lograr “hacer de lo anormal algo esperado”. En ese caso, se intenta reformular alguna teoría o conjunto de teorías para que el fenómeno anómalo se vuelva explicable y predecible, es decir, para que sea un hecho científico más. En definitiva, esta primera vía consiste en mostrar que no se trata de una verdadera anomalía, sino de un enigma de difícil resolución . Pero también podría darse el caso de que la anomalía no solo no desaparezca, sino que se profundice y genere nuevas anomalías . Cuando esto sucede, es decir, cuando las anomalías se multiplican y la ciencia normal se ve impedida de llevar a cabo su funcionamiento efectivo, aflora en la comunidad científica un malestar respecto de la propia práctica que la terminará poniendo en cuestión. Pues si la ciencia normal se caracteriza por un ejercicio explicativo (resolución de enigmas), justamente, ante esta imposibilidad de disolver determinados problemas (las anomalías), su funcionamiento se ve amenazado.
Crisis
Cuando las anomalías se multiplican, comienza a surgir en la comunidad científica una nueva actitud ante su tarea: el escepticismo. Es decir, los investigadores empiezan a dudar de la posibilidad de resolver los enigmas y producto de la persistencia de las anomalías, emerge una sospecha acerca de la práctica científica en sí misma . En esta etapa o fase del desarrollo científico intraparadigmático, el escepticismo es la característica dominante en unacomunidad científica que, perpleja, extiende su incomodidad, desde la resolución de enigmas hasta las reglas de trabajo y el funcionamiento más general que estructuraba toda la práctica científica normal.
Así, este “período de inseguridad profesional profunda”, como lo caracteriza Kuhn, conlleva la puesta en cuestión y la consecuente pérdida de la confianza en el paradigma vigente . Pero, en esta etapa tiene lugar un proceso de atomización de la comunidad científica que comienza a dispersarse con el objetivo de abordar las anomalías desde diferentes perspectivas teóricas y metodológicas, tratando de encontrar algún curso posible de investigación. De esta manera, empiezan a surgir desarrollos científicos alternativos que podrán decantar, en el futuro, en un paradigma rival pero que, de momento, apenas son vías alternativas de indagación que buscan resolver las anomalías vigentes.
Las crisis indican un cambio en la actitud de los científicos, una modificación en la forma en la que estos llevan adelante su propia práctica, ya que esta comienza a volverse cuestionadora, de las teorías y la metodología disponible. Con lo cual, lejos de la presunción de eficacia en la resolución de enigmas, estos períodos que forman parte de la ciencia normal debilitan su funcionamento y, llegado el caso, tienen como corolario la puesta en cuestión del sustrato sobre el cual todo su funcionamiento se asienta, a saber, el propio paradigma.
En los períodos de crisis, en esas fases de transición signadas por el escepticismo científico sobre su capacidad solucionadora de enigmas, se podría encontrar alguna vía no explorada que destrabe la resolución de problemas cuya difícil solución impedía el normal funcionamiento de la ciência y, en consecuencia, recuperar así la confianza en el paradigma vigente. Pero no siempre sucede así. Porque, en general, comienza a darse una disputa entre diferentes teorías aisladas que compiten para tratar de explicar las anomalias y, en determinado momento, de entre todas esas teorías autónomas en disputa, se consolida alguna y comienza a ganar cada vez más adeptos. En esos casos, si la teoría permite cada vez mayores y mejores explicaciones, irá consiguiendo el consenso suficiente que le permitirá funcionar como fundamento capaz de articularse, luego, en un nuevo paradigma .
Los períodos de crisis son etapas de la ciência que por un lado, no se clausura la vigencia del paradigma cuestionado y, al mismo tiempo, tampoco hay un nuevo paradigma desde el cual abordar los fenómenos problemáticos y mirar de otro modo la realidad. Sin embargo, lentamente comienzan en esta fase a visibilizarse algunos elementos que, de profundizarse, podrían habilitar la conformación de un nuevo paradigma. Mientras tanto, el trabajo de los científicos está desorganizado y, fundamentalmente, dividido.
Podríamos esquematizar los períodos de crisis del siguiente modo:
· Ciencia normal: resolución de enigmas y surgimiento de una o varias anomalías.
· Las anomalías se profundizan (persisten sin resolución y se expanden, puesto que habilitan nuevas interrogaciones en otras áreas del paradigma que también quedan sin solución).
· Pérdida de la confianza resolutiva por parte de los científicos (escepticismo): período de crisis.
· Surgimiento y proliferación de nuevas teorías aisladas que tratan de dar cuenta del fenómeno anómalo desde otras coordenadas, por fuera del paradigma vigente.
Revolución cientifica
Cuando un paradigma es reemplazado por otro, estamos ante lo que Kuhn denomina una revolución científica . En palavras del Kuhn: “Las revoluciones científicas […] son episodios de desarrollo no acumulativo en que un antiguo paradigma es reemplazado , completamente o en parte, por otro nuevo e incompatible”.
En este pasaje se condensan dos elementos determinantes de todo su pensamiento: la centralidad de los paradigmas y el hecho de un desarrollo no acumulativo del conocimiento.
Inconmensurabilidad de los paradigmas
Introducción del concepto de inconmensurabilidad
(in) es un prefijo que indica una negación o imposibilidad,
(con) refiere a una unión o agregación de elementos,
(mensurable) alude al hecho de que algo se puede medir.
Inconmensurable es el nombre de una característica, de una propiedad o un adjetivo que designa algo enorme que por su gran magnitud no puede medirse.
Aquello que no se puede medir es algo que se sustrae a todo parámetro común, puesto que para medirlo se necesita un criterio externo, es decir, un patrón universal que habilite la determinación de aquello que va a someterse a medición. Por lo tanto, que algo sea inconmensurable en este sentido más general quiere decir que no admite ningún punto de contacto con otra cosa; que es a tal punto heterogéneo que no hay comparación posible.
Ahora, en relación con la teoría de Kuhn sobre los paradigmas, debemos recordar que cada paradigma delimita la realidad, los fenómenos científicos, los lenguajes y las metodologías desde sus propias coordenadas específicas, por lo que resulta imposible suponer una instancia exterior que permita compararlos . De modo que en los períodos revolucionarios no hay forma de determinar si un paradigma es mejor o peor que otro, puesto que ello requeriría de algún criterio extra-paradigmático que permita conocerlos, compararlos, y finalmente hacer una evaluación entre ellos. Y compararlos y evaluarlos, no es una alternativa viable dado que los criterios para ello estarán acotados por los propios límites del paradigma desde el cual se operarían la comparación y la evaluación.
La tesis de la inconmensurabilidad entre paradigmas permiteromper con el presupuesto clásico de undesarrollo continuo, acumulativo y progresivo del conocimiento científico para habilitar una manera alternativa de pensarlo.
Una vez que se consuma la revolución científica, es decir, cuando se reemplaza un paradigma por otro, en la medida en que los paradigmas son inconmensurables entre sí, estamos ante nuevas coordenadas teórico-metodológicas para llevar adelante la tarea científica.
La inconmensurabilidad habilita a cuestionar la imagen habitual de laciencia para invitarnos a concebirla de una manera no gradual, no secuencial, no acumulativa ni progresiva. La dinámica científica que tiene en mente Kuhn se desarrolla de manera fragmentaria y discontinua, acotada siempre a cada paradigma. De este modo, estamos ante una perspectiva científica que piensa el conocimiento (y por ende, también el cambio científico) en términos históricos, que acepta que el saber científico será siempre un saber relativo. Relativo al paradigma. Y, dado que no hay ningún argumento racional que permita determinar qué paradigma es mejor que otro, simplemente debemos reconocer que los hechos científicos son lo que son, en relación con el paradigma del cual surgen y en el cual “son percibidos”.
Esta propuesta epistemológica admite que la razón se da en un marco socio-histórico determinado y que el conocimiento es determinado por las fronteras socio-históricas específicas de cada paradigma. Se trata de una aproximación diferente al planteo de la epistemología clásica, para la cual es fundamental encontrar criterios objetivos de determinación de la elección entre teorías, pues considera que estas decisiones se toman internamente –a través de la lógica y la evidencia empírica–, y sin intervención alguna de factores externos (sean ellos históricos, sociológicos o de cualquier otro tipo).
El concepto de inconmensurabilidad en el marco de “La estructura de las revoluciones científicas”
En “La estructura de las revoluciones científicas”, Kuhn presentó la tesis de inconmensurabilidad paradigmática, conocida como inconmensurabilidad fuerte o inconmensurabilidad ontológica . Ella se refiere a que la realidade que cada paradigma describe y explica, son incompatibles con otros paradigmas . Es decir, lo que se considera que existe queda determinado por cada paradigma, con sus compromisos teóricos y metodológicos puntuales . De esta forma, la noción de inconmensurabilidad dio paso a una nueva forma de pensar el conocimiento científico desde una lógica progresiva y acumulativa de los saberes, hacia una concepción dinámica centrada en la incompatibilidad y la ruptura. Podemos abordar la inconmensurabilidad desde tres aspectos diversos:
- 1. Inconmensurabilidad perceptual: el cambio de paradigma (la revolución científica) es concebido como un corte radical que inaugura un nuevo mundo o una nueva manera de percibirlo. Si bien el mundo objetivo es siempre el mismo, cada paradigma lo percibirá y comprenderá desde sus coordenadas teórico-metodológicas propias. Esto es, habrá tantas formas de percibir la realidad como paradigmas posibles para pensarla y experimentarla. Kuhn busca dejar en claro que no se trata de afirmar que no existe un mundo en sí mismo, sino que simplemente busca pensar que el mundo es siempre abierto y conocido desde un determinado paradigma.
Kuhn compara la inconmensurabilidad perceptual con las imágenes reversibles de la psicología de la Gestalt; de hecho, establece que las revoluciones científicas pueden pensarse como un “switch gestáltico”, es decir, como un cambio perceptivo. Esto sucede cuando ante una misma imagen, se pueden ver dos figuras diferentes alternativamente, es decir, cuando fondo y figura se confunden, ya que parecen intercambiables. En estos casos, dependerá de la decisión de quien observa si pone de fondo lo negro o lo blanco, obteniendo en cada caso imágenes diferentes.
Lo destacable del abordaje gestáltico de la imagen que recupera Kuhn es que no se pueden percibir las dos formas a la vez: es una u otra. Esto último permite comprender más cabalmente la semejanza con su teoría paradigmática y comprender por qué paradigma e inconmensurabildad son nociones mutuamente dependientes: 1) si las revoluciones científicas funcionan como sucede el cambio perceptivo en las imágenes, quien abandona un paradigma ya no puede ver lo que veía desde el paradigma anterior ; y ello se debe a que 2) quien mira con los “anteojos” de un determinado paradigma no tiene manera de ver aquello que solo se percibe desde la mirada que habilita otro paradigma. La imagen, en cierto modo, es la misma. Lo que vemos de ella, como lo que percibimos de la realidad, se modifica. Una vez que la transformación ha tenido lugar, el cambio es irreversible.
Para ejemplificar este caso, Kuhn compara las revoluciones científicas con la conversión religiosa. Para quien se convierte, el mundo objetivo o el mundo real sigue siendo el mismo; sin embargo, la manera en que lo piensa, lo vive y lo explora es por completo diversa puesto que lo mira desde otra perspectiva .
2. Inconmensurabilidad metodológico instrumental: al considerar la inconmensurabilidad perceptual, se comprende que cada paradigma genere su propio instrumental de trabajo. Se advierte que, si bien se sirve de la metodología de su antecesor, en ningún caso, la funcionalidad será la misma, puesto que la realidad a la cual se aplican se ha visto alterada. Cada paradigma prescribe una determinada manera de pensar la realidad y determina la metodología y el instrumental necesario para abordarla.
3. Inconmensurabilidad lingüística: un mismo término utilizado en dos paradigmas distintos no refiere a lo mismo, sino que, como cada paradigma inaugura una visión de mundo alternativa, la significación se verá alterada . Es decir que las mismas nociones, en paradigmas diferentes, nombran cosas diferentes. Por ende, esta dimensión de la inconmensurabilidad tiene una consecuencia fundamental, que consiste en la interrupción de la comunicación entre paradigmas rivales. En paradigmas diversos, los términos nombran realidades distintas .
El concepto de inconmensurabilidad en escritos posteriores de Kuhn (reformulaciones de un concepto problemático)
Esta primera versión fuerte de la inconmensurabilidad fue reformulada por Kuhn en varias ocasiones: la primera en la ya mencionada “Posdata: 1969” y, años más tarde, en otros artículos, entre los cuales destacaremos un escrito de 1982, titulado “Conmensurabilidad, comparabilidad y comunicabilidad”. Si bien los dos artículos continúan sosteniendo la noción de inconmensurabilidad, la noción se matiza y debilita.
En el primero de los textos mencionados, Kuhn presenta una versión restringida de la inconmensurabilidad. Pensemos lo siguiente: para interpretar una teoría determinada, hay que aprender el lenguaje en el que está plasmada. Así, podríamos pensar la inconmensurabilidad como una dificultad comunicacional en la que determinados científicos no manejan el lenguaje de otra comunidad científica . Por ello, esta dificultad se resolvería −aunque sea parcialmente− a partir de lo que Kuhn denomina un sistema de traducción. Esto es, los científicos que integran una determinada comunidad científica y que, por eso mismo, comparten un mismo paradigma, pueden ser comparados como miembros de una comunidad lingüística. De allí que al cambiar el paradigma, es decir, al tener que enfrentarse con “un nuevo idioma”, se requiere de un trabajo de traducción que garantice la comunicación entre ambos linguajes.
Sin embargo, si bien se admite la posibilidad de traducción entre paradigmas , persiste para Kuhn un rasgo de inconmensurabilidad que no podrá ser superado: los términos taxonómicos. La traducción no podrá ser total entre dos paradigmas distintos (es decir, no habrá forma de superar completamente la inconmensurabilidad) puesto que existen, en cada uno de ellos, una clase especial de términos –los términos taxonómicos o términos de clase– que no tienen equivalente por fuera del paradigma en el que funcionan significativamente . Kuhn afirma que no se puede traducir un término puesto que, para comprender su significado, hay que recurrir a nociones complementarias que, desde el paradigma, también carecen de traducción. La advertencia de Kuhn resalta que la traducción de este tipo de términos no podrá nunca ser total, puesto que siempre repone compromisos (teóricos y metafísicos) más amplios que no siempre tienen un equivalente en otros paradigmas.
Kuhn publica “Conmensurabilidad, comparabilidad y comunicabilidad” Y retoma la cuestión desde lo que denomina inconmensurabilidad local. Esta nueva versión de la inconmensurabilidad ya no designa una relación entre paradigmas sucessivos y, por lo tanto, puede aplicarse simultáneamente a diferentes teorias que trabajan bajo el mismo paradigma. Es decir, aquí se diagnostica una nueva clase de inconmensurabilidad que no es entre diversos paradigmas, sino entre términos intraparadigmáticos.
Como resultado de la hiperespecialización que tiende a darse en cada rama particular de las ciencias que comparten un mismo paradigma, pueden ocurrir desarrollos independientes que, llegado el caso, perderían la posibilidad de entrar en contacto . En consecuencia, debido a la terminología superespecializada que prolifera en cada una de las (sub)disciplinas científicas que comparten el mismo paradigma, se puede pensar nuevamente en la necesidad de traducción entre teorías que funcionan en un área específicamente localizada dentro del paradigma.
El convencimiento acerca de la imposibilidad de traducir una teoría a otra sin que ello no implique algún tipo de pérdida es prueba irrefutable de este compromiso con la inconmensurabilidad. El convencimiento acerca de la imposibilidad de traducir una teoría a otra sin que ello no implique algún tipo de pérdida es prueba irrefutable de este compromiso con la inconmensurabilidad. Una noción que expone su compromiso radical con una visión de la ciencia que reconoce su despliegue como una práctica históricamente situada, en la que la realidad queda moldeada por los límites de cada paradigma y que, en última instancia, reconoce que el cambio científico es una instancia irreversible y que implica un cambio tan grande que hace conmover los cimientos de nuestra propia imagen del mundo y con él, el de la ciencia.
La filosofia feminista de la ciência
Una variante de crítica epistemológica contemporánea: la filosofía feminista de la ciência
La posición de Kuhn acerca del papel crucial de los factores extracientíficos (tales como los aspectos sociales, políticos, económicos, religiosos, psicológicos, etc.) abrió el paso a la visibilización de muchos factores no contemplados por la epistemología clásica que desempeñan un papel determinante a la hora de elegir una teoría o refutarla. La filosofía feminista de la ciencia, por su parte, se ocupó de profundizar el análisis acerca del impacto epistemológico de esos factores.
Los estudios realizados en el ámbito de la filosofía feminista de la ciencia incluyeron aportes provenientes de otras disciplinas, (la historia de la ciencia, la sociología de la ciencia y la ética de la ciencia), cuyos contenidos se tomaron como objeto de una reflexión sobre la ciencia centrada en la crítica de los sesgos de género que afectan las prácticas de la investigación y a las teorías resultantes.
Los enfoques que componen esta corriente epistemológica feminista se engloban bajo el objetivo de visibilizar y cuestionar el sexismo y el androcentrismo presentes en la producción, validación, formulación, difusión, aplicación y conceptualización del conocimiento científico.
De acuerdo con Elizabeth Anderson: “ Los feministas están interesados en revelar las causas de la opresión de las mujeres, exponiendo la dinámica de género en la sociedad y produciendo conocimiento que las mujeres puedan usar para superar las desventajas a las que están sujetas ”.
La primacia de la situacionalidad
El concepto central de la epistemología feminista es el de cognoscente situado. Este significa, todo conocimiento es situacional, es decir, que la manera en que se conoce refleja la situación del sujeto cognoscente . La situacionalidad epistémica está determinada por varios componentes:
· La corporalidad es el modo en que experimentamos el mundo en nuestros cuerpos según su constitución y ubicación en el espacio y el tiempo.
· El conocimiento proveniente de nuestro propio cuerpo y nuestros estados mentales se trata del conocimiento “en primera persona” que aunque pueda describirse, dado que es interno, no es transmisible.
· La representación que hacemos de los objetos se refiere a que la versión que construimos de los objetos que conocemos varía según nuestras emociones e intereses, según nuestras relaciones con otros y según nuestra cosmovisión o marco de creencias generales.
El género es considerado como un modo de la situación social que resulta de la manera en que las sociedades operan con las diferencias sexuales.
En suma, concebir el conocimiento como situado y el género como un modo de la situación social permite visibilizar los múltiples modos en que el conocimiento puede ser afectado por el género.
Tres tradiciones en la epistemología feminista
Según la clasificación de Sandra Harding,dentro de la epistemología feminista, existen tres tradiciones fundamentales, a saber:
· la denominada “teoría del punto de vista”,
· el postmodernismo;
· el empirismo.
La teoría del punto de vista
La teoría del punto de vista considera que la situación social proporciona una posición epistémicamente privilegiada. Los partidarios de esta teoría sostienen que la perspectiva de los grupos desfavorecidos (las mujeres constituirían uno de tales grupos) es epistémicamente superior a la de los grupos dominantes cuando se trata de estudiar los fenómenos sociales y políticos que los involucran.
Cuando las teorías del punto de vista adoptan la posición feminista, afirman que existen para las mujeres tres tipos de privilegio epistémico:
1) Las mujeres tendrían un conocimiento más profundo de la sociedade
El punto de vista de las mujeres como grupo desfavorecido revela las regularidades fundamentales que subyacen a los fenómenos sociales y psicosociales en los que el género está involucrado, mientras que la perspectiva dominante, en cambio, sólo capta regularidades superficiales. Por ejemplo, la posición de las mujeres permitiría conocer en profundidad cómo opera el género en la sociedad y mostrar el funcionamiento del sistema patriarcal que resulta invisible para otros sujetos que no tienen esa experiencia.
Otro tipo de conocimiento más profundo deriva del“estilo cognitivo”. De acuerdo con la teoría feminista de las relaciones objetales, desarrollada por Nancy ChodoroW, los varones desarrollan sus identidades a partir de la separación de sus madres y ello supone rechazar lo femenino y priorizar la necesidad de mantener distancia y límites . En cambio, según esta teoría, las niñas adquieren su género identificándose con sus madres, lo que las hace más propensas a borrar los límites entre sí mismas y los otros . Así, los varones desarrollan una manera de conocer identificada con lo abstracto, teórico, desencarnado, distanciado emocionalmente, analítico, deductivo, cuantitativo, atomístico y orientado hacia valores de control y dominación. En cambio, según la teoría de las relaciones objetales, el estilo cognitivo de las niñas se desarrolla como concreto, práctico, encarnado, emocionalmente involucrado, sintético, intuitivo, cualitativo relacional y orientado hacia valores de cuidado y protección. De acuerdo con la teoría de las relaciones objetales , este estilo proporciona a las mujeres un privilegio para el conocimiento dado que les permite percibir el mundo de una manera relacional, vinculándose con los objetos de conocimiento de un modo inaccesible para los sujetos de otro estilo.
2) Mientras que la perspectiva patriarcal tiende a representar las desigualdades sociales existentes como naturales y necesarias , la perspectiva de las mujeres representa a estas como socialmente contingentes y muestra cómo podrían revertirse.
Según la teoría feminista del punto de vista, sólo la experiencia directa permite a las mujeres identificar el carácter injustificado de, por ejemplo, la distribución del trabajo que les atribuye los roles de cuidado en el ámbito doméstico. Por ser quienes viven esa experiencia, sólo ellas pueden dar fe de que no hay nada “naturalmente asignado” a las mujeres en las funciones de cuidado o en ciertas tareas de servicio. La experiencia directa les proporciona un conocimiento privilegiado por estar motivado por la necesidad de desvelar las injusticias mientras que con la posición patriarcal dominante ocurre lo contrario. Poco interesada en subvertir el orden social que los beneficia, los sujetos del patriarcado no perciben nada problemático en aceptar ese orden como si fuera “natural”.
3) Ofrecen una representación del mundo social en relación con intereses humanos universales.
La perspectiva dominante patriarcal representa los fenómenos sociales sólo en relación con los intereses asociados con los varones , aunque ideológicamente los presenta como si fueran intereses universales. En contraste, la visión epistémicamente privilegiada de las mujeres en tanto grupo desfavorecido permite acceder a una versión de los fenómenos sociales más representativa de los intereses humanos universales.
Dentro de esta perspectiva, el estilo cognitivo de las mujeres, postulado por la teoría de las relaciones objetales, ejemplifica también este acceso privilegiado a una representación en función de intereses humanos universales . Se supone que las mujeres, socializadas a partir de la denominada “ética del cuidado” pueden captar necesidades ajenas invisibles para quienes no sean mujeres y así construir una versión de los fenómenos sociales que no represente únicamente sus intereses, como ocurre con la perspectiva dominante.
Críticas a la epistemología feminista del punto de vista
1) Circularidad - Si la respuesta señala a los sujetos mismos que lo detentan, la validez del privilegio solo podrá ser reconocida por los miembros de ese grupo, pero no por el resto de los cognoscentes.
2) Carácter patriarcal del privilegio - Si, como sostiene la teoría de las relaciones objetales las mujeres tienen un mejor acceso al conocimiento y ello se debe a que han sido socializadas desde su infancia bajo la ética del cuidado, entonces ese conocimiento no es mejor que outro sino que el presunto “privilegio epistémico” se debe también a lascondiciones de socialización vigentes, que son patriarcales.
3) Desconocimiento de la diversidad - La experiencia de la opresión toma distintas formas para diferentes mujeres dependiendo de su raza, orientación sexual, etc., por lo que no podría llegar a unificarse el punto de vista. Sostienen críticos está contemplado solo el privilegio de las mujeres blancas de clase media . El concepto de “mujer” con su pretensión unificadora desconoce el carácter situado de las distintas mujeres y termina así reforzando las relaciones de poder imperantes.
4) Esencialismo. La teoría del punto de vista parece presuponer que la constitución de las identidades que dan lugar a cada estilo epistémico (el femenino y el masculino) son necesarias y transhistóricas. Sostener que la identidad de género se constituye según la modalidad y las causas postuladas por la teoría de las relaciones objetales, conduce a caracterizar como una norma algo que es, en realidad un conjunto de hechos construidos de manera contingente.
Estas últimas críticas se originan en la perspectiva postmodernista que propone evitar afirmaciones universales acerca de “la mujer”, “lo femenino” y renuncian a establecer jerarquías entre los puntos de vista de los cognoscentes.
El feminismo epistemológico postmodernista
Esta perspectiva caracteriza el conocimiento como una construcción discursiva constituida por una pluralidad de perspectivas . Cada una de tales perspectivas es relativa y ninguna puede representar la realidad objetivamente . La realidad misma, según se considera, se presenta como una construcción discursiva y no es posible conocerla tal cual es. En consecuencia, no es esperable alcanzar una teoría científica unificada que capture la verdad total acerca del mundo . Las teorías científicas son solo distintos “relatos” caracterizados por la elección de diversos lenguajes que contienen diferentes términos, y esa elección es un ejercicio de poder, ya que determina qué contenidos van a ser incluidos o excluidos del “relato” o “narración” al que consideramos conocimiento científico.
El feminismo postmodernista embandera la tesis de que el género no es esencial sino construido por las prácticas sociales y los discursos , y varían históricamente. En consecuencia esta corriente feminista rechaza el concepto de mujer y el esencialismo. La idea de que hay algo que es “la mujer” debe abandonarse y ser sustituida por la de una interseccionalidad fragmentaria que indica los diversos modos de composición de distintos rasgos constitutivos de la identidad.
Críticas al feminismo postmodernista
1) La indiscutible circunstancia de que mujeres experimenten el sexismo de maneras diferentes no implica que no exista un elemento común que pueda dar cuenta de la existencia de una identidad femenina.
2) Renunciar a la categoría de mujer conduce a que las perspectivas subjetivas se multipliquen al infinito.
3) Esa proliferación de identidades impide que se considere legítimo el conocimiento de las fuerzas sociales que actúan negativamente contra las mujeres. Esta circunstancia −sostienen los críticos del postmodernismo− conduciría a una paradójica recaída en la concepción tradicional donde los individuos volverían a ser considerados sujetos separados que se vinculan solo bajo el concepto de humanidad. Un concepto falsamente inclusivo e indiferenciado que, en realidad, encubre las desigualdades denunciadas por el feminismo.
El empirismo feminista
El empirismo propone criterios para identificar en qué circunstancias el carácter del conocimiento puede generar errores en las investigaciones y distinguir esas circunstancias de otras en las que la situacionalidad misma puede resultar beneficiosa para la ciencia. Será de su interés exponer los sesgos presentes en teorías, conceptos y métodos.
Dada su raíz empirista, el recurso a la base empírica y la lógica es, para esta perspectiva, el fundamento de la evaluación de las teorías pero, a diferencia de sus precursores positivistas lógicos, los empiristas feministas no consideran que la experiencia pueda describirse en términos observacionales neutrales . Contrariamente, adoptan la tesis de la “carga teórica” de la observación. Esta tesis conduce al empirismo feminista a afirmar que no hay un lenguaje puramente observacional, ni una observación pura sin una carga teórica. Los términos observacionales son ellos mismos, en alguna medida, también teóricos.
El pilar fundamental de esta perspectiva es elreemplazo de la noción de sujeto individual de la ciencia por el de la comunidad científica. La ciencia se comprende así como una empresa social protagonizada no por científicos individuales, sino por comunidades de conocimiento.
Críticas al empirismo feminista
1) La paradoja del sesgo - Esta paradoja parte de la circunstancia de que gran parte de la tarea de la epistemología feminista consiste en exponer los sesgos androcéntricos y sexistas presentes en la investigación científica . Además, esa tarea se justifica en el supuesto de que el sesgo es epistémicamente indeseable, es decir, que puede conducir a aceptar creencias que en realidad son falsas . Pero a la vez, muchos partidarios del empirismo feminista reclaman que la investigación científica debe encarnar valores feministas. Y eso conduce a una paradoja pues supondría incorporar nuevos sesgos.
2) La paradoja de la construcción social. El empirismo feminista declara que los factores sociales y políticos siempre influyen en la investigación científica y que el conocimiento es resultado de una construcción social . A la vez, con frecuencia las teorías que se revelan como sexistas o androcéntricas tienen tal carácter debido a la influencia sobre la investigación de valores sexistas imperantes en la sociedad . Así, rechazar tal sexismo parecería obligar a esta corriente a promover un sujeto científico individual, aislado de la influencia social y una ciencia sin valores sociales. Cuestionar las teorías afectadas por los valores sexistas imperantes en la sociedad sería equivalente a exigir que el conocimiento ya no sea una construcción social condicionada por valores.
La estrategia del empirismo feminista para enfrentar estas paradojas consiste en mostrar que, en realidad, se trata de paradojas aparentes. Según Anderson las mencionadas dificultades constituyen paradojas solo en apariencia ya que, de acuerdo con el empirismo feminista, el reconocimiento de valores y los factores sociales como parte de la ciencia no desplazan ni eliminan a la lógica y ni a la evidencia empírica como ejes de la investigación científica . Ambos grupos de factores no son opuestos.
La investigación científica −sostiene Longino - debe emplear la evidencia empírica y la lógica para procurar acercarse a la verdad y debe basar la elección de las teorías considerando los valores que indican cuán buena es una teoría en relación con los fines de la comunidad científica . Se trata de valores característicos de las teorías, propiedades que se consideran deseables y que permiten elegir cuando aparecen teorías en competencia. Vale decir que frente a dos teorías que pretenden explicar el mismo fenómeno y que tienen el mismo grado de confirmación empírica puede preferirse , por ejemplo, la que sea más simple, o bien la que permita formular las predicciones más precisas o la que explique más fenómenos. Estas propiedades, de acuerdo con el empirismo feminista, tienen un carácter social ya que su significado y modo de aplicación varía de comunidad en comunidad, a lo largo de la historia. Si se prefiere la teoría más precisa, se dejará de lado seguramente la que abarque más tipos de fenómenos. Por esa razón, esos valores característicos de las teorías son indiscutiblemente sociales y su aplicación no se reduce a ningún procedimiento algorítmico.
Pero la estrategia empirista de superar las paradojas mediante el reconocimiento de propiedades teóricas (entendidas como valores) que −junto a la lógica y los elementos de juicio empíricos− condicionan laelección de teorías enfrenta un riesgo: el relativismo.
De acuerdo com el empirismo feminista esta corriente evita el relativismo mediante propuestas normativas, quien postula que la comunidad científica debe contar con una organización regulada por normas de interacción crítica que permitan asegurar la objetividad, una objetividad que será de índole social. Esas normas servirían para que los y las científicas de diferentes perspectivas se vean obligadas a poner bajo el escrutinio crítico sus respectivas posiciones y, así, llegar a consensuar qué estándares compartidos (valores) serán los que se aplicarán para elegir entre distintas teorías o hipótesis.
La simplicidad, la precisión, la amplitud de fenómenos explicados serían ejemplos de estándares basados en valores cuya adopción consensuada críticamente podrían complementar a la evidencia empírica y la lógica para posibilitar la evaluación y justificación de las teorías científicas sin caer en un relativismo (es decir, en un “vale todo”) a la hora de juzgar teorías.
Intervenciones críticas de las epistemologías feministas
Gran parte de la crítica epistemológica feminista se originó en los problemas que los propios científicos identificaron acerca de los sesgos sexistas y androcéntricos en las prácticas de sus propias disciplinas.
El primer tipo se refiere a los estudios que muestran cómo se ha excluido o marginado a las científicas mujeres y cómo esas circunstancias resultaron perjudiciales para el progreso de la ciencia misma.
Aplicaciones sexistas
El segundo tipo está compuesto por estudios acerca de cómo las aplicaciones de la ciencia y la tecnología perjudican a las mujeres al representar sus intereses como irrelevantes o menos valiosos . Se proporciona recursos y capacitación a los varones pero no a las mujeres, reforzando, así, las jerarquías de género.
Teorías sexistas
El tercer tipo consiste en estudios acerca de cómo la ciencia ha invisibilizado a las mujeres y el género a través de las teorías mismas. Estos estudios prueban que muchas teorías ampliamente aceptadas deben ser reemplazadas por otras mejor fundadas.
Estereotipia sexista
El cuarto tipo de estudios incluye los que muestran cómo investigaciones acerca de las diferencias sexuales se construyen de modo que refuerzan los estereotipos de sexo.
En otros casos, el sexismo aparece en los conceptos que subyacen a la investigación. Quien considera que el género es una variable dicotómica (es decir, quien sostenga que, dado que hay dos tipos de cuerpos reconocibles biológicamente, debe haber también sólo dos “identidades” de género que sean además mutuamente excluyentes), no considera relevante incluir en una muestra a personas con distintas construcciones de género. Esta circunstancia desvía dramáticamente la investigación hacia un resultado decididamente erróneo.
¿Ciencia feminista?
Sostienen que ciertos sesgos pueden operar no como desvíos que conducen la investigación hacia el error sino, al contrario, como recursos epistémicos.
Científicos feministas del estilo cognitivo feminino
Los partidarios de esta corriente sostienen que la ciencia feminista debe apoyarse en una metodología especial o “femenina” basada en la idea de que existen dos estilos cognitivos propios de “lo masculino” y “lo femenino”.
Desde esta perspectiva, la ciencia feminista debería basarse en lapreferencia de lo concreto sobre lo abstracto, evitar generalizaciones acerca de las mujeres para centrarse en la riqueza y particularidad de las vidas de cada una y concebir a la realidad como compuesta por relaciones en lugar de por individuos. Los métodos deberían tener como ejes la intuición, el compromiso emocional y otros factores asociados con la sensibilidad femenina, como la preferencia por los rasgos cualitativos por encima de los cuantitativos.
Científicos feministas pluralistas
En agudo contraste con los defensores de la ciencia “femenina”, la posición pluralista rechaza la indicación de normas de femineidad para la práctica científica porque no existen pruebas de que el “estilo cognitivo femenino” conduzca a teorías más probablemente verdaderas. El pluralismo considera que la ciencia feminista debe enfocarse en la aplicación de valores feministas que conduzcan a preferir las teorías que visibilicen los aspectos de género en lugar de naturalizarlos o invisibilizarlos.
Aplicando la idea del pluralismo, se propone que la realidad es muy rica y compleja y que por lo tanto puede ser representada a partir de diversas teorías y lenguajes. Cada una de esas teorías y los lenguajes que emplean se encarna en distintas comunidades cuyos intereses específicos las orientan a enfocarse en determinados objetos de la realidad y estudiar aspectos específicos de sus objetos de conocimiento. La ciencia feminista sería una más entre esas múltiples investigaciones científicas informadas por distintos intereses.
Dimensión ética de la ciência
Introducción
Hacia la ética en la ciência
En tanto disciplina filosófica, la Ética consiste en una reflexión que tiene por objeto de estudio la moral, es decir, las costumbres, hábitos y normas que rigen la conducta de un individuo o de un grupo de personas . La Ética constituye un campo del saber filosófico, con su propia historia y con su producción teórica plasmada en textos y libros. Pero, en tanto pensamiento problematizador, lo que mueve la reflexión ética, lo que origina esas producciones posteriores, son las preguntas acerca del bien, del deber, sobre aquello que resulta correcto o incorrecto hacer, la indagación en profundidad acerca de los fundamentos y los principios de nuestras acciones y conductas. Y cuando la ética se dirige a la ciencia y a la tecnología, permite construir interrogantes y planteos que de ningún modo son propiedad exclusiva de científicos ni de filósofos profesionales.
Dos maneras de pensar la Ética en la ciência
Podemos señalar dos abordajes a las cuestiones éticas vinculadas con la ciencia: un enfoque internalista, que hace hincapié en la práctica científica, en la conducta, los valores intervinientes y las decisiones del científico en el transcurso de la investigación , y un enfoque externalista, que se basa en el impacto social que tiene la ciencia y la tecnología, y en los problemas éticos asociados a ese impacto .
Un documento de la National Academy of Science de Estados Unidos, brinda normas institucionales explícitas o implícitas que hacen a la conducta y responsabilidad del investigador. Algunas de esas normas se refieren a los errores cometidos en el transcurso de la investigación, errores que pueden ser honestos, como los provocados por la falta de cuidado, inatención o precipitación. Otros de los errores se refieren a los que involucran algún tipo de engaño, como el plagio, la invención de datos o la falsificación de resultados.
En este tipo de documentos que abordan los errores que se pueden cometer en la investigación científica , encontramos unaética de la investigación científica que serviría para transparentar la actividad científica y dar, al mismo tiempo, un marco de referencia para la conducta en este ámbito. En el mismo sentido, Karl Popper elaboró una lista de deberes del científico que se refiere a la exigencia por la honestidad intelectual en la búsqueda de la verdad . Las objeciones aceptables a la actividad de los científicos, según Popper, tienen que ver con las conductas que no cumplen con la veracidad, la objetividad, la lealtad en la competencia; es decir, con aquellas conductas que no cumplen con las virtudes propias de las exigencias internas de la metodología científica. Para este autor, también, hay una responsabilidad del científico respecto de la humanidad, que consiste en evitar el sufrimiento ; pero la responsabilidad y la ética científica operan, fundamentalmente, en el ámbito profesesional. Tanto el documento de la National Academy of Science como las exigencias y deberes del científico señaladas por Karl Popper se refieren claramente a lo que aquí llamamos análisis internalista de la ética en ciencia.
Por otra parte, cuando pensamos en los problemas éticos vinculados al impacto de los avances científicos y técnicos, y a los conflictos que esto genera, nos abrimos a la dimensión ética en el ámbito de aplicación de la ciencia. Puede decirse que todo ser racional participa de alguna manera de la reflexión ética, en el sentido de que todos juzgan moralmente, toman decisiones y pueden justificar sus actos de diferentes maneras haciendo referencia a principios morales. Esto no quiere decir que todos realicen reflexiones sobre los principios filosóficos de sus acciones . En cualquier caso, la relación entre la ética y los usos de la ciencia constituye uno de los principales problemas de la Ética aplicada.
El término Ética aplicada hace referencia al espacio en el cual se piensan las normas o principios morales de contenido general en función de situaciones particulares, que son siempre únicas e irrepetibles. Se trata de la aplicación de principios de la Ética teórica a diferentes ámbitos y prácticas sociales , lo que da lugar a contextos específicos para la reflexión ética. De este modo, podemos hablar de Ética médica, Ética deportiva, Ética de la comunicación, Bioética, Ética de los negocios, Ética periodística, etc. Dado el creciente número de conflictos morales a los que dan lugar las innovaciones científicas y tecnológicas, su abordaje requiere tanto de la información precisa que pueda ofrecer la ciencia, como del esclarecimiento filosófico de los principios éticos que orientan nuestras reflexiones y decisiones. Y requiere también y fundamentalmente de otros actores involucrados en los conflictos, más allá del saber experto, técnico o profesional.
La ética en la biotecnologia
Según el Convenio sobre la diversidad biológica, biotecnología se refiere a aplicación tecnológica que utilice sistemas biológicos y organismos vivos para la creación o modificación de productos o procesos para usos específicos.
Convivimos con la velocidad de los avances que crean posibilidades nuevas. Nos encontramos en una etapa experimental porque sabemos que todo va a cambiar, pero no sabemos cómo van a ser esos câmbios . Los progresos de la biotecnología presentan planteos éticos actuales y reales, en general vinculados a la Medicina. La tecnología es ambigua: genera la solución a viejos problemas, pero posibilita problemas nuevos .
El principio de precaución exige minimizar los riesgos derivados de las actuales investigaciones en este campo . Y, al mismo tiempo, por las promesas y esperanzas que conllevan esas investigaciones, existe la exigencia moral de no abandonarlas, exigencia que podemos llamar, siguiendo a Maliani, principio de exploración. Hay casos en los que la sola posibilidad técnica genera la obligación de investigar: la implementación de biotecnología para prevenir o curar enfermedades mortales, por ejemplo. Habida cuenta de las múltiples posibilidades que la biotecnología ofrece, cobra especial relevancia el principio elemental de que no todo lo posible es lícito. Muchas de las posibilidades abiertas por esta disciplina son cuestionables.
La noción de responsabilidad y la comunidad de evaluadores ampliada
Una de las nociones centrales para pensar los efectos de la ciencia y de la tecnología en la vida de las personas y de la sociedad contemporánea es la noción de responsabilidad . Para elucidar el término en el sentido que nos interesa, resulta necesario vincular dicha noción con la idea de intencionalidade. Quedan excluidas, por tanto, de estas consideraciones aquellas razones meramente causales de una acción. En esos casos no adjudicamos responsabilidad moral ni legal, pues simplemente utilizamos el adjetivo responsable para señalar una relación de causa-efecto.
La adjudicación de responsabilidad que nos interesa, vinculada al sentido moral y legal del término, requiere de un agente intencional, agente que debe ser capaz de responder por sus propios actos y de prever las consecuencias de estos . La responsabilidad requiere de libertad , pues si se excluye la posibilidad de actuar de otro modo, se elimina la nuestra conducta . El ser humano es libre porque elige, de algún modo, una conducta, una manera de actuar . Y solo en ese caso puede ser responsable. Por último, conviene recordar un punto que aporta un peculiar matiz al análisis: hablar de responsabilidad en el ámbito de los efectos de la ciencia y la tecnología no es sinónimo de culpabilidad.
El análisis de la noción de responsabilidad permite hacer otradistinción, entre la responsabilidad individual y la responsabilidad colectiva. Este último término resulta analizar los efectos nocivos de la actividad científica sobre el planeta y la biodiversidad. La ciencia y la tecnología son abstracciones si no hacen referencia a agentes concretos de carne y hueso que puedan dar cuenta de los resultados y consecuencias de sus actos.
Algunos autores hablan de una comunidad de evaluadores extendida para hacer referencia a la necesidad de considerar otros actores −al margen de los técnicos y de los científicos− al momento de evaluar los riesgos de las investigaciones científicas y la aplicación de tecnología. Ante proyectos complejos de gran envergadura e impacto en la sociedade se adopta un modelo de evaluación en el que se considere el riesgo no como algo abstracto y determinable en forma cuantitativa, sino pensándolo desde una dimensión integral que incorpore otras perspectivas además de la económica: la medioambiental, la política e incluso la perspectiva y los intereses de las personas directa o indirectamente involucradas. Es discutible cuál debería ser el alcance y el estatus de los evaluadores, pero una evaluación meramente técnica no puede predecir los riesgos con absoluta certeza y precisión, y, en casos de perjuicios irreversibles, no admiten un mero cálculo.
Sería ingenuo sobreestimar la incidencia de este tipo de evaluaciones que incorporan otras miradas a los problemas suscitados por el avance de la ciencia y la técnica, pero es un hecho que las sociedades democráticas modernas tienden a incorporar instituciones para que ello ocurra cada vez más asiduamente.
El cientificismo y la neutralidad valorativa de la ciência
El saber científico se ha desarrollado contra el sentido común y las ideas más asentadas y naturalizadas de los saberes circulantes en cada época.
La confianza en la ciencia moderna proviene de la convicción de que ella es producto principal y exclusivo de la razón. Desde el siglo XVIII, laIlustración fortaleció esa confianza en la razón frente a los prejuicios, los saberes infundados, los dogmatismos y autoritarismos; en suma, frente a cualquier tipo de oscurantismo y de irracionalidad de la experiencia humana. Cualquier saber que se precie de científico se identificará, desde la Modernidad, con la búsqueda racional de la verdad. Y no solamente en el campo teórico, sino también, en el de sus aplicaciones prácticas.
La ciencia , según esta mirada optimista, hasta los inicios del siglo XX será la actividad capaz de conocer verdaderamente el mundo, y de poder mejorarlo, controlarlo, en pos de la felicidad del hombre . Las enfermedades, la pobreza, la naturaleza desconocida, la materia y el ámbito psíquico, la organización social y la vida en todas sus dimensiones, todo ello puede ser abordado y estudiado para su conocimiento y, llegado el caso, para su control y mejoramiento. La Primera Guerra Mundial, Auschwitz, Hiroshima son algunos de los sucesos que erosionaron esa confianza y mostraron el lado oscuro de la ciencia . El lado luminoso del progreso científico se hace patente en el mejoramiento de la vida, en la extensión del confort y la lucha contra las enfermedades, en las posibilidades de la comunicación y la velocidad de circulación . Pero a esto se le opone el costado oscurola llamada tragedia del desarrollo vivenciada en el siglo XX con los acontecimientos señalados.
Las corrientes epistemológicas no vinculaban la ciência a la um saber verdadeiro. Si bien el Positivismo lógico sostenía la imagen acumulativa del desarrollo científico, ese conocimiento era solo probable. Popper y su postura falsacionista abonaron la idea del conocimiento provisorio, falible e hipotético. Y la Nueva filosofía de la ciencia discutió la noción misma de progreso científico, afirmando un saber científico relativo, no gradual ni acumulativo. Sin embargo, la ciencia sigue gozando en cierta medida de prestigio y confianza; la imagen de la ciencia como conocimiento seguro predomina en el saber común de la mayoría de las personas y circula fuertemente en los medios masivos de comunicación.
En el optimismo sobre la ciencia subyace una perspectiva de la ciencia denominada cientificismo, que tiene su elaboración, también, entre algunos epistemólogos.Mario Bunge diferencia entre la ciencia pura, la ciencia aplicada y la tecnologia. Las dos primeras buscarían obtener conocimiento de un recorte de la realidad, sin otro fin que el de enriquecer el saber humano. La ciencia pura pretende obtener conocimiento y es libre en la elección de sus problemas y sus métodos, y en la decisión del rumbo de sus investigaciones. La ciência aplicada aplicaría el conocimiento obtenido por la ciencia básica a problemas prácticos y más específicos. Según Bunge, en ambos casos se trata de comprender y explicar la realidad, pero la ciencia aplicada apunta a posibles temas de interés social y puede ser planificada, aunque no es libre de elegir sus propias líneas de investigación, ya que estas dependen de necesidades ajenas a la búsqueda del conocimiento por el conocimiento mismo. La tecnología se distingue de la ciencia pura y de la ciencia aplicada porque a ella compete la utilización del saber y teorías científicas para la modificación de la realidad. De este modo, Mario Bunge y el cientificismo en general sostienen la neutralidad valorativa de la ciência, pero no así la de la tecnología: mientras que la ciencia pura es desinteresada, la tecnología produce efectos reales en el mundo y está orientada a determinados fines que pueden ser valiosos o, por el contrario, perjudiciales, por lo que es preciso someter a la tecnología a controles de tipo moral y social.
Para el cientificismo se puede separar la búsqueda de la verdad desinteresada, el afán de conocimiento propio de la ciencia, por una parte, y el ámbito de sus aplicaciones, propio de la tecnología, por otra. A pesar de las diversas críticas recibidas desde diferentes autores y corrientes epistemológicas, el cientificismo mantiene una influencia muy grande en ciertos sectores de la sociedad: es un lugar común sostener que la ciencia busca desinteresadamente el saber y que no depende del científico (ni de la ciencia) el uso que se haga de ese saber neutro y objetivo. Según la perspectiva cientificista, aquellos que utilizan esos conocimientos, ya para hacer el bien, ya para hacer el mal, son quienes tienen responsabilidad y son susceptibles de sanción moral. Esos son los decididores, los actores políticos y económicos, responsables exclusivos por los usos del saber científico. Desde esta perspectiva , la ciencia en sí misma no es éticamente responsable por el uso non sancto de sus conocimientos; la responsabilidad les cabe a aquellos actores que pertenecen e interactúan con el campo de la tecnología .
Cientificismo es una expresión que no es sinónimo de científico. Es cierto que muchos científicos comparten las ideas del cientificismo: la ciencia como conocimiento objetivo, acumulativo, racional, verdadero . Ahora bien: se puede hacer ciencia sin ser cientificista . La Filosofía de la ciencia es un tipo de saber particular que tiene como objeto de estudio la ciencia. Pero no es ciencia; es filosofia. Y el enfoque filosófico suele indagar lo más obvio y cercano, aquello que se presenta como familiar y sin problemas. En ese sentido, preguntarse, sospechar y poner en evidencia los supuestos de una visión dominante sobre la ciencia es una tarea filosófica. Y, por eso, el enfoque filosófico de la ciencia permite tomar distancia de ella, advertir sus prejuicios e intentar ir más allá de su apariencia inmediata y evidente, de sus descubrimientos y producciones tecnológicas.
La tecnociência y la crítica al modelo de la ciência martillo
Enrique Marí epistemólogo y crítico de la perspectiva cientificista, se refirió a esta postura como el modelo de la ciencia martillo. Según este autor, el cientificismo cree que los conocimientos científicos no son ni buenos ni malos en sí mismos, pues depende de para qué se los use. Del mismo modo que un martillo, que puede ser utilizado para fines benéficos o puede ser utilizado para fines destructivos o negativos. Así, no tiene sentido adjudicar al instrumento responsabilidad, maldad o bondad, puesto que es justamente una herramienta que depende de quién y en qué sentido se la utilice. En cambio, desde el punto de vista anticientificista −asumido por Marí−, la imagen de esta herramienta no da cuenta de la forma social del conocimiento.
El uso separado de los términos ciencia y tecnología, la propia diferenciación, obedece a la perspectiva cientificista de separar dichas actividades al interior de la práctica científica. En cambio, es decisivo para el anticientificismo hablar detecnociencia. Ese término hace referencia a la vinculación entre la ciencia y la tecnología que muestra la actual conformación de la empresa científica en su conjunto. Según el anticientificismo, la garantía de verdad y la búsqueda de la utilidad −que el cientificismo separa − están integradas e interrelacionadas.
La distinción que hace Mario Bunge y el cientificismo entre ciencia pura, ciencia aplicada y tecnología, para el anticientificismo es abstracta e idealizada . En realidad, para Marí esa diferencia debe comprenderse en su contexto, ya que responde a diferentes tareas de una misma actividad que, en rigor, desde el inicio de la Modernidad tiene un propósito fundamental: la búsqueda de leyes que regulan los fenómenos, con su consecuente poder de predicción. Más aún, la tecnociencia busca el conocimiento en función del control y la manipulación de los fenómenos y de la naturaleza .
La tecnociencia es el modo de nominar esta vinculación entre las diferentes tareas del proceso científico, la conexión entre ciencia y tecnología. Tanto como el deseo de saber, es el deseo de poder el que mueve la actividad científica toda. La ciencia constituye una institución de saber/poder que no obedece a lo que el cientificista cree. La contrastación de hipótesis y teorías científicas y todo lo referido a las dificultades teóricas para establecer su verificación no son un fin en sí mismo, sino un medio para obtener mayor dominio sobre los fenómenos. Y la ciencia pura, para el anticientificismo busca el control de la naturaleza.
Adjudicarle a ese momento la actitud de saber por el saber mismo, insistir en el desinterés en la búsqueda de la verdad, evita que toda la ciencia sea sometida a planteos éticos, dejando ese terreno para el momento de la aplicación del saber científico: la tecnología y quienes deciden sus usos.
La investigación científica −sostiene el anticientificismo− posee determinados intereses: el científico puede creer que busca el conocimiento desinteressadamente, pero el fenómeno en el que se sostiene su trabajo es más amplio y comprende otros momentos y tareas. Y como bien se sabe, la investigación también comprende diferentes modos de financiación. Es decir, la imagen del científico solitario haciendo pruebas en un laboratorio no responde a la conformación actual de la ciencia en el capitalismo contemporáneo. Hoy, las inversiones destinadas a la investigación tienen un componente no exclusivamente humanitario o altruista. Lo que impulsa las investigaciones, muchas veces, es la lógica de dominación de la naturaleza, y actualmente, en asociación con ella, la lógica de maximización del capital. Los conocimientos básicos de la ciencia podrán incrementar el saber teórico, pero constituyen desde el origen de cualquier investigación la posibilidad de su utilización para fines prácticos.
Para el anticientificismo, la búsqueda del saber está ligada a compromisos sociales, porque la misma ciencia es un producto social y tiene consecuencias que el científico debe prever. Junto con los demás participantes de la actividad científica, los científicos son responsables por los usos que se harán de sus investigaciones, por los riesgos asumidos y por las consecuencias sociales de la aplicación de sus saberes.
Políticas cientificas
Se llama política científica a las medidas públicas que adopta un Estado para fomentar el desarrollo de la actividad científica y tecnológica e impulsar la innovación, con el fin de poder utilizar los resultados de la investigación para el crecimiento y desarrollo del país. La política científica es un tipo de política pública, como la económica o la educativa, cuyo objeto específico es la ciencia.
David Guston define a la política científica como una suerte de contrato social en el que los políticos acuerdan con la comunidad científica que le proveerán los recursos que necesiten (esto es, financiarán sus investigaciones) dejando que la propia comunidad científica sea quien decida a qué investigadores deberían ir esos fondos . Siempre que hay un contrato se espera algo de la otra parte: en este caso, la expectativa de los políticos que financian las investigaciones es obtener beneficios tecnológicos no especificados de parte de la comunidad científica. Esta manera contractual de entender las relaciones entre la comunidad política y la científica no siempre es útil para despejar las siguientes dificultades: por un lado, contar con recursos para financiar la investigación y la promoción de la actividad científica y, por el otro lado, determinar qué investigaciones promoverán un mayor beneficio a la sociedad.
Esta definición de política científica abre dos líneas de reflexión que han sido diferenciadas por Albornoz. Una se refiere a cómo se dan las influencias de la política en la ciencia, esto es, cómo el poder fáctico y político interviene en la investigación científica . La otra se orienta a evaluar cuáles son las instituciones e instrumentos que utilizan los gobiernos para operar en la política científica.
La implementación de una política científica determinada depende dedecisiones políticas condicionadas por cuestiones contextuales e históricas. Por ejemplo, una política científica puede estar pensada en función de la seguridad nacional y orientarse a desarrollos relacionados con las guerras, puede estar dirigida por intereses propios del mercado, como mejorar la competitividad de un país o enfocarse en el desarrollo sostenible y establecer como estrategia priorizar las energías renovables. En todo caso, las políticas científicas no dependen tanto del propio método científico, sino de los intereses contextualmente determinados de los gobiernos .
A lo largo de la historia de la ciencia, los primeros casos claros de este tipo de condicionamientos histórico-contextuales se ven ejemplificados en los mecenas, aquellas familias poderosas que financiaban y protegían a científicos. Sin embargo, se suele considerar que la política científica, tal como la conocemos hoy, nace recién hacia finales de la Segunda Guerra Mundial. A partir de la guerra, los gobiernos de los países industrializados comprendieron la importancia de movilizar sus recursos científicos para sus objetivos políticos , como lo ilustra el caso del proyecto Manhattan, que culminó con la creación de la bomba atómica. En este caso se dio una conjugación particular de intereses y proyectos de distintos sectores, tales como el gobierno, los militares, la industria y la comunidad científica.
Proyecto Manhattan
Una de las grandes preocupaciones de los países aliados durante la Segunda Guerra Mundial era si la Alemania nazi había comenzado o no a desarrollar la bomba atómica. Al finalizar la guerra, se descubrió que tal temor era infundado; los físicos alemanes habían cometido un error en el cálculo sobre la masa crítica que se necesitaba para construir la bomba atómica y habían informado a los militares que su confección era imposible. Sin embargo, antes de conocer esto, tal temor dio impulso a Gran Bretaña, Estados Unidos y Canadá para dedicar esfuerzos al financiamiento del proyecto Manhattan.
Los primeros pasos para la creación de la bomba fueron dados por dos científicos alemanes, quienes habían huido del régimen nazi y trabajaban en la Universidad de Liverpool. Sin embargo, debido al riesgo inminente de una invasión alemana a Inglaterra, varios de los físicos involucrados en este proyecto consideraron que lo mejor era emigrar y continuar con las investigaciones en Estados Unidos.
Oliphant viajó a Estados Unidos para dar un informe sobre el proyecto de construcción de la bomba. Allí, convenció acerca de la importancia de financiar las investigaciones para crear la bomba atómica. El presidente estadunidense Franklin Delano Roosevelt aprobó la asignación de fondos para esas investigaciones y la creación del proyecto Manhattan.
El responsable del proyecto fue Leslie Groves, un general de brigada, no cientifico.
Los primeros lineamientos de la politica cientifica
Un año antes de la finalización de la Segunda Guerra Mundial, Roosevelt solicitó a Bush, quien era entonces director de la Oficina de Investigación y Desarrollo Científico de los Estados Unidos, la elaboración de un informe sobre cómo transformar el conocimiento científico desarrollado en tiempos de guerra para ser aplicado en tiempos de paz.
El informe elaborado por Bush lleva por título Ciencia, la frontera sin fin y constituye un documento fundacional acerca de cómo deber ser la política científica.
El modelo de política científica que presentó el informe es conocido como un modelo lineal de innovación y desarrollo . Se denomina lineal porque parte del supuesto de que hay un camino natural de progreso desde la ciencia básica hacia la ciencia aplicada y el desarrollo tecnológico , que resultaría en mejoras sociales y económicas. Según esta propuesta, la política científica debe estar orientada a financiar prioritariamente las investigaciones en ciencia básica. Bush sostenía que la ciencia básica, destinada a explorar nuevos campos teóricos, crea la mayoría de los nuevos conocimientos y proporciona las bases para el progreso tecnológico .
Bush consideraba que elEstado, junto con el apoyo privado, debíafinanciar la ciencia básica a través de institutos de investigación y Universidades. Tal propuesta se basaba en la idea de que los gobiernos tienen la obligación de financiar la actividad científica con el objetivo de obtener mejoras sociales y económicas. El informe señalaba que las instituciones de investigación debían permanecer autónomas y sin ningún control gubernamental respecto de la libertad de elección sobre los temas de investigación . Sin duda, la experiencia del proyecto Manhattan habían dejado una enseñanza: era precisolimitar la intervención del poder político y militar sobre la actividad científica.
El informe radica en haber marcado el surgimiento de una política para la ciencia coordinada por Estado.
Las políticas científicas deben ser planificadas, esto es, deben ser sostenidas durante un largo plazo para poder alcanzar los objetivos propuestos. Tal planificación deber tener en cuenta varios factores.
¿Qué investigar?
La cantidad de recursos que un país destina a la investigación científica –en lugar de a otros proyectos públicos− es una decisión política, también lo es la elección de cómo deben distribuirse esos recursos entre sus investigadores.
Perspectiva practicista: prioridad de ciencia aplicada
Según Bunge, la ciencia pura o básica es aquella que busca el conocimiento para enriquecer el saber humano por el mero saber humano . La ciencia aplicada, por su parte, aplica el conocimiento obtenido por la ciencia básica para resolver problemas prácticos y específicos. En ese sentido, la ciencia aplicada no elige sus problemas de investigación, dado que depende de la ciencia básica.
La perspectiva practicista afirma que se debe priorizar el financiamiento de la ciencia aplicada ya que la ciencia debe estar al servicio de la sociedade ; por lo tanto, desde ese punto de vista, la investigación científica debe contribuir a resolver problemas prácticos vinculados al desarrollo económico y social del país. Ejemplos de estas contribuciones serían la implementación de energías renovables en los hogares, la creación de semillas más resistentes a las sequías, de alimentos nutritivos y baratos y de vacunas para prevenir enfermedades. En este sentido, nos hallamos frente a una nueva definición de política científica como contrato social: la autonomía de los científicos a la hora de decidir qué investigar o no se ve erosionada, ya que su libertad de elección temática debería estar supeditada a las demandas concretas de la sociedad. Según esta posición, entonces, la política científica de un país debe ser diseñada prioritariamente en función de los intereses y urgencias nacionales, esto es, de sus intereses económicos y sociales.
Perspectiva cientificista: prioridad de la ciencia básica
Bunge, representante del cientificismo, ha sostenido que , a diferencia de la posición practicista, debe darse prioridad a la financiación de la ciencia básica. Para este, existen razones para demostrar la importancia de la investigación básica en la ciencia. Esto parte del supuesto de que las investigaciones en ciencia básica traerán beneficios en un futuro no especificado.
Críticas a la postura practicista que prioriza la financiación de la ciencia aplicada
A primera vista, priorizar el financiamiento de proyectos en ciencia aplicada pareciera ser insensible a la propia historia de las relaciones entre ciencia básica y aplicada, entre ciencias y tecnología. La historia demuestra que muchos de los grandes descubrimientos de la humanidad derivaron de investigaciones que parecían no conducir a nada imediato . En esta dirección, la investigación en ciencia básica ha traído toda clase de beneficios a largo plazo para la humanidad.
Quienes priorizan el financiamiento de proyectos en ciencia aplicada suelen considerar que el problema de la financiación en ciencia básica reside en que sus beneficios no parecieran ser inmediatos . Los beneficios a largo plazo no compensarían las pérdidas en el costo . Quienes consideran que se debe dar prioridad a la ciencia aplicada, no pretenden abandonar la investigación básica , sino dejarla en manos de grandes potencias desarrolladas que pueden asumir ese costo. Estas naciones sí deben invertir en la investigación que, a largo plazo, impulsará los avances científicos en algún futuro incierto.
Críticas a la postura cientificista que prioriza la financiación de la ciencia básica
Los autores que sostienen que se deben financiar prioritariamente los proyectos de ciencia básica deben enfrentar oposiciones de tipo político en contextos menos desarrollados y regiones en vías de desarrollo. Dado que estas sociedades tienen grandes núcleos de pobreza, hay una escasa y desigual calidad de servicios, sus instituciones son débiles.
En primer lugar, podemos pensar en lalibertad de investigación de los científicos. Por un lado,la elección temática de los propios científicos pareciera reducirse con esta postura ya que ellos no podrán desarrollar la creatividad necesaria para una rica investigación científica. Muchos investigadores terminan emigrando hacia países más ricos donde suelen disponer de más recursos económicos y, por lo tanto, más financiamiento para investigaciones científicas. Esto trae como consecuencia que los Estados de países en desarrollo utilicen ineficientemente sus recursos; por un lado, invierten en la formación de científicos pero, por el otro lado, no ofrecen incentivos para que esa formación sea volcada en nuevas generaciones o proyectos de investigación.
En segundo lugar, si se habla de eficiencia y motivos económicos, pareceria más económico financiar la investigación básica que la aplicada, ya que la primera exige menos inversión que la que se necesita para el desarrollo de innovaciones tecnológicas.
En tercer lugar, los países en desarrollo están condenados a trabajar sobre temas y agendas marcadas por los países centrales, las cuales no siempre responden a un bien común generalizable.
Por último, cuando se considera a la ciencia únicamente desde una perspectiva utilitaria, se olvida que esta no es únicamente un instrumento para fines ulteriores (en este caso, para el desarrollo económico y social de un país), sino que también es un elemento de la cultura .
¿Deben financiarse las ciencias sociales y humanas?
Tanto las ciencias sociales como las humanas son ciencias básicas. Una razón a favor de laciência básica consiste en que, allargo plazo, resultará de utilidad y ofrecerá beneficios al conjunto de la ciudadanía.
Stanley Fish publicó una nota titulada “¿Nos salvarán las humanidades?. Se preguntaba justamente por la aplicación de los resultados de las investigaciones en disciplinas humanísticas y ciências. Los sistemas científicos, no solo financian investigaciones de ciencias sociales, sino que también financia estudios que se suelen denominar “Humanidades”. Entenderemos bajo el nombre de “Humanidades” los estudios filosóficos, de literatura y crítica de arte.
Fish sostiene que las Humanidades “no hacen nada” si por “hacer” entendemos que produzcan efectos en el mundo. Dado esto, no producen ningún tipo de transferencia de los resultados de su investigación en la ciudadanía en general. Su valor, entonces, pareciera ser puramente intrínseco ya que solo pueden considerar su valor los propios investigadores en ciencias sociales y humanísticas. Puesto de otra forma, sólo “producen” placer en aquellos que la cultivan.
El artículo de Fish recibió respuestas. Entre ellas, Harry Elam señaló la influencia de producciones artísticas para motorizar y producir cambios sociales. Elam menciona cómo la población afroamericana de Estados Unidos pudo utilizar formas artísticas como formas de resistencia ante la opresión y como herramientas para la lucha por la liberación.
Estos ejemplos pueden encontrarse también en ciencias sociales. Ellas presentan instancias de transferencia de sus resultados en las vidas cotidianas de los individuos y las sociedades.
Por último, resta considerar la importancia de las ciencias sociales y humanidades en la educación. Al respecto, la filósofa Martha Nussbaum sostiene una posición humanista. Esta perspectiva considera que son las artes, las humanidades (tales como la filosofía y la literatura) y las ciencias sociales las que conforman los cimientos de una buena ciudadanía, puesto que son imprescindibles para desarrollar la inteligencia y la capacidad crítica, la empatía, el pensamiento autónomo, y los medios para poner en cuestión las tradiciones irracionales o la presión de los pares. Considera que sin el cultivo de esas disciplinas la democracia se ve fuertemente debilitada . A través de ellas, la ciudadanía puede reflexionar críticamente sobre su orden de valores, sus prácticas y, eventualmente, modificarlas si las considera injustas. Sin ellas, las prácticas que consideramos injustas o desiguales serían asimiladas como naturales, estabilizando un status quo desigual y bloqueando las posibilidades de reforma . En este sentido, una política científica que no atribuya un lugar importante a la financiación de las ciencias sociales está condenada a asumir sus prácticas y sus valores como inmutables.
Comunidades científicas: estructura y financiación
Recursos y financiación
La ciencia , desde un punto de vista abstracto, es un conjunto de teorías con el propósito de explicar el universo que nos rodea. Sin embargo, la ciencia también tiene un componente más concreto y social, porque es realizada por los científicos, que son personas.
Para ser llevada a cabo, la ciencia necesita recursos humanos y materiales. Los recursos humanos son las personas que llevan a cabo la investigación científica. Y los recursos materiales más importantes son salarios (para los investigadores) y equipamiento (instrumental, reactivos, laboratorios) para llevar a cabo las investigaciones.
En general, la ciencia o la tecnología pueden ser financiadas por empresas, por universidades o por agencias del Estado.
Casi todos los países del mundo tienen sistemas mixtos, donde distintos sectores aportan su cuota de recursos para la investigación.
Formas de medir la inversión en ciencia
La medida absoluta indica cuánto invierte un determinado país en desarrollo científico y tecnológico. Esta medida es útil pero no necesariamente sirve para evaluar comparativamente la política de cada país. Algunos países invertirán menos dinero por el simple hecho de que su economía es más pequeña.
Una medida más realista toma en cuenta el Producto Bruto Interno (PBI) del país. El PBI mide la producción que se realiza dentro de un país a lo largo de un año. En términos generales, un país con actividad económica más pujante tendrá un mayor PBI, aunque esto también se relaciona con la cantidad de habitantes.
La medida relativa de inversión en ciencia y tecnología toma en cuenta la cantidad de dinero invertido, en relación con el PBI del país.
Modos de legitimación de la ciência
Los criterios tecnológicos se refieren a la contribución de la persona en cuestión a la innovación técnica. Usualmente los criterios tecnológicos pueden medirse en la importancia y la cantidad de patentes del investigador en cuestión. Una patente es un registro con nombre y apellido de una idea o un método, de modo tal que el sujeto se registra como “inventor” de ese producto. Esto garantiza que nadie puede vender ese producto sin la autorización de la persona que registró la idea.
Los criterios académicos se refieren a la contribución de la persona en cuestión al conocimiento científico. Esto tiene usualmente la forma de artículos cortos, publicados en revistas especializadas. Un artículo científico es un texto donde se intenta defender alguna hipótesis y se muestran las evidencias que se hallaron en su favor.
Comunidad cientifica argentina
En la Argentina, la actividad científica y tecnológica argentina está mayoritariamente compuesta por organismos e instituciones del Estado: universidades nacionales, agencias de investigación, institutos de investigación y empresas de innovación tecnológica.
Dentro de una universidad, se desarrollan actividades de investigación en la mayoría de las áreas científicas existentes.
A diferencia de las universidades nacionales, los institutos de investigación se dedican a un tema específico.
Si bien los métodos de legitimación de un científico son hasta cierto punto universales, cada país tiene un sistema científico y tecnológico distinto. Esto dependerá de su sistema educativo y de su estructura productiva. El sistema argentino no se basa en una inversión particularmente fuerte, pero se apoya en instituciones públicas, como universidades, institutos y agencias de investigación.
Preguntas y Respuestas entre Usuarios: