Altillo.com > Exámenes > UBA - UBA XXI > Introd. al Pensamiento Científico
Pens. Científico | Resumen de las Unidades 1 a la 7 | 2º Cuat. de 2010 | Altillo.com |
UNIDAD 1
USO Y MENCION DEL LENGUAJE
USO del lenguaje: cuando nombramos entidades extralinguisticas, por ej. cuando afirmamos “el caballo es blanco”
MENCION, cuando el enunciado se refiere a objetos lingüísticos o a propiedades predicables del propio lenguaje, hace necesario recurrir al señalamiento de distintos niveles de lenguaje que pueden estar involucrados y a la noción de METALENGUAJE.
En tales casos se usan comillas para señalar aquellas porciones del lenguaje que resultan mencionadas.
Para el análisis de los SIGNOS LINGUISTICOS recurrimos al METALENGUAJE.
Ej. “caballo” es una palabra de 3 sílabas
La distinción entre USOY MENCION es fundamental
En la Edad Media dio lugar a la llamada TEORIA DE LAS SUPOSICIONES. Entre éstas hay 2 que son de interés particular:
1) la SUPOSICION FORMAL (SUPPOSITIO FOMARLIS) se decía que una expresión estaba en suppositio formalis cuando se refería a una entidad, por ej. Dios es omnipotente.
2) La SUPOSICION MATERIAL (SUPPOSITIO MATERIALIS) Una expresión estaba en suppositio materialis cuando se refería al nombre de la entidad, por ej. Dios es monosílabo. En nuestra convención “Dios” es monosílabo.
Escolásticos: aunque conocedores de la distinción entre el uso y la mención no adoptaron ningún indicador en la escritura de los signos. Se fiaban del contexto para descifrar en qué suppositio eran tomados cada uno de los enunciados.
En nuestra terminología, la distinción entre uso y mención está basada en la llamada TEORIA DE LA JERARQUIA DEL LENGUAJE, que consiste en distinguir entre un lenguaje usualmente llamado LENGUAJE OBJETO y el lenguaje de este lenguaje, usualmente llamado METALENGUAJE. Este es el lenguaje en el cual hablamos acerca del lenguaje objeto.
Por ej. “los cuerpos pesados” es verdadero
“es verdadero “pertenece al un metalenguaje.
“los cuerpos son pesados” es el lenguaje –objeto.
El Lenguaje-objeto es siempre INFERIOR al metalenguaje, pero no en sentido VALORATIVO. Designa simplemente el lenguaje del cual se habla, y especifica su posición en el universo del discurso.
Por otro lado el metalenguaje es inferior a otro metalenguaje en que se habla de él.
Por ej. “hombre” es una palabra del idioma castellano, es inferior al metalenguaje de la frase “hombre” es una palabra del idioma castellano “es verdadero.
Siempre se puede predicar algo más sobre lo ya dicho, por lo que la serie de metalenguajes es infinita.
Esto, llevado al delirio lo encontramos en un pasaje del libro publicado en 1871 por Lewis Carroll “A través del espejo y lo que Alicia encontró allí”, donde juega con la idea de que las cosas y los nombres tienen nombres.
Siempre se puede mencionar el nombre de un nombre sin que haya límite, aunque en condiciones normales alcanza 2 o 3 niveles.
TEORIA NOMINALISTA – OCKHAM
Afirma que las especies, los géneros y los universales no son realidades anteriores a las cosas, son simplemente nombres con los que se identifican objetos.
Aplicando el principio de contradicción afirma que es absurdo sostener que el concepto universal corresponde en la realidad a algo universal, pues si esto sucediese no se podría entender cómo una misma naturaleza universal o común puede estar toda ella presente en individuos singulares y distintos.
Principio de economía. Formula conocida como “la NAVAJA DE OCKHAM”, enfatiza que fuera del alma (in anima) no existe nada que sea estrictamente individual, es decir, del LENGUAJE, que lo utiliza como SIGNO apto para ser predicado de varios individuos. Este principio de economía o navaja, se refiere a que los “entes no deben multiplicarse sin necesidad”
Como religioso admite sólo una realidad primera, autosuficiente, necesaria y absoluta, Dios todopoderoso, creador de todo lo que él no es.
El ejercicio de la razón humana, asentada sobre la base firme de la observación y la experiencia, queda reducido a descubrir cómo son las cosas y no cómo deberían ser.
Unifica la propuesta del teólogo, el lógico y el epistemólogo.
“En vano se hacen con más cosas lo que se puede hacer con menos”
Se opone a la creencia de que a cada expresión lingüística le corresponde una realidad
Nombres significan (reemplaza) las cosas singulares
Rechaza la naturaleza como base explicativa de nuestro conocimiento universal, sin renunciar a justificar el conocimiento científico.
Para resolver el problema de la universalización de los conceptos universales, introduce una novedosa concepción del SIGNO .los conceptos son una creación de la facultad cognoscitiva. Solo lo individual es REAL y lo GENERAL SOLO EXISTE “IN ANIMA”
Las palabras tienen la propiedad de suponer, estar en el lugar de, o de suplir algo. Teniendo en cuenta que el significado se identifica con la extensión de su nombre, o sea, con los individuos, en el caso de los universales, el término supone no un individuo sino un SIGNO MENTAL.
SEMIOTICA:
Es la disciplina que se ocupa de elaborar una teoría general de los signos.
En sentido amplio, los SIGNOS, son representaciones o representantes de distintos tipos de entidades que pueden o no ser reales. Una antigua definición del signo dice que es ALGO QUE ESTA EN EL LUGAR DE OTRA COSA.
Es SIGNO todo aquello que tiene la capacidad de reemplazar o sustituir algo.
Charles Sander Pierce (1839-1914) distinguió 3 tipos de signos:
1) EL INDICIO O SIGNO NATURAL: que es lo que mantiene una relación causal entre el representante y lo representado. Ej. La fiebre es signo de enfermedad.
2) EL ICONO: Es un signo que presenta una relación de semejanza o parecido de algún tipo con lo representado. Una foto, una estatua ,un mapa o carteles son iconos
3) EL SIMBOLO: es aquel signo donde la conexión entre el signo y lo representado es arbitrario y convencional. este tipo de signo es muy importante ya que es el que afecta a los signos lingüísticos y a los lenguajes científicos .de este tipo son los números, las palabras de nuestro lenguaje, las banderas, luces del semáforo , sirenas de ambulancia y muchos otros fenómenos que se usan para representar distingos significados.
Estos fenómenos sirven para representar otros en la medida en que hay un uso establecido convencionalmente. Está asociación es aceptada culturalmente e impuesta por los usos de los lenguajes.
DEFINICION DE LENGUAJE: ES UN CONJUNTO REGLADO DE SIMBOLOS QUE SE UTILIZAN PARA LA COMUNICACION.
Oro elemento tomado en cuenta en la semiótica es el proceso por el cual algo funciona como signo. Para ello es necesario que concurran 3 factores:
a) el vehículo signito, la SEÑAL , fenómeno o cosa que actúa como signo (S)
b) el DESIGNATUM, el significado del signo (D)
c) EL INTERPRETE (I)
Ej. Un perro (I) responde al sonido del silbato (S) que designa la caza de ardillas (D)
Las nociones de signo, significado, interprete se implican mutuamente ya que son solo formas de referirse al proceso de semiosis, porque algo es un signo si y solo si algún interprete lo considera como tal (Morris 1971)
No se trata de afirmar que “hay “signos (el humo es signo de fuego) sino que algunos fenómenos funcionan como signos de otros en la medida en que un interprete es capaz de asignarle un significado. Si el intérprete le adjudica a ese fenómeno signito una causa natural o no intencional, se encuentra frente a un SIGNO NATURAL o si piensa que fue creado intencionalmente para transmitir un mensaje está frente a un SIMBOLO.
Algunos casos pueden ser supuestos para el intérprete. El humo, un grupo, un gesto, un ruido puede estar el interprete en duda si es intencional o natural. En cambio las palabras, son claramente SIMBOLOS, en la medida que pertenecen a un lenguaje creado intencionalmente para transmitir significados usando códigos intencionales.
La semiótica esta constituida por otras disciplinas que estudian los diferentes aspectos o dimensiones de los signos.
La semiótica puede ser considerada como un metalenguaje, pero los metalenguajes tienen 3 dimensiones de estudio semiótico:
1) DIMENSION SINTACTICA: revisa las relaciones entre signos, reglas que los ordenan. Adquiere especial importancia en el estudio de lenguajes formales como las matemáticas o la lógica, donde para que una expresión se admita debe cumplir con las reglas básicas de la formación de enunciados.
2) DIMENSION SEMANTICA: se ocupa de la relación entre el signo y su significado. la lógica llama “TERMINOS” a estas unidades de significado que también llamamos “nombres” o “símbolos”.
Desde esta dimensión, el término tiene:
a) DESIGNACION: es el conjunto de características definitorias que constituyen el criterio de uso del nombre Ej. Termino animal: se define como “sustancia animada ,sensible” y hombre , como “sustancia animada, sensible, racional”, lo que equivale a decir “animal racional”
b) EXTENSION: es la clase compuesta por todos aquellos individuos a los que puede aplicarse dicho término. Ej. Árbol, constituido por la clase de diferentes tipos de árboles. Esto se puede agrupar a su vez según algún criterio. Cuando una clase no es existencialmente vacía, cuando esta constituida por individuos ubicables en espacio y tiempo, la extensión coincide con la DENOTACION, por ej. En el caso de árbol, pero no en el de número o fig. geométrica, porque nombran entidades formales que no tienen denotación
c) DENOTACION: es el conjunto de los ejemplares de la clase localizables en espacio y tiempo. Por ej. Definir la “clase de alumnos universitarios menores de 10 años “ puede enunciarse su designación y su extensión en subclases (varones ,mujeres etc.) aunque al no haber ejemplares reales que satisfagan los requisitos de la designación, no tiene DENOTACION , o sea, representa esa clase un conjunto vacío.
El desconocer estos distintos aspectos del significado puede dar lugar a argumentos falaces (ej. del Ángel) en estos casos la existencia o denotación de un termino requiere de otro tipo de pruebas que exceden el campo del lenguaje.
Esta distinción nos permite utilizar lenguajes formales, que desde el punto de vista semántica, no comprometen el plano de la realidad, aunque si involucran nociones de verdadero y falso que se deciden según reglas dentro de un sistema y no con referencia a lo real.
En el caso de las ciencias formales, ordenadas según sus propios sistemas axiomáticos, la referencia extalinguìstica carece de importancia, por lo tanto, sus signos no tienen denotación mientas que en el caso de las ciencias facticas, revisten gran importancia las distintas interpretaciones semánticas de los signos. Y la ubicación de las entidades a las que se refiere en el plano de la realidad.
SON TERMINOS SIN DENOTACION LOS QUE NOMBRAN:
A) ENTRES FORMALES (TRIANGULO, RAIZ CUADRADA, Nª PRIMO)
B) ENTES DE FICCION ( CENTAURO, HADA, PERSONAJES DE COMICS)
C) ENTIDADES ABSTRACTAS (LA JUSTICIA, LA LIBERTAD)
D) ATRIBUTOS O CUALIDADES (GRANDE ,JOVEN , ROJO)
Entre designación y extensión hay una relación inversa: en un sistema clasificatorio, de inclusión de una clase en otras, la clase que incluye a otra se la llama GENERO y a la incluida ESPECIE.
GENERO. Tiene mayor extensión (nro. de ejemplares) que la especie pero menor designación (notas definitorias)
ESPECIE: tiene menor extensión y mayor designación, ya que requiere toda la designación del género más sus propias notas específicas. Ej. hay menos manzanas que frutas y menos tigres que animales.
Cualquier término que sea especie de otro comprende una parte de ese todo llamado género, sin necesidad de contar ejemplares.
Esta distinción entre género y especie servirá luego para definir términos y establecer su ubicación dentro del sistema clasificatorio del lenguaje. Es una “inclusión lógica” no una inclusión “real”, que se reconoce cuando una entidad está dentro de otra.
3) DIMENSION PRAGMATICA: se ocupa del uso que se haga del signo, intenta delimitar la función que cumple el lenguaje para el hablante.
FUNCIONES:
a) TRANSMITIR INFORMACION:
FUNCION: REFERENCIAL
DECLARATIVA
INFORMATIVA.
Las usamos cuando afirmamos o negamos algo.
ENUNCIADOS QUE PUEDEN LLAMARSE PROPOSICIONES
b) EXPRESAR ESTADOS DE ANIMO, EMOCIONES, OPINIONES O JUICIOS DE VALOR: metáforas, lenguaje poético son los mas claros ej. del “LENGUAJE EXPRESIVO”
NO PREDICAN VERDAD O FALSEDAD
c) FUNCION DIRECTIVA: las que comunican órdenes ,pedidos, ruegos,
PUEDEN SER VERDADEROS O FALSOS, CUMPLIDAS O NO
(COPI: FUNCIONES: → EXPRESIVA: manifiesta estado de ánimo del que habla o escribe
→ DIRECTIVA: manifiesta la voluntad o deseo del que habla o escribe
→INFORMATIVA: afirma o niega algo que sucede y dice cómo es el mundo en
algún aspecto. Predica V. o F
RESPUESTA DE LA PROFESORA: Para poder establecer cuál es la función “principal” de un enunciado ya que en uno mismo pueden estar implicadas las 3 funciones, es importante tener en cuenta el elemento semántico , que refiere al sentido, que a su vez enfatiza el aspecto pragmático . EL PARA QUE DIGO LO QUE DIGO. El aspecto directivo busca una respuesta por parte del interlocutor. Y para que sea expresiva debe contener un elemento semántico, una palabra, que muestres la sensación subjetiva del que habla.)
LAS ULTIMAS DOS SON EXPRESIONES DEL LENGUAJE PERO NO SON CONSIDERADAS COMO UNA PROPOSICION.
Todo acto del habla es resultado de diversas funciones del lenguaje, donde un acto proposicional (establecer una referencia y una predicación) es un factor entre otros que intervienen en la comunicación.
Una comunicación periodística (función informativa) por ej. puede utilizar expresiones que tienden a persuadir al lector para tomar una posición determinada.
Las funciones del lenguaje no se ejercen de modo puro, aunque ello no invalida la distinción entre funciones.
En el conocimiento científico debe ser posible determinar la V. O F. de sus enunciados, por lo tanto, se identifica como el conocimiento acerca del valor de verdad de ciertas proposiciones.
LA PROPOSICION ES UNA UNIDAD DE ENUNCIACION DE LA QUE SE PUEDE PREDICAR QUE ES VERDADERA O FALSA.
Algunos autores consideran sinónimo “enunciado” y “proposición”, pero otros consideran a la proposición como el contenido abstracto de un enunciado, por lo tanto diferentes enunciados pueden exponer una misma proposición.
Para Wittgenstein, el hecho que un enunciado exprese una proposición depende del uso que tenga en cada caso.
Para eso “DAR CON EL DIGNIFICADO, NO ES DAR CON UNA COSA SINO CON EL USO”, para ello debemos poder probar empíricamente que ese enunciado es VERDERO O FALSO, para que sea una proposición.
Este criterio es llamado “TEORIA DE LA CORRESPONDENCIA”, una proposición es verdadera si describe un estado de cosas real.
Aristóteles, en el siglo III a C, afirmó que la verdad consiste en decir de lo que es, que es o de lo que no es, que no es, y viceversa con la falsedad.
A lo largo de la filosofía, esto recibió todo tipo de objeciones, por las dificultades para determinar la verdad de las proposiciones referidas a hechos pasados, futuros, o entidades inexistentes, a cosas que no estamos en condiciones de conocer.
NOMBRAR Y CLASIFICAR. VAGUEDAD Y AMBIGUEDAD:
Usar el lenguaje es disponer de un sistema clasificatorio que nos permita identificar conjuntos o clases de objetos.
Pero distintos lenguajes clasifican el mundo de distintos modos sin que ninguna clasificación sea “verdadera” respecto de otra.
En el caso de los lenguajes ordinarios, tal operación se realiza con altos niveles de AMBIGUEDAD Y VAGUEDAD
VAGUEDAD:
CUANDO NO PODEMOS DECIDIR CON EXACTITUD CUALES SON LOS LIMITES PARA LA INCLUSION DE LOS INDIVIDUOS EN UNA CLASE. . Términos como muchos, frío, rebelde, joven, son VAGOS, porque sugieren diferentes aplicaciones según de qué se trate. Un “deportista joven “no es identificable con la misma edad de un “científico joven “por ej.
Wittgenstein recurre al concepto de “aires de familia”, para señalar el tipo de parecido o semejanza que permite agrupar a distintos individuos dentro de una clase. Ej. los juegos, actividad que implica practica con diferentes elementos o sin ellos y a todos los agrupamos olvidando esas diferencias, lo que puede redundar en la vaguedad del significado
AMBIGUEDAD:
SE PRESENTA CUANDO UNA MISMA PALABRA TIENE MAS DE UNA DESIGNACION. El diccionario expone las diferentes acepciones que puede tener una palabra según el contexto, en que se aplique, (ej. “masa” para la física o para el arte culinario)
VAGUEDAD y AMBIGUEDAD, no deben ser obstáculos en los lenguajes comunes, ya que el uso resuelve la cuestión y permite el uso poético o humorístico en el lenguaje
LOS LENGUAJES CIENTIFICOS PERSIGUEN LA UNIVOCIDAD DE LOS TERMINOS. Intentan delimitar en lo posible los casos de aplicaciones VAGAS o múltiples.
Para ello se proponen CRITERIOS PARA CLASIFICAR, en condiciones ideales:
1) es necesario preservar siempre el mismo criterio,( si clasificamos invertebrados/vertebrados , es incorrecto introducir el concepto de ovíparo que pertenece a otro criterio)
2) la clasificación debe ser completa ( si clasificamos animales por modo de reproducción, deben figurar todos los modos conocidos )
3) las partes deben excluirse mutuamente (si clasificamos en verteb/invert. No incluir como 3er clase mamíferos, porque esta incluida en vertebrados)
A pesar de este sistema de clasificación la existencia de entidades que no responden a alguna de ellas, pone a prueba el mismo. Ej. el descubrimiento del ornitorrinco, mamífero y ovíparo, no entraba en ninguna categoría existente, obligó a crear luego de años de discusión científica en una nueva categoría (Ej. de H. Eco 1999)
LA DEFINICION
Los discursos científicos se diferencian del lenguaje común en que sus usos lingüísticos buscan superar limitaciones de la vaguedad y la ambigüedad, y para ello recurren a definiciones precisas.
DEFINIR, ES ANTE TODO, LIMITAR EL SIGNIFICADO DE UN TÉRMINO, lo que no implica realizar afirmación alguna acerca de la realidad
DEFINIENDUM es lo que hace “mención” del nombre a definir, que se señala entre comillas.
Y el DEFINIENS es la DEFINICION propiamente dicha. Es un conjunto de palabras que se utilizan para aclarar el significado del definiendum
O sea, al definir, aclaramos el significado de un término y no de una cosa.
La definición por género próximo y diferencia específica: las clases con miembros pueden tener a éstos divididos en subclases. Con referencia a estas divisiones suelen usarse los términos “genero” y “especie”: la clase cuyos miembros se dividen en subclases es el género y las diversas subclases son las especies. Puesto que una clase es una colección de entidades que tienen alguna propiedad común también los miembros de determinado género tendrán alguna propiedad común. Este género puede ser dividido en dif. Especies o subclases, tales que todos los miembros de una subclase tengan alguna otra propiedad en común no compartida con ningún miembro de cualquier otra subclase. Auque todos los miembros de todas las especies de un genero determinado tienen alguna propiedad en común, los miembros de cualquier de todas las especies de un genero determinado tienen alguna propiedad en común, los miembros de cualquier especie comparten alguna otra propiedad, que los diferencia de los miembros de toda otra especie. La característica que sirve para distinguirlos es la diferencia específica. (COPI)
:
REGLAS DE LA DEFINICION:
1) NO DEBE SER CIRCULAR: No se debe definir una palabra usando la misma palabra u otra de la misma familia ( ej. impresora: artefacto que sirve para imprimir)
2) NO DEBE SER DEMASIADO AMPLIA NI DEMASIADO ESTRECHA: La extensión del definiendum debe ser igual a la del definiens (Ej. perro= animal mamífero (demasiado amplia ) , animal cuadrúpedo, mamífero, domestico, de corta vida en relación a los humanos ( demasiado estrecha )
3) NO DEBE SER METAFORICA. No debe estar formulada en términos ambiguos o excesivamente vagos ( ej. los ojos son el espejo del alma)
4) NO DEBE SER NEGATIVA CUANDO PUEDE SER AFIRMATIVA: salvo aquello casos donde la expresión misma parece obligar a una definición negativa (inconsciente, soltero, ceguera, etc.)
5) NO DEBE RECURRIRSE A SINONIMOS. (ej. perro = can) el defecto en esto radica en que no se especifica ni genero ni especie, sino que se expresa otro nombre con significado equivalente.
Aristóteles: posición esencialista: la definición por “genero próximo y diferencia especifica” (ej. Tesoro: cosa valiosa. Cosa es genero y valiosa la diferencia para Lewis Carroll -1988)
Desde el punto de vista pragmático, las definiciones son proposiciones tautológicas donde definiendum y definiens son equivalentes (ej. decir perro y decir animal que ladra es equivalente)
Los diccionarios dan DEFINICIONES LEXICOGRAFICAS, de términos que ya tienen un uso en el lenguaje común, con el propósito de eliminar ambigüedad y enriquecer el vocabulario. La definición es un informe que puede o no ser veraz respecto del uso establecido en la comunidad de hablantes (ej. las diferentes significados de las palabras en las distintas comunidades hispanoparlantes)
Aún cuando el lenguaje de uso corriente permite dar significados nuevos a las palabras, si se pretende dar una definición lexicografita se debe dar primero información verídica acerca de las convenciones, los usos establecidos en la comunidad de hablantes.
El uso de los lenguajes naturales, supone una práctica una destreza para reconocer significados y las clases anómalas de aplicación de los términos, lo que posibilita insertar el significado dentro de un sistema de géneros y especies. Esto implica también un conocimiento de las reglas sociales ligadas al uso de un lenguaje.
No es posible usar un lenguaje, sin dominar una forma de vida (Wittgenstein)
LENGUAJE CIENTIFICO, es diferente ya que el significado de los términos y la posibilidad de definirlos se propone dentro de un lenguaje propio, técnico o formal, donde los signos tienen definiciones precisas, apareciendo la conveniencia del uso de DEFINICIONES ESTIPULATIVAS, esto es definiciones que estipulan un significado para un uso especifico dentro de un sistema formal y solo tiene aceptación dentro de él.
DEFINICION PERSUASIVA: Es cuando la definición cumple una función expresiva o directiva, su propósito es influir sobre la conducta de los demás. No son consideradas proposiciones si transmiten juicios de valor (ej. democracia: modo más justo de organización política a diferencia de democracia: forma de gobierno donde se eligen gobernantes por votaciones libres. En la 1era hay valoración y en la 2da información) acerca de la inserción de una especie dentro de su género.
El ideal de un lenguaje neutro y transparente para la conformación de teorías científicas, es un DESIDERATUM, destinado a construir un lenguaje proposicional, en el que tengan sentido las propiedades de V y F.
DEFINICION CONNOTATIVA: Cuando establece la connotación, designación o intención de un nombre (lago: accidente geográfico de determinadas características)
DEFINICION DENOTATIVA: Cuando nombra ejemplares de la clase (lago: NAHUEL HUAPI, VIEDMA, ARGENTINO) En el caso que la clase no tenga ejemplares para denotar, de todos modos se pueden nombrar “parte” de la extensión (ej. nº par, 2, 4,6)
UNIDAD 2
Las nociones de razonamiento, argumentación e inferencia se usan a menudo como equivalentes. En todos los casos se trata de ACTOS DEL HABLA.
Algunas de las afirmaciones “se siguen”,” reciben apoyo” se infieren” “se extraen justificación” de otras.
PREMISAS: SON LAS AFIRMACIONES DE LAS QUE SE EXTRAEN JUSTIFICACIONES
CONCLUSION: AFIRMACION QUE “SE SIGUEN”, “SE JUSTIFICAN” O “SE INFIEREN” DE LAS PREMISAS
LAS LEYES LOGICAS
Son reglas del lenguaje
Dado que el lenguaje es un conjunto de convenciones, de símbolos por medio de los cuales hablamos acerca de lo real, se concluye que las
LEYES LOGICAS SON REGLAS QUE REGULAN EL USO DEL LENGUAJE
No hay conflicto entre lógica y realidad, pero tampoco identificación de la una con la otra o derivación de una partiendo de la otra. De hecho no hay una lógica, sino muchas. La adopción de una de ellas depende de su capacidad para operar sobre ciertos aspectos de lo real.
Las operaciones lógicas y en particular las LEYES LOGICAS se aplican al orden de la realidad o a los diferentes órdenes de la misma, de modo parecido a un mapa que nos orienta. Este nos da datos de lo real pero no nos dice que la realidad ES, sino sólo CÒMO poder estructurarla.
Por eso podemos hablar lógicamente acerca de lo real sin por ello suponer ni que imponemos (por convención o por necesidad) nuestro pensar lógico a la realidad, ni que nos limitamos a reflejar pasivamente las estructuras de ésta realidad.
Aristóteles fundador de la lógica o su primer gran sistematizador, aún cuando no usó esa palabra, en un conjunto de escritos sobre este tema lo tituló ORGANON, instrumento, ya que se consideraba a la lógica primer instrumento en manos de la ciencia y una introducción a cualquier disciplina científica. Llamó PRINCIPIOS LOGICOS a sus reglas o leyes. Consideró que no necesitaban demostración y deberían admitirse como verdades evidentes. Estos principios serían la base del pensamiento y su violación anularía la posibilidad de estructurar el lenguaje.
LEYES LOGICAS, actualmente son SIMPLES TAUTOLOGIAS (TAUTOS, en griego significa “LO MISMO”). No se puede hablar de su coincidencia con lo real, pues SON FORMULAS ENTERAMENTE VACIAS.
En su concepción actual, ESTAS LEYES SE ADMITEN COMO LAS LEYES MAS GENERALES DE LA LOGICA.
EN LA LÓGICA SIMBOLICA, NO SE ADMITE EL CRITERIO DE EVIDENCIA.
No hay proposiciones verdaderas porque su verdad “se hace patente al pensamiento” o se manifiesta de por sí. En cambio HAY PROPOSICIONES QUE SE ADMITEN COMO PUNTO DE PARTIDA DE UN SISTEMA LLAMADAS AXIOMAS. AL SER ADMITIDAS COMO PUNTO DE PARTIDA NO SE DISCUTE SU VERDAD.
Y LAS PROPOSICIONES QUE SE DEDUCEN DENTRO DE UN SISTEMA DE REGLAS SE LLAMAN TEOREMAS
LAS LEYES LOGICAS SON LAS SIGUIENTES:
LEY DE IDENTIDAD:
Admite varias formulaciones:
“toda proposición es equivalente a sí misma”
“toda clase de objetos es igual a sí misma”
“si p, entonces p” p ﬤ p “si llueve entonces llueve”
“toda tautología es una proposición verdadera”
LEY DE NO CONTRADICCION:
Se puede formular como:
“no es demostrable una fórmula y su negación”
“si una fórmula es verdadera, su negación es falsa y recíprocamente”
“una proposición no puede ser V y F “
“no se da p y no p” “- (p • - q) “
“no es posible que llueva y no llueva”
“toda contradicción es una proposición falsa”
LEY DEL TERCERO EXCLUIDO:
Se formulan indistintamente como:
“dadas dos proposiciones, si una es la negación de la otra, entonces una de ambas debe ser V y la otra F”
“dadas p y no p, entonces o bien p es V, o bien lo es no p “
“p o no p” “p v – p “
“llueve o no llueve”
“toda proposición es V o F “
UNA LEY LOGICA:
* ES UNA FORMULA QUE INTERPRETADA DA COMO RESULTADO UNA PROPOSICION VERDADERA
*TODA FORMA PROPOSICIONAL TAL QUE AL SUSTITUIR SUS VARIABLES POR CONSTANTES, DA POR RESULTADO UNA PROPOSICION VERDADERA
TODAS LAS TAUTOLOGIAS SON LEYES LOGICAS, ya que son enunciados verdaderos en virtud de su estructura lógica, independientemente de qué signifique “p”.
Desde la perspectiva contemporánea, no hay leyes lógicas de más importancia que otras.
Para deslindar el problema de la puesta a prueba de los enunciados, ya que pueden o no afectar el campo de constatación empírica, las leyes lógicas nos permiten diferenciar:
TAUTOLOGIAS:
FORMAS PROPOSICIONALES QUE CORRESPONDEN A PROPOSICIONES LOGICAMENTE VERDADERAS, es decir, VERDADERA POR SU ESTRUCTURA LOGICA.
TODAS LAS LEYES LOGICAS SON TAUTOLOGIAS. La verdad se juzga no por la correspondencia con la realidad sino por la coherencia, no contradicción y consistencia con las leyes lógicas.
Por estar vacías de contenido empírico, por no hacer ninguna afirmación acerca del mundo, son útiles para los lenguajes formales, y por ella para las ciencias formales. Su respuesta es formalmente Verdadera, bajo las condiciones de no contradicción, identidad y 3º excluido.
Ej. “p v – p”
“este año me recibo o no me recibo”
CONTRADICCIONES:
FORMAS PROPOSICIONALES QUE CORRESPONDEN A PROPOSICIONES LOGICAMENTE FALSAS, por su forma lógica, YA QUE VIOLAN O NIEGAN ALGUNA LEY LOGICA.
Toda negación de una tautología es una CONTRADICCION.
Cualquier enunciado que implique una negación de alguna ley lógica e necesariamente Falsa.
En ciencias formales toda proposición falsa es una contradicción.
Ej. “p • - p”
“este año me recibo de médico y no me recibo “
“2 + 2 = 5”
CONTINGENCIAS:
FORMAS PROPOSICIONALES QUE CORRESPONDEN A PROPOSICIONES LOGICAMENTE INDETERMINADAS, es decir, PROPOSICIONES QUE PUEDEN SER V O F, CON RELACION A ALGUN REFERENTE EMPIRICO. Sin que el análisis de su estructura nos permita decirlo, ya que la verdad se decide por métodos extralingüísticos, y su valor de verdad puede cambiar.
Ej. “p ﬤ q”
“si como helado entonces engordo”
“el sol gira alrededor de la tierra”
No todos los enunciados son obviamente tautologías, contradicciones o contingencias, algunas necesitan un método para saberlo. Ej. Ley de Pierce: el enunciado” [(p ﬤ q) ﬤ p] ﬤ p” es una tautología, aunque hace falta para reconocerla algún calculo lógico.
El campo de estudio de la lógica por eso, es el de planificar métodos formales, cálculos, que permitan deslindar estos casos donde se necesita decidir si las proposiciones son V O F lógicas o exceden este campo para hacer afirmaciones empíricas.
LOS RAZONAMIENTOS: VERDAD Y VALIDEZ.
RAZONAMIENTOS: unidad de argumentación
Un argumento es correcto o válido si efectivamente las premisas apoyan la conclusión y es incorrecto o inválido si no lo hacen.
LA PREMISAS Y LA CONCLUSION PUEDEN SER V O F, PERO EL ARGUMENTO MISMO NO.
PROPOSICIONES →VERDADERAS O FALSAS
RAZONAMIENTOS →VALIDOS O INVALIDOS /CORRECTOS O INCORRECTOS
INVALIDO Y FALSO→PREDICAN COSAS DIFERENTES
RAZONAMIENTOS INVALIDOS:
ADMITEN CUALQUIER RELACIÓN ENTRE V Y F DE LAS PREMISAS Y CONCLUSION, YA QUE LA CONCLUSION “NO SE SIGUE DE LAS PREMISAS”
Ej. “algunos hombres son mortales, por lo tanto todos los hombres son mortales”
“llueve y hace frío, por lo tanto, no voy a mar del Plata”
RAZONAMIENTOS VALIDOS:
NO PUEDE DARSE CUALQUIER COMBINACION DE V O F DE PREMISAS Y CONCLUSION
· ALGUNOS RAZONAMIENTOS VALIDOS PUEDEN TENER PREMISAS Y CONCLUSION V.
Ej. “si es un tigre, es mamífero
si es mamífero tiene pulmones
si es tigre tiene pulmones
· PUEDE HABER UN RAZONAMIENTO VALIDO CON PREMISAS V Y F Y CONCLUSION F
Ej. si es araña tiene 8 patas
Si tiene más de 8 patas tiene alas
Si es araña tiene alas
· NO PUEDE HABER RAZONAMIENTO VALIDO CON PREMISAS VERDADERAS Y CONCLUSION FALSA. ES LA UNICA COMBINACION EXCLUIDA, ya que la validez del razonamiento garantiza que la conclusión “conserve” la verdad si las premisas son efectivamente verdaderas.
LOS RAZONAMIENTOS VALIDOS NO GARANTIZAN LA VERDAD DE SUS PROPOSICIONES ASI COMO LA VERDAD DE LAS CONCLUSIONES NO PRUEBAN LA VALIDEZ DEL RAZONAMIENTO.
Para distinguir las nociones de VERDAD Y VALIDEZ, el énfasis debe estar en que determinar la corrección o incorrección de los razonamientos, es atribución de la lógica., que cuenta para ello con reglas especificas.
Pero corroborar la VERDAD o FALSEDAD de los enunciados (premisas o conclusión) requiere corroboración empírica que está fuera del campo de la lógica.
RAZONAMIENTOS DEDUCTIVOS:
Su validez la estudia la lógica deductiva. Tiene reglas
· todo lo que se dice en una conclusión está en las premisas
· la verdad de las premisas garantiza la verdad de la conclusión
· Si las premisas son verdaderas ,la conclusión no puede ser falsa
· Su validez puede decidirse definitivamente por métodos puramente lógicos
· La validez depende de la forma lógica del razonamiento y no de su contenido
Se usa para verificación de antemano de teorías científicas. Su corrección depende de ciertas expresiones lógicas como: “todos”,”algunos”, “y” “o”,”si…entonces “,”no”, etc. que tienen precisas definiciones en la sintaxis del lenguaje formal.
UN RAZONAMIENTO DEDUCTIVO NO PERMITE QUE DE PREMISAS VERDADERAS HAYA CONCLUSION FALSA
REGLAS LOGICAS
Son formas de razonamiento cuyas variables, al ser sustituidas por constantes, dan por resultado un razonamiento “VALIDO”.
Así como al sustituir las variables de las leyes lógicas por enunciados, se obtiene siempre una proposición verdadera, cuando interpretamos una regla lógica, obtenemos un RAZONAMIENTO VALIDO.
Aunque las reglas lógicas son numerosas, algunas de ellas son de uso frecuente, en las transformaciones sintácticas. Su conocimiento permite verificar rápidamente muchos razonamientos sin necesidad de recurrir a otros métodos de cálculo lógico.
POR TRATARSE TODAS DE RAZONAMIENTOS DEDUCTIVOS, NO PUEDE SUCEDER QUE AL SUSTITUIR VARIABLES LÓGICAS POR PROPOSICIONES OBTENGAMOS UN RAZONAMIENTO ENTRE PREMISAS VERDADERAS Y CONCLUSIÓN FALSA
ENTRE LAS REGLAS LOGICAS MÁS IMPORTANTES SE ENCUENTRA:
1) MODUS PONENDO PONENS ( MP)
A ﬤ B
A_____
B
DADO UN ANTECEDENTE Y UN CONSECUENTE, SI SE AFIRMA EL ANTECEDENTE, ENTONCES SE AFIRMA EL CONSECUENTE.
2) MODUS TOLLENDO TOLLENS ( MT)
A ﬤ B
- B____
- A
DADO UN ANTECEDENTE Y UN CONSECUENTE, SI SE NIEGA EL CONSECUENTE, ENTONCES SE NIEGA EL ANTECEDENTE
3) SILOGISMO HIPOTETICO (SH)
A ﬤ B
B ﬤ C
A ﬤ C
SI SE AFIRMA A ENTONCES B Y B ENTONCES C, SE AFIRMA A ENTONCES C
Estas tres reglas expresan el significado de la conectiva lógica llamada “CONDICIONAL “, simbolizada con el símbolo “ﬤ”.
Esta conectiva es importante en los discursos científicos porque sirve para formalizar hipótesis, ya que permite enlazar una proposición llamada antecedente con otra llamada consecuente
Una proposición condicional es V en todos los casos de V o F de p o q, excepto cuando el antecedente es V y el consecuente es F.
El condicional no es ninguna conexión real entre el antecedente y el consecuente, sino que afirma que no se da el caso de que el antecedente sea V y el consecuente sea F.
La V del consecuente en cambio no implica la V del antecedente.
El antecedente (p) es condición suficiente para afirmar el consecuente (q)
Ej. “si es argentino es americano “ p ﬤ q
“Pedro es americano” A ﬤ q
“Pedro es argentino” A ﬤ p
No se puede ser argentino sin ser americano, pero si ser americano sin ser argentino. A menudo se confunde esta conectiva con el llamado “BICONDICIONAL” QUE EXPRESA “SI Y SOLO SI… ENTONCES”
y se simboliza “p ≡ q”
En este caso hay identidad entre antecedente y consecuente, donde p implica q y q implica p
“si y solo si se tiene asistencia perfecta, se cobra el incentivo”
Confundir el CONDICIONAL con el BICONDICIONAL, supone incurrir en FALACIAS
FALACIAS FORMALES
Se presentan en los argumentos que se parecen a reglas lógicas pero son inválidas.
Las más importantes para el caso de la epistemología, son la:
FALACIA DE AFIRMACION DEL CONSECUENTE
Por ej.
Si Juan es argentino entonces es americano
Juan es americano______________________
Juan es argentino
FALACIA DE NEGACION DEL ANTECEDENTE
PUEDE HACER CASOS DE PREMISAS VERDADERAS Y CONCLUSION FALSA
Si Juan es argentino entonces es americano
Juan no es argentino___________________
Juan no es americano
En todo razonamiento deductivo, la conclusión no dice nada que no haya estado implícito en las premisas. Lo que hace el argumento, justamente es hacer esto explícito. Estos argumentos son explicativos o explicitativos, pero no ampliativos (es decir no se puede ampliar, agregar nada que no esté en las premisas)
Las reglas lógicas no nos proporcionan conocimiento fáctico, información sobre el mundo, pero son de la mayor importancia para la ciencia, ya que permiten “demostrar” (probar conclusivamente la verdad) enunciados de las ciencias formales y apoyar la contrastación de hipótesis en el caso de las ciencias fácticas.
INDUCCION- CARNAP
Los argumentos deductivos son sólo explicativos, no dan información nueva sobre el mundo. Si ellos fueran el único tipo de argumento posible, no habría modo de justificar argumentativamente la información nueva, como la involucrada en las teorías de las ciencias fácticas y en muchas situaciones de la vida cotidiana.
En contextos problemáticos poco estructurados, parecen operar con mayor frecuencia PROCESOS INDUCTIVOS O HEURISTICOS:
Se denomina ARGUMENTOS INDUCTIVOS a todos los argumentos en los que se transita desde un enunciado (o conjunto de ellos) a otro, de modo que el primer enunciado (o la conjunción de enunciados) no “IMPLICA” al segundo (Strawson 1969)
El caso en el que el segundo es un enunciado GENERAL constituye la forma de razonamiento inductivo mas frecuentemente expuesta, si bien no la única.
Diferencia entre ARGUMENTO INDUCTIVO Y DEDUCTIVO:
INDUCTIVO:
Ej.” todos los A “hasta ahora observados” son B
Por lo tanto, todos los A son B
“todos los mamíferos hasta ahora observados tienen pelo”
Por lo tanto, todos los mamíferos tienen pelo
El tipo de inferencia aquí expuesta se denomina”INDUCCION POR ENUMERACION SIMPLE” que consiste en el examen casuístico de instancias confirmadoras expuestas a través de premisas particulares.
Inductivamente pueden parecer muy cercanos ambos enunciados, pero entre ambos esquemas hay un abismo lógico. El primer “TODOS “no es cuantificador universal de la lógica de primer orden, solo representa una suma de enunciados particulares sobre una subclase. En términos estadísticos, el “salto” consiste en que a partir del reconocimiento empírico de la presencia de una determinada propiedad en una muestra de individuos, se traslada ese reconocimiento a la totalidad de la población.
En términos lógicos, de una secuencia “incompleta” de premisas particulares,” se infiere “la conclusión universal.
Desde la lógica formal estándar, la generalización no es pertinente y la conclusión no es válida lógicamente.
En la consecuencia lógico-semántica se constata la capacidad del argumento, para preservar la verdad.
Por el contrario, aunque la inducción incluya solo premisas verdaderas, puede conducir a una conclusión falsa.
Aumentar incesantemente la constatación casuística en modo alguno “blinda” al argumento de la posibilidad del contraejemplo.
Esta es la diferencia entre argumento demostrativo (deductivo) y argumento no – demostrativo (inducción)
Stawson afirma: por supuesto que los razonamientos inductivos no son deductivamente validos, si lo fueran serían razonamientos deductivos. La evaluación de la solidez del razonamiento inductivo debe realizarse de acuerdo con normas inductivas.
Cuáles serían esas normas?
EN UN RAZONAMIENTO INDUCTIVO, LAS PREMISAS SOLO “RESPALDAN” A LA CONCLUSION, PRESTAN UN “APOYO PARCIAL”. PROPORCIONAN ALGUNA “EVIDENCIA “A FAVOR DE LA CONCLUSION
Esta prudencia anticipó las críticas sobre la legitimidad de estos argumentos inductivo, no solo como método de validación epistémica, sino por la legitimidad global de cualquier argumento de índole inductiva.
HUME, siglo XVIII, mayor crítico de esto, el “reto escéptico respecto de la justificación de procedimientos inductivos supone rechazar el poder probatorio de “cualquier “forma de inferencia ampliativa. Este “salto” que determina una rotunda ventaja comparativa de la inducción respecto de la inferencia deductiva (argumento meramente expicitativo) críticamente constituyo el certificado de ilegitimidad: la información nueva en la conclusión de un argumento inductivo la convierte en “independiente”, por ende, invalida como transición legítima. Desde este punto de vista, para tomar en cuenta el argumento inductivo, debería aceptarse que la “muestra (en términos estadísticos “es semejante al resto de la población y lo seguirá siendo “. Ahora ¿cómo se justifica tal principio?
La defensa de los más importantes inductivistas del siglo XX, (los EMPIRSTAS LOGICOS) comienza por reconocer que las únicas inferencias justificadas son las deductivas. Las inferencias “ampliativas “, como la inducción, no son justificativas, al menos si por ello se entiende una prueba plena, un apoyo total de las premisas a la conclusión.
LO QUE CARACTERIZA A LA INDUCCION ES QUE LAS PREDICCIONES NUNCA SE GARANTIZAN TOTALMENTE, SINO QUE POSEEN UN “GRADO MAS O MENOS ALTO DE CONFIRMACION “, entendido como “PROBABILIDAD “.
CARNAP: realizó ciclópeo intento por desarrollar una teoría formal y cuantitativa del “GRADO DE CONFIRMACION “o “PROBABILIDAD LOGICA “, ya que el concepto de grado de confirmación de Hempel era exclusivamente cualitativo.
Hasta 1950 la concepción del argumentar inductivo (sobre todo en el contexto del empirismo lógico) era defendida a partir del concepto de “grado de confirmación” por 3 alternativas:
Ninguna de estas opciones conforma a Carnap ,aunque reconoce a la probabilidad estadística una razonable utilidad en ciertos contextos , considera que las 2 primeras alternativas no constituyen una explicación rigurosa
Su primer propósito será dar precisión a los conceptos construyendo una teoría de las relaciones lógicas entre una hipótesis y cualquier plexo de conocimiento que pueda ser evidencia confirmadora de ella.Sostiene que el problema de la inducción es esencialmente el de la relación lógica entre una hipótesis y alguna evidencia confirmatoria , pretende por tanto dar una interpretación clara y precisa del grado de confirmación construyendo una lógica inductiva donde la lógica de probabilidad sea central .
Centrado primero en la cuestión epistemológica de la justificación teórica: en lugar de conclusión, hablará de “HIPOTESIS “. Y en vez de premisas, se referirà a “ENUNCIADOS “, que exponen la base evidencial que la apoya. Con este cambio terminológico Carnap acepta explícitamente el punto de vista de Einstein y de Popper, ya que reconoce que en la ciencia empírica no se pude formular un conjunto de reglas inductivas que permita pasar automáticamente de los hechos a las teorías.
Considera que no es posible una aplicaciòn mecànica de reglas que lleve de informes observacionales a una teorìa general que explique esos fenòmenos observados. No puede haber una màquina inductiva que "invente" nuevas teorìas , pero si puede haberla con un propòsito màs modesto: dadas ciertas observaciones e ( base evidencial) y una hipòtesis h , deberìa ser posible determinar por procedimientos mecànicos, la probabilidad lògica o grado de confirmaciòn de h sobre la base de e .
La inducciòn como paso argumentativo de lo particular a lo general es una simplificaciòn equivocada.
La función lógica inductiva no consistiría en inferir generalizaciones sino que su tarea comienza cuando “ya se dispone “ de una hipótesis explicativa de fenómenos dados , de modo que la LOGICA INDUCTIVA “SOLO” DEBE INDICAR EN QUÈ MEDIDA ( GRADO DE CONFIRMACION ) LA HIPOTESIS ES APOYADA POR LOS DATOS EMPIRICOS DISPONIBLES.
"Esto es que las hipòtesis no pueden considerarse probadamente verdaderas, pero pueden considerarse parcialmente probadas o confirmadas por la base evidencial “hasta un cierto grado “. ESTE GRADO ES EQUIVALENTE A LA PROBABILIDAD LOGICA, medible de 0 a 1. REALIZAR INFERENCIAS INDUCTIVAS NO ES OTRA COSA QUE ASIGNAR UN VALOR DE PROBABILIDAD A UN PAR ORDENADO, ES UNA FUNCION NUMERICA QUE ASIGNA UN Nº REAL ENTRE 0 Y 1
Lakatos→para Carnap, realizar inferencias inductivas no es otra cosa que asignar un valor de probabilidad a un par ordenado ‹h, e ›. Así la función de confirmación (c-function) es una función numérica que asigna un número real entre 0 y 1 a un par de enunciados.
Para Carnap la relación de confirmación inductiva es una relación lógica, “confirmar inductivamente “es semejante a “implicar deductivamente “.que ambas sean relaciones lógicas significa simplemente que no son empíricas, lo cual permitiría que se pudiera establecer mecánicamente el grado de confirmación de una hipótesis general sin depender de procedimientos empíricos (a diferencia de la estimación de probabilidad estadística, que depende de relevamiento muestrales).
Sostiene Carnap que el concepto lógico de probabilidad es la base para todas las inferencias inductivas, o sea , para todas las inferencias que tienen que ver con la necesidad deductiva, afirmando que si se construye una teoría satisfactoria de la probabilidad lógica ,daría al menos una clara base racional para el antes controvertido procedimiento de la inferencia inductiva.
Para entender la probabilidad lógica se convierte a la “lógica” inductiva en “formal”, exponiendo un diferencia entre probabilidad “estadística” y probabilidad “lógica “(formal).
El valor de probabilidad estadística son enunciados empíricos expresados “en” el lenguaje de la ciencia, se basan en investigaciones empíricas.es decir que los enunciados acerca de probabilidades estadísticas no pueden ser demostrados mediante la lógica, sino que se basan en investigaciones empíricas. Una hipótesis probabilística que sostenga un enunciado, es el resultado de una investigación empírica basada en muestras representativas de la población bajo estudio. La probabilidad estadística se da “dentro de la ciencia”, mientras que la probabilidad lógica se da aun “nivel externo” a la ciencia, en enunciados acerca de la ciencia, es decir, en un nivel metateórico.
Carnap→si un científico afirma que se puede confiar en una ley para realizar cierta predicción, el lógico inductivo debería preguntarle en qué medida, sobre la base de los elementos disponibles, esta bien establecida la ley. Para que el científico dé respuesta a esto, deberá, para no exponer una probabilidad estadística, recurrir a un agregado, saltando al metalenguaje, es decir supone hablar desde la lógica inductiva sobre una relación lógica entre enunciados de la ciencia.
Otro problema es cómo se mediría numéricamente el grado de confirmación, lo que condujo a varias discusiones en torno a la posibilidad real de que un enunciado científico presente la evidencia total que proporciona apoyo a la hipótesis.
Popper →mas persistente crítico de la inducción siglo XX, se opone a cualquier intento de justificación probabilística del apoyo evidencial de hipótesis científicas argumentando que cuando el grado de apoyo de una proposición por otras no es total (lo que sólo proporciona la deducción) no se puede medir el apoyo parcial con una función probabilística. Sostiene que:
a) Si es un propósito científico el alto contenido , entonces no es un propósito científico la alta probabilidad y
b) Si perseguimos un alto grado de confirmación (o corroboración) necesitamos un alto contenido, y por ende, una baja probabilidad.
Se niega a aceptar cualquier forma de inducción.
Mas allá de las criticas de Popper, se reconoce que la “justificación probabilística ha seguido firmemente instalada en el contexto de la teoría de la inducción.
La inducción por tanto, es una transición de una o más premisas a una conclusión que no es su consecuencia lógica. El argumento presentado, afirma la conclusión como “probable” a partir de un apoyo parcial pero “fuerte “de las premisas. Su inconveniente mayor es que al formular un razonamientote ésta índole, está “cautivo” por la información “hasta ahora” disponible (es decir por las premisas expuestas)
Esta es una nítida característica diferencial respecto de la implicación lógica. NINGUNA INFORMACIÒN AÑADIDA, puede modificar la pertinencia de un argumento deductivo, cuya validez opaca la incorporación de nuevas premisas.
Pero en la inducción un argumento inductivo evaluado como sólido no pasa a ser automáticamente malo porque la experiencia aporte malos contraejemplos que hagan falsa la conclusión, y es su riesgo también.
En la teoría de la inducción, una hipótesis probabilística no permite realizar predicciones individuales precisas, aunque fuera posible cuantificarla.
W.Salmon. llama FALACIA DE ESTADISTICA INSUFICENTE: una hipótesis que es realizada con escasos enunciados basados en insuficientes casos probabilístico.
También aparece una FALACIA DE ESTADISTICA SESGADA: porque la hipótesis se confirmó con un número insuficientemente variado de casos, aunque fuera una muestra numéricamente representativa.
ANALOGIA: La inferencia analógica parte de una similitud conocida de dos o más elementos en algunos aspectos o propiedades, para concluir que también deberían compartir la similitud en otro.
La conclusión, en el mejor de los casos, podría establecerse como probable, ya que de una propiedad sólo se tiene información de que la posee un individuo.
Algunos consideran este tipo de argumentos como razonamientos probables semejantes a los argumentos inductivos. Otros lo analizan como un tipo de razonamiento inductivo que, en vez de sumar elementos, suma propiedades.
Sin embargo cuando Copi, debe reconocer criterios de evaluación para argumentos analógicos comienza por sostener que el número de individuos o entidades entre los que se afirma la analogía es importante. Podemos albergar dudas sobre esta condición sobre algunos ejemplos, donde la conclusión no pretende generalizar, sino establecer una conclusión ampliativa para un solo individuo. Por otra parte, el mismo Copi proporciona como ejemplos paradigmáticos casos de dos (o poco más de dos) elementos.
Es indudable que la segunda condición es mucho más importante: el número de aspectos o propiedades en consideración. Si la cantidad de propiedades comunes es grande, parecería que la probabilidad de la conclusión crece.
El 3er requisito es, sin duda, el más significativo. Las propiedades consignadas deben tener una clara relación con la conclusión. Hasta tal punto que, como a advierte Copi, una sola analogía atinente es más importante que un plexo de analogías irrelevantes respecto de la propiedad establecida como común en la conclusión.
Ahora bien, como suele suceder con los argumentos inductivos, este último y decisivo criterio de relevancia es EXCLUYENTEMENTE EMPIRICO. Parece claro que se trata de una cierta relación causal entre las diferentes propiedades en análisis que habría que determinar a través de una investigación empírica. Por ejemplo, establecer que la propiedad presente en la conclusión es efecto de las consignadas en las premisas, o que todas las propiedades están inmersas en una cadena causal, de modo que responden a una eventual causa común. No se puede anticipar nada a priori. Habrá que analizar particularmente cada caso.
El ejemplo:”me dijeron que X tiene Sida. Y está trabajando en la misma cátedra, fueron compañeros de estudios, escribieron un libro juntos... en fin, es muy probable que Y se enferme de Sida en cualquier momento”, cuyo esquema sería
A y b tiene las propiedades P, Q y R
A tiene, además, la propiedad S
Luego, es probable que b tenga también la propiedad S
Bien, se puede ver que este ejemplo, no resiste un análisis severo: ilustra triunfalmente a una conocida FALACIA ANALÒGICA (“FALSA ANALOGÌA POR ASPECTOS IRRELEVANTES”). Es posible discutir si las propiedades en cuestión son o no suficientes, pero es evidente que no existe atinencia entre los aspectos consignados y la propiedad “contraer Sida”. Si se sumaran nuevos aspectos inatinentes (“amar la música de Bach”,” ser hincha de River”, etc.) el conjunto total no agregaría una medida de probabilidad comparable a una sola propiedad atinente respecto de la conclusión, propiedad ausente en el ejemplo presentado.
En conclusión: el RAZONAMIENTO POR ANALOGIA, COMO LA INDUCCION, ES UN RAZONAMIENTO NO DEDUCTIVO. LA INFERENCIA ANALOGICA PARTE DE LA SIMILARIDAD DE DOS O MAS ENTIDADES EN ALGUNOS ASPECTOS PARA CONCLUIR LA SIMILARIDAD DE ESAS ENTIDADES EN OTRA PROPIEDAD.
Ej.
La Tierra, Marte, Júpiter y Venus giran alrededor del sol en órbitas elípticas, son de forma casi esférica y brillan con luz refleja
La Tierra, Marte y Júpiter, además rotan alrededor de un eje
Por lo tanto, Venus probablemente rota alrededor de un eje
Como en todo razonamiento no deductivo, la analogía no aporta pruebas concluyentes. Como la inducción, constituye un razonamiento del que se puede afirmar que las premisas proporcionan a la conclusión un apoyo evidencial parcial. Apoyo parcial que puede entenderse asimismo en términos de mayor o menor probabilidad. Pero aunque no proporcione prueba, es inevitable que no sólo usemos analogías en nuestro uso cotidiano del lenguaje sino que la ciencia- en su dimensión productora de nuevas ideas e hipótesis -la emplee frecuentemente.
A menudo se establecen analogías entre el cerebro y una computadora o entre el corazón y una bomba hidráulica y estas analogías son útiles. A lo largo de la historia se utilizaron distintas analogías para entender algún aspecto incomprensible de la realidad a partir de algo comprensible. El átomo como un sistema solar en miniatura, el ojo como una cámara fotográfica, el universo como un reloj en la época de Newton .En el ámbito de las ciencias sociales, es oportuno mencionar la caracterización de la sociedad como un organismo vivo, en el que tienen sentido las nociones de “cuerpo social”, “célula básica de la sociedad”, “salud”, “enfermedad”, “supervivencia del más apto”.
¿Qué puede esperarse de estos razonamientos?
Estas inferencias pretenden que las premisas apoyen o justifiquen la conclusión con cierto grado de probabilidad de modo que el apoyo siempre es parcial. La disciplina que se ocupa de establecer la corrección de los razonamientos inductivos es la lógica inductiva y ésta (como hemos visto) es mucho más compleja y problemática que la lógica deductiva, la que se ocupa solamente de transformaciones sintácticas de enunciados, al punto que para algunos autores la lógica inductiva sólo conduce al fracaso.
La polémica entre sus defensores y detractores animó, en gran medida, los debates epistemológicos en el siglo XX, tema que es notable en las teorías del inductivismo y el refutacionismo.
LOGICA INFORMAL – FALACIAS MATERIALES:
Sobre la LOGICA INFORMAL, hay grandes discrepancias que no existen en la lógica formal. No hay unanimidad sobre su comienzo histórico. Para algunos nació en la filosofía griega, con las refutaciones sofísticas de Aristóteles .Otros, siglo XX, 2da mitad con los aportes de Copi y Hamblin. En ambos casos se reduce principalmente al estudio, análisis y evaluación de los argumentos incorrectos formulados en el lenguaje ordinario (no reductibles a falacias formales) es decir, al estudio de las falacias MATERIALES.
En otros casos, se considera a la lógica informal no restringida al análisis de estas falacias sino abierta a la evaluación más amplia y flexible de los diversos tipos de argumentos formulados en el lenguaje ordinario.
Que tipo de disciplina es la lógica informal?
Tiene diversas perspectivas desde análisis semióticos (predominantemente pragmáticos) hasta muy básicas nociones de psicología de la comunicación persuasiva.
Según su vinculación con la lógica formal deductiva, esta es como un “fondo” o “stock” de nociones básicas sobre las que se construyen los análisis informales.
Las características de la noción de FALACIA INFORMAL:
· Una falacia informal es UN ARGUMENTO NO PERTINENT
· PSICOLOGICAMENTE PERSUASIVO
· CONSTRUIDO INTENCIONALMENTE PARA ENGAÑAR
Sobre la pertinencia “formal “de un argumento, solo interesa el primer tipo: la consecuencia lógica es indiferente tanto a los efectos psicológicos según el receptor del argumento como a las intenciones del emisor.
Ya aquí surge un problema, es una falacia informal, un argumento?
Algunos piensan que no, pero aquí se lo toma así para diferenciar lo de otros recursos persuasivos no argumentativos (como los usados en publicidad “lava más blanco que el blanco”)
Sobre la segunda, las falacias informales no tienen atenencia lógica pero posee atenencia psicológica. La fuerza persuasiva es una condición de eficiencia que permite explicar porqué tantas personas “tragan “argumentos nítidamente falaces.
La tercera, la intencionalidad engañosa es aún más problemática. Ya inferir intenciones de actores sociales es una tarea sumamente compleja y controversial. Y en el caso de discursos argumentativos, la intención tiene además el problema de que se debe “inferir” la misma sin posibilidad de interrogar a testigos, victimas ni al perpetrador de la falacia.
Una clasificación habitual de las falacias materiales, permite agruparlas en dos categorías:
A) FALACIAS DE INATINENCIA ( O DE INATINGENCIA) :
Tienen como características comunes que LAS PREMISAS NO SON ATINENTES PARA ESTABLECER LA CONCLUCION, QUE “NO SE SIGUE” DE ELLAS. LA MAYORIA SE LAS CONOCE CON NOMBRES LATINOS.
La inatinencia NO DEPENDE DE LA FALSEDAD DE LAS PREMISAS SINO DE LA DEFICIENTE TRANSICION A LA CONCLUSION.
Es más, en general, parten de premisas verdaderas (aunque no atinentes) lo que constituye a conferirles cierto impacto psicológico que es la fuente de su poder persuasivo.
LAS FALACIAS MATERIALES UN INDUDABLE CARACER DEPENDIENTE EN SU GRAN MAYORIA (SINO LA TOTALIDAD)
Son ejemplo de estas falacias, las siguientes:
1) ARGUMENTUM AD VERECUNDIAM: ARGUMENTO DE AUTORIDAD (aunque no todos los argumentos de autoridad son falacias de este tipo) CONSISTE EN CONSIDERAR COMO PREMISA JUSTIFICATORIA UNA APELACION A LA AUTORIDAD DE ALGUIEN QUE SOSTENTGA LA CONCLUSION QUE SE DESEA IMPONER. La manera real de identificarla es por la NOCION DE EXPERTO.
Copi la define como “una reconocida autoridad en el campo especial de su competencia”. Así no sería falaz un argumento respaldado por un experto, siempre que sea en un área profesional o teórica de la que no es experto. Tales falacias son comunes en publicidad.
Las más comunes en la historia cultural occidental son las que apelan a cuestiones morales o espirituales. (ej. la inquisición debe ser justificada por haber sido apoyada por hombre del más elevado espíritu)
Hamblin, intenta “formalizar” un argumento de autoridad así construido:
x es una autoridad en afirmaciones de tipo T
x sostiene S, que es una afirmación de tipo T
Por lo tanto, S es verdadero.
Esto daría un buen soporte a la conclusión. La eventual falsedad de la primer premisa no compromete la pertinencia del razonamiento. Esto se basa en la “confianza en la infalibilidad del experto” , que convierte a la argumentación de Hamblin en ENTIMEMATICA, al estar implìcita una premisa de la forma “SIEMPRE” que una autoridad en autoridad en afirmaciones de tipo T realiza una afirmación T , realiza una afirmación verdadera. Sin esto, el entimema (silogismo en el que se ha suprimido alguna de las premisas o la conclusión, por considerarse obvias o implícitas en el enunciado, llamado también silogismo truncado) quedaría incompleto y debería considerárselo invalido.
Copi afirma que si LA “EXPERTISE” (experto) es pertinente, puede dar mayor peso a una opinión, aunque no demuestre lo que sostiene tiende indudablemente a confirmarlo. De este modo este razonamiento por experto dependería de una prueba previa, como argumento de “refuerzo”
Walton reconoce que muchos argumentos ad verecundiam, pueden considerase pertinentes. Gran parte de los argumentos que aceptamos son sobre las base de la autoridad (la del médico, el juez, etc.)
No es lo mismo un argumento expuesto por un experto que un “argumento de autoridad” expuesto por un experto (ej. del médico forense enojado). Esto se evalúa en la calidad de la información proporcionada y la razonabilidad o plausibilidad del argumento. Otra forma de este de argumentos de expertos, son el uso de “encuestas” en ciencias sociales.
Parte de las dificultades se pueden resolver si se convierte la premisa implícita en una hipótesis probabilística: “siempre que una autoridad en afirmaciones tipo T realiza una afirmación T, realiza una afirmación verdadera” por “siempre que una autoridad en afirmaciones tipo T realiza una afirmación T, es altamente probable que realice una afirmación verdadera” lo que convierte en un razonamiento probable, tal que es esperable apoyo parcial de las premisas a la conclusión.
2) FALACIA AD POPULUM : Incurre en ella alguien que quiere reforzar el valor de una afirmación al sostener “todos lo dicen” o “muchas personas lo sostienen”
3) ARGUMENTUM AD IGNORATIAM: consiste en dar por verdadero una proposición por el sólo hecho de que no ha sido probada su falsedad.
Ej. “hay fantasmas porque nadie ha probado que no los hay”
“hay fantasmas” es una hipótesis que para Copi debería descartarse por la imposibilidad de demostrarse. Para Popper, haría que mantenerla como situación problemática, preservar la provisional idea de que “es razonable”, tomar la ausencia de prueba (con una investigación pertinente) como una prueba positiva de que no se ha producido.
El famoso principio legal “toda persona es inocente hasta que se demuestre su culpabilidad”, que puede considerarse como una falacia de ignorancia, aunque por razones “morales” de preservación de derechos individuales se considere plausible el argumento.
4) ARGUMENTUM AD HOMINEM: ARGUMENTO CONTRA LA PERSONA: Consiste en enfrentar a un actor social que formula un razonamiento o proporciona información, no refutando su discurso sino agraviándolo personalmente. La trampa es, en general, clara porque las características negativas de una persona carecen de relevancia lógica para invalidar su discurso. Se trata de intentar forzar una transferencia automática de la persona al lenguaje, desacreditando al emisor para abolir su mensaje. una vez más el impacto psicológico logra tornar persuasiva una asimilación racionalmente justificable. Así es indudable que el ejemplo es falaz porque el carácter de mentiroso del emisor no constituye prueba de que todo lo que afirma es falso. Son argumentos contra el hombre , pero parece haber buenas razones para considerarlo aceptable como razonamiento inductivo por enumeración simple, con una prudente estimación probabilística en su conclusión
5) PRESUNCION DE FALTA DE CREDIBILIDAD: un argumento ad hominem, puede tener un efecto razonable de cambiar la carga de la prueba: la persona que ha mentido sistemáticamente permite alimentar una suerte de supuesto de “mendacidad” que constituiría una falacia, pero si concluye en una “duda razonable” y la demanda de prueba independiente, podría evaluarse como aceptable.
6) FALACIAS CAUSALES: la mas analizada,y discutida es la que los latinos llamaban “POST HOC ERGO PROPTER HOC “ , “DESPUES DEL HECHO, POR LO TANTO DEBIDO AL HECHO “
Copi: se considerara erróneo todo razonamiento que trata de establecer una conexión causal erróneamente como ejemplo de falacia de falsa causa .El error está vinculado a las dificultades filosóficas de la noción de causalidad.
Hume: un hecho sigue a otro pero nunca podemos observar ningún vínculo entre ambas. Parecen asociados pero nunca conectados.acepta que los hombres tienen la idea de que existe una conexión necesaria entre causa y efecto, y esa idea forma parte de lo que entienden por conexión causal, lo que niega es que tal conexión exista “fuera de la mente”, es decir, la conexión necesaria es establecida a partir de hábitos de expectativa, acostumbrados a que ciertos cambios aparecen frecuentemente juntos. Por esto él considera que la atribución de causalidad depende de lo que llama “habitual transición de la imaginación”
Desde entonces se considera que todos los enunciados generales son conexiones necesarias deben entenderse como generalizaciones empíricas, es decir, “inducciones” por lo que la admisión de argumentaciones causales debería reposar sobre la previa aceptación de la legitimidad de la argumentación inductiva.
Las falacias causales consisten en “inferir” que un acontecimiento es la causa de otro sobre la base de que el primero ocurrió antes que el segundo. En estos términos cualquier argumento causal debería evaluarse como falaz, por la “dificultad de reconocimiento “de la conexión necesaria.
La mayoría de los argumentos causales (débiles o fuertes) en la interacción social, son mucho menos simples de analizar, lo que vuelve a colocar en primer plano el problema de los eventuales criterios de diferenciación y los consecuentes criterios de evaluación.
La falacia Post Hoc no sólo es fuertemente contexto-dependiente sino que para su determinación precisa necesita de disponer de información clave, lo que relativiza el carácter falaz del argumento.
Ej. un empleado obsecuente le informó a mi jefe mi crítica. Algunos días más tarde me despidió. Por lo tanto la infidelidad del empleado es la causa de mi despido
FALACIA DE EFECTO-CONJUNTO: también llamada “conversión de la conjunción en relación causal” puede considerarse un tipo especial de Falacia Post Hoc.
Sería este tipo de falacia cuando dos acontecimientos que aparecen juntos, regularmente son evaluados como ligados causalmente, cuando en realidad ambos son efectos de una causa común.
Ej. los empleados de una oficina evidencia irritación y baja motivación, se cometería esta falacia si se infiere sin una indagación severa que la baja motivación es la causa de la irritabilidad, cuando en rigor ambos pueden ser efecto de una misma causa: insatisfacción salarial por ej.
Como en otros casos la dificultad de evaluar el argumento está ligada a la falta de información o información incompleta.
Varios argumentos AD, poseen el denominador común de usar apelaciones “emocionales” como “truco” principal
ARGUMENTO AD BACULUM (ARGUMENTO DEL GARROTE)
Consiste en intentar forzar una conclusión inatinente usando como base de sustentación una amenaza velada. En todos los ejemplos, de este tipo de falacia, aparece la utilización del recurso persuasivo de intimidar al interlocutor, pero no queda claro que el discurso sea un argumento.
ARGUMENTO AD MISERICORDIAM
Consiste en apelar a la piedad para lograr que se acepte una determinada conclusión (suele ser usado en alegatos judiciales, donde se deja de lado los hechos y trata de lograr absolución por piedad de los miembros del jurado) .como en la mayoría de las falacias no formales, no toda apelación a la piedad puede considerarse como un argumento falaz. Se necesita evaluar con detenimiento qué conclusión se intenta justificar o qué curso de acción se supone que debemos tomar.
Copi, siguiendo a Hamblin, sostiene que en un litigio de discurso político, la proposición es presentada como una guía para la acción, por lo que en lo que concierne a la acción, no es tan claro que la piedad y otras emociones sean irrelevantes.
FALACIA IGNORATIO ELENCHI (CONCLUSION IRRELEVANTE)
Se comete cuando un argumento que pretende establecer una conclusión determinada es usado para probar una conclusión diferente. Ej. el legislador que para argumentar por una ley sobre vivienda, alega que todo el mundo tiene derecho a viviendas decentes, comete esta falacia, ya que no está en discusión ese derecho sino la pertinencia de las medidas que el proyecto implica
7) FALACIAS DE AMBIGUEDAD:
a) FALACIA DE EQUIVOCO (LA FALACIA DEL 4TO TERMINO)
Es la falacia más incuestionable. Una variante de esto es la instrumentación falaz de los términos relativos (pequeño, gordo…) o sea palabras que tienen diferentes significados según el contexto.
b) FALACIA DE COMPOSICION
Cohen y Nagel afirman que la falacia tiene lugar cuando a partir e las propiedades de elementos o individuos se infiere que tales propiedades son asimismo de las totalidades a las que pertenecen.
Ej. los soldados del regimiento son “fuertes”, entonces el regimiento es “fuerte”.
Premisa V, conclusión F, porque la ambigüedad está en el uso de una palabra que no significa lo mismo en ambos casos. El uso ambiguo de términos relativos, por en otros casos la ambigüedad dependería de las proposiciones tomadas como un todo, lo que en cada caso requeriría un examen especifico que no es transparente.
c) FALACIA DE DIVISION :
Su mecanismo de producción es inverso al de composición y las dificultades de evaluación son básicamente las mismas. Comete esta falacia quien extrae una conclusión transfiriendo de manera irrelevante una proposición excluyentemente “colectiva” a su interpretación distributiva.
Ej. . esta máquina es pesada por lo tanto las partes de esta maquina son pesadas.
CONCLUSION FINAL:
NO EXISTEN EN LA LOGICA INFORMAL ESTANDAR PROCEDIMIENTOS MECANIZABLES PARA, A PARTIR DE LA CARACTERIZACION DE CADA FALACIA, EVALUAR CADA ARGUMENTO PARTICULAR: SOLO UN ANALISIS CONTEXTUAL ESPECIFICO DETERMINARA CUAL RAZONAMIENTO SERÀ FALAZ Y CUAL ACEPTABLE POR TANTO “IDENTIFICAR “ UN ARGUMENTO COMO AD HOMINEM, POST HOC., ETC, NO ES SUFICIENTE PARA DECRETARLO FALAZ.
CADA CLASIFICACION EXIGE CRITERIOS EVALUATORIOS SUPLETORIOS QUE VARIAN EN “CADA “PROFERIMIENTO DE “CADA” ARGUMENTO SOSPECHOSO.
TOULMIN:
2002- ·The uses of argument”, su propósito básico es criticar la lógica formal como criterio central de análisis y evaluación de argumentos, la evaluación de los argumentos formulados en el lenguaje ordinario.
A partir de esta obra TOULMIN establece un contraste entre dos tipos de argumentos:
1) ARGUMENTOS ANALITICOS (luego llamados TEORICOS) La conclusión de un argumento analítico no agrega nada al material contenido en las premisas. Los actores sociales que usan argumentos analíticos intentan fundamentar sus conclusiones en principios universales e inmutables.
Son los razonamientos deductivos de la lógica formal, es “context free “(independiente del contexto)
Justifica la conclusión de modo inequívoco y absoluto.
2) ARGUMENTOS SUSTANCIALES (luego llamados PRACTICOS) proporciona datos o evidencia empírica para apoyar la conclusión del argumento. Los actores sociales que utilizan estos argumentos fundamentan sus conclusiones en el contexto de una situación particular, antes que en principios universales y abstractos.
Son los argumentos prácticos de la vida social.
Son “context –dependent” (dependiente del contexto)
Solo ofrecen un apoyo probabilística.
Uno de los aspectos fundamentales de la teoría de Toulmin es el concepto de “CAMPOS ARGUMENTATIVOS”
Estos argumentos prácticos, en términos generales, se ajustaría siempre al esquema básico que el caracteriza, varía en algunos aspectos al ser utilizados en campos diferentes. Tales aspectos son “campo-dependientes”
Afirma que los argumentos teóricos de la lógica formal son no sólo independientes del contexto sino también del campo específico en el que se presentan (razonamiento matemático)
En tanto los argumentos analíticos son frecuentemente irrelevantes o ineficaces en el mundo de la racionalidad practica, son altamente impersonales, mientras que el actor social comprometido en la formulación de un argumento sustancial es extremadamente importante en el mundo practico.
Considera que el rango de aplicabilidad de los argumentos analíticos es mucho más estrecho que lo que consideran los lógicos.
Se considera su enfoque como una propuesta pragmática, con dimensiones no suficientemente analizadas en el modelo que luego serían solucionadas por teorías mas recientes.
Toulmin toma distancia del planteo de la lógica formal, cuando parte de una analogía jurídica: los argumentos son comparables a las demandas judiciales y esta lógica que apunta a la “práctica “argumentativa sería una suerte de “jurisprudencia generalizada”
ESQUEMA BASICO DE UN ARGUMENTO
Los elementos centrales de una estructura argumentativa son:
a) La afirmación o conclusión que tratamos de justificar ( C ) Toulmin usa el sustantivo “claim” traducido como demanda o petición. “C” es aquello que demandamos sea tenido en cuenta y – se supone – estamos dispuestos a fundamentar.
b) Los elementos probatorios que proporcionamos como base de la afirmación efectuada, es decir los datos ( D ) que él llamó “bases” ,“fundamentos” o “razones “
c) proposiciones hipotéticas que autorizan la transición de los datos a la conclusión ( G ) él las llama “autorización “o “documento justificativo”. el verbo correspondiente puede leerse como “certificar” o “justificar”.
EL ESQUEMA SERIA EL SIGUIENTE:
D -------------→ POR LO TANTO C
│
PORQUE G
Ej. Juan Carlos nació en Salta---------------→por lo tanto Juan Carlos es ciudadano
que es una pcia. argentina │ argentino
porque
│
Si una persona nació en una pcia. argentina
entonces esa persona es ciudadana argentina
La conclusión apela directamente a los datos. Garantía explicativa con el objetivo de registrar explícitamente la legitimidad de la transición
Las garantías son generales, los datos son específicos para cada argumento particular.
Este esquema es “básico” ya que en argumentos más complejos pueden aparecer otros factores que agregarían a la estructura.
Hay casos donde este esquema tripartito es insuficiente y es necesario agregar alguna referencia explícita al grado de “fuerza” que los datos confieren a la conclusión .Incluir un “modalizador” o “calificador modal” que matice la afirmación central ( M ) así como condiciones de excepción o refutación que establecen en qué caso la garantía deja de justificar la conclusión ( E )
Sería entonces el esquema:
D-----------------→POR LO TANTO M, C
│ │
PORQUE G A MENOS QUE E
Ej.
Juan Carlos nació en Salta por lo tanto Juan Carlos es que es una prov. Argentina-----------→ supuestamente,-------→ ciudadano argentino
│ │
Porque a menos que
│ │
Si una persona nació en haya sido naturalizado
una pcia. argentina, entonces español (candiense, venezolano, etc)
esa persona es generalmente
ciudadana argentina
Finalmente, si la propia garantía es puesta en duda, pueden introducirse “datos de respaldo” ( R )
“sostén” apoyo, soporte o refuerzo
El esquema sería entonces:
[……………]
│
Teniendo en cuenta
│
Las sig. Leyes y provisiones legales
El esquema básico corresponde a un esquema silogístico en el que la premisa menor es un enunciado particular , ya que según Toulmin prefiere analizar argumentos con conclusiones individuales, ya que son los que en mayor grado se encuentran en discursos “naturales”: intentos de justificar una afirmación individual “garantizada “ por una proposición general.
El cambio que introduce es que la premisa mayor la llama “garantía “y a la menor “datos”.
UNIDAD 3
LAS CIENCIAS FORMALES:
COHEN Y NAGEL (1968) advierten que “una demostración es una prueba lógica, no supone una prueba empírica ni afirma ni niega nada acerca de la verdad fáctica de las premisas o conclusión involucradas”
En lógica, aritmética, matemática, la verdad de las proposiciones no se “demuestra” mediante ningún método experimental. En estos casos, una prueba lógica, es un “señalamiento” de las implicancias entre un conjunto de proposiciones llamadas AXIOMAS y (que no se demuestran) y otras proposiciones llamadas TEOREMAS (que sí se demuestran).
Desde este punto de vista, puramente lógico, una “demostración “puede verse como un argumento cuyas premisas son los axiomas o postulados y la conclusión, la conjunción de todos los teoremas deducidos.
Esta cuestión lógica tiene que ver con la validez de la inferencia y afecta al plano sintáctico, a la dimensión de ciertas reglas dentro del lenguaje, y no a la V O F empírica de las proposiciones.
A diferencia de las proposiciones de las ciencias fácticas, solo los “vacíos” TEOREMAS DEDUCIDOS DE LOS AXIOMAS SON VERDADEROS, pero no dicen nada acerca del mundo.
La aplicabilidad de las ciencias formales a la realidad es objeto de discusión filosófica. Popper cree que el que cualquiera de los cálculos de aritmética es aplicable a cualquier realidad es insostenible. Su aplicación no es real sino aparente.
La concepción clásica sobre la metodología de las ciencias formales se encuentra ya en Aristóteles cuando destaca los 3 supuestos fundamentales de las ciencias demostrativas: el supuesto de deductibilidad, el de evidencia y el de realidad. Por otro lado, deberá partir de los indemostrables o axiomas para demostrar las otras verdades de esa ciencia mediante el empleo de reglas.
El supuesto de evidencia exige que los axiomas sean de tal naturaleza que se los pueda aceptar como Verdaderos sin demostración. La evidencia debe alcanzar también a los términos primitivos, de manera que su claridad permita aceptarlos sin definición.
Las definiciones, por su parte, son las encargadas de declarar unívocamente el ser de las cosas y por ello serían Verdaderas.
Estos dos supuestos junto al de realidad se admiten puesto que para Aristóteles, “ciencia” es siempre “ciencia de la realidad”
El prototipo de esta “presentación axiomática “ son los Elementos de la Geometría de Euclides, que datan aproximadamente del año 300 a C , obra que durante más de 2 mil años fue considerada como el modelo de las ciencias matemáticas y como el espejo de la exactitud científica . En este libro, la geometría, que hasta entonces era una reunión de reglas empíricas para medir o dividir figuras, se convierte en ciencia deductiva: el conocimiento empírico pasa a ser conocimiento formal. Además de los axiomas, Euclides emplea postulados, sumando otras reglas de “inferencia” a las reglas de la silogística aristotélica.
Euclides comienza por definir algunos términos:
Punto es lo que no tiene parte, Línea es una longitud sin anchura,
Proporciona un grupo de postulados y un grupo de axiomas.
Los postulados son:
1. desde cualquier punto a otro se puede trazar una recta
2. toda recta limitada puede prolongarse indefinidamente en la misma dirección.
Etc.
Entre los axiomas:
“cosas iguales a una misma cosa, son iguales entre sí”
“si a cosas iguales se les agregan cosas iguales, las sumas son iguales”
AXIOMAS→CARÁCTER GENERAL
POSTULADOS→CONSIDERADOS PUNTOS DE PARTIDA ESPECIFICOS DE CADA CIENCIA
AMBOS SON CONSIDERADOS VERDADES EVIDENTES QUE NO TIENEN NI NECESITAN DEMOSTRACION. SOBRE LA BASE DE ELLOS DEMUESTRA UN CONJUNTO DE PROPOSICIONES.
ESTAS, DEMOSTRADAS, SON LOS TEOREMAS
Entre los postulados de Euclides, los primeros 4 expresan nociones más o menos evidentes para la intuición. En cambio el 5to. , conocido como POSTULADO DE LAS PARALELAS ( si una recta , al cortas otras 2, forma de un mismo lado ángulos internos menores que son rectos, esas 2 rectas prolongadas indefinidamente se cortan del lado en que están los ángulos menores que 2 rectos) carece de este tipo de evidencia y resulta más complicado entender .
Durante el siglo XIX y principios del XX, desarrollos revolucionarios en las matemáticas pusieron en crisis los presupuestos de la ciencia demostrativa, especialmente los supuestos de evidencia y realidad.
Saccheri sustituyo el Postulado de las Paralelas, por otros supuestos contrarios y después trato de deducir la contradicción entre estos nuevos supuestos y los postulados de Euclides.
GEOMETRIAS NO EUCLIDEANAS→CONSIDERAN QUE NO ES VALIDO EL 5TO. POSTULADO.
Estas representadas por Gauss, Lobachevsky, Bolyai, y Reinman, abrieron nuevos caminos para el desarrollo de los sistemas axiomáticos.
Una revolución parecida ocurre en el campo de la lógica, con trabajos de Boole y De Morgan a mediados del siglo XIX, constituyendo estímulos para que diferentes disciplinas incorporaran desarrollos cada vez más generales.
Teoría de los conjuntos de Cantor y la Lógica de Frege, aportaron el máximo de generalización permisible para la época y permitieron caracterizar una nueva concepción de ciencias formales
Whitehead y Russell en los Principia Mathematica, completan la tarea revolucionaria a principios del siglo XX.
En esta concepción contemporánea, la visión clásica de las ciencias deductivas es reemplazada por otra donde la matemática se presenta como una jerarquía de estructuras caracterizadas por ciertas propiedades formales definidas axiomáticamente.
La convicción de que los axiomas pueden establecerse en virtud de su auto evidencia, resultó drásticamente desmentida.
Por el contrario, gradualmente se fue reconociendo que el trabajo de un matemático es derivar teoremas a partir de hipótesis, postulados y axiomas y no decidir si estos puntos de partida son realmente verdaderos.
El matemático, el único problema que debe afrontar es si las conclusiones a las que arriba son consecuencias lógicas necesarias de las hipótesis de partida.
El carácter formal de la lógica, se revela en el hecho de que ésta disciplina, se ocupa únicamente de estructuras formales y de las relaciones entre tales estructuras (la deductibilidad, por ej.)
Una lógica puede ser formal sin ser todavía formalizada. Se halla formalizada cuando se enumeran en ella todos los signos no definidos, se especifica en qué condiciones una fórmula dada pertenece al sistema, se enumeran axiomas usados como premisas y reglas de inferencia consideradas aceptables, etc.
Formal y formalizado es diferente de formalismo (movimiento impulsado por Hilbert en los años 20 en matemática)
SISTEMAS AXIOMATICOS:
Sus componentes son:
1. LOS TERMINOS PRIMITIVOS
2. LAS DEFINICIONES
3. LOS AXIOMAS
4. REGLAS (RAZONAMIENTOS DEDUCTIVOS)
5. TEOREMAS
TERMINOS PRIMITIVOS:
NO SE DEFINEN PERO SIRVEN PARA DEFINIR OTROS TERMINOS
Un intento de definir todos los términos conduciría a un círculo vicioso (diccionario: existir=ser; ser=existir; existir=existir)
Para evitar esto en un sistema axiomático se seleccionan ciertos conceptos primitivos o sin definición y se definen a partir de ellos todas las demás nociones necesarias.
1er paso→para construir un sistema axiomático es proporcionar una lista de todos los términos sin
definición . Por practicidad, conviene disponer de pocos de estos términos, sin reducirlos a
un mínimo para no tener complicaciones innecesarias.
2do.paso→es establecer una relación de todas las proposiciones para las que no se dan demostraciones.
Estas proposiciones son LOS AXIOMAS DEL SISTEMA.
Al igual que los términos es necesario, partir de enunciados que no necesiten demostración
para evitar el regreso al infinito o círculo vicioso.
AXIOMAS: ENUNCIADOS VERDADEROS SIN QUE SU VERDAD SE DERIVE DE OTROS
ENUNCIADOS. SE BUSCA SIEMPRE PARTIR DEL MENOR NRO.POSIBLE
Los primeros sistemas axiomáticos eran arbitrarios y recargados. Los actuales evidencian sencillez y economía de recursos.
3er paso→es “desarrollar” al sistema. Esto es deducir las consecuencias lógicas mediante el empleo de
Reglas de inferencia que, en todos los casos, son razonamientos deductivos.
Estas consecuencias son los TEOREMAS DEL SISTEMA.
TEOREMA: ULTIMO PASO DE UNA DEMOSTRACION
Una demostración es un conjunto finito de enunciados donde cada uno de ellos es un axioma o es una consecuencia lógica de otros enunciados anteriores en virtud de una regla de inferencia.
Dado que los axiomas se admiten como enunciados verdaderos y las reglas de inferencia son razonamientos deductivos, es decir inferencias que transmiten la verdad entre premisas y conclusión, LOS TEOREMAS SON ENUNCIADOS VERDADEROS.
La presencia inevitable en todo sistema axiomático de términos sin definición y proposiciones sin demostración es lo que Russell señala en su famoso aforismo:”en matemáticas nunca se sabe de qué se está hablando ni si lo que se dice es verdad”
Tarski →habla del proceso de retroceso infinito, “regresus in infinitum” para establecer que pasaría si quisieran aclarar cada una de las expresiones que utilizan. Para evitar esto describe la formación de sistemas axiomáticos.
En la perspectiva contemporánea, existe bastante libertad para la elección de axiomas. Los fundamentos de elección, no tienen nada de evidente. A veces solo por una conveniencia pragmática y hasta estética, donde la sencillez y la economía de axiomas se consideran un rasgo de elegancia y eficiencia.
PROPIEDADES DE LOS SISTEMAS AXIOMATICOS
El sistema de axiomas se elije por una cuestión de conveniencia, no es necesario que sean evidentes, elementales o escasos.
El sistema axiomático sí debe ser:
1) CONSISTENTE: UN SISTEMA ES CONSISTENTE SI, DESE LOS AXIOMAS, NO SE PUEDE DERIVAR UNA FORMULA Y SU NEGACION.
NO SE ADMITEN CONTRADICCIONES, porque sino se admitiría cualquier enunciado
Un sistema inconsistente, carece de utilidad, pues todas las formulas de allí derivadas podrían ser consideradas teoremas, incluso aquellas que se contradijeran.
Prueba de inconsistencia: derivar una formula y su negación con teoremas. Si no se logra esto el sistema no necesariamente es consistente.
2) INDEPENDIENTE: LOS AXIOMAS DEBEN SER INDEPENDIENTES ENTRE SI.
Ningún axioma debe derivarse de otros o del conjunto de axiomas.
Si no hay independencia en los axiomas, no se sabe si son proposiciones diferentes o dicen lo mismo de otro modo.
Si se logra deducir un axioma de otro se prueba que el sistema es redundante y no independiente y si no se lo logra, no prueba que los axiomas sean independientes.
Es importante respetar este requisito, porque sino se multiplicarían innecesariamente la cantidad de axiomas y no habría un criterio de demarcación entre axioma y teorema.
Cualquier teorema podría ser elevado a categoría de axioma. Este tipo de impugnación es frecuente al criticar sistemas axiomáticos. No se considera un defecto grave, sino mas bien, un defecto de belleza (Moreno ,1981)
El mismo requisito rige para los términos, es decir, no deberá considerarse término primitivo a aquel que contenga expresiones que puedan definirse.
3) COMPLETO: ESTO PERMITE DERIVAR DE LOS AXIOMAS TODAS LAS LEYES DEL SISTEMA.
En un sistema completo, el agregado de una ley no derivable hace inconsistente el sistema
Tarski →llama INCONSISTENTE a una disciplina deductiva cuando no hay en ella 2 enunciados que se contradigan mutuamente ; cuando de 2 enunciados contradictorios en ella al menos uno no puede demostrarse .
Llamará COMPLETA E INTEGRA cuando de 2 proposiciones formuladas con ayuda exclusiva de expresiones de ésta y de las disciplinas precedentes y contradictorias entre sí, al menos una de ambas puede demostrarse.
Falta de contradicción y completa, se refiere a la disciplina tanto como al sistema de axiomas que lo fundamenta.
Estos requisitos fueron revisados durante el siglo XX.
La metodología de las ciencias formales es hoy una ciencia deductiva, ella misma se ocupa de investigar y analizar las teorías deductivas en lógicas y en matemáticas , los signos que las componen , las relaciones semánticas que se establecen entre esas expresiones , el estudio de las probabilidades de estas estructuras.
En estos casos, la semiótica con el deslinde de sus dimensiones sintácticas, semánticas y pragmáticas, aporta un andamiaje conceptual útil para esta disciplina.
Aportes de científicos como Godel y Church, ponen en evidencia que aún entre todo lo demostrable, no todo es calculable, mientras que la semántica nos previene contra el uso espurio y dogmatico del concepto de” verdad”
INTERPRETACION Y MODELO DE LOS SISTEMAS AXIOMATICOS
El método axiomático es un poderoso instrumento de abstracción. El carácter ciego y mecánico de las demostraciones permite que puedan ser realizadas por maquinas.
Los sistemas axiomáticos actuales son sistemas formalizados, lo que permite que un mismo sistema axiomático pueda tener varias interpretaciones.
Cada” interpretación” de un modelo axiomático se denomina UN MODELO
Se dice que “interpreta” un concepto primitivo cuando se le atribuye un sentido y se obtiene un “modelo” de un sistema axiomático cada vez que uno de tales conceptos se ha interpretado de manera que son ciertas las proposiciones que resultan de los axiomas. Para afirmar que una interpretación, constituye un MODELO, debemos disponer de un criterio para determinar la veracidad de proposiciones particulares formadas por las interpretaciones de los postulados.
Si se aceptan como ciertos los teoremas de la aritmética ordinaria, un sistema axiomático (el de los números reales) puede servir de modelo para otro sistema axiomático.
Diremos que este sistema es tan compatible como el sistema de los números reales
Si dos MODELOS corresponden a un mismo sistema axiomático, se dice que son ISOMORFOS.
Y si son ISOMORFOS, se admite que tendrán las mismas propiedades formales.
EJEMPLO DE LA TUTORIA
Modelo:
Un modelo es cuando se interpreta un sistema axiomático de forma que todos sus
axiomas sean verdaderos
Puede haber varias INTERPRETACIONES ( varios modelos que parten de el mismo
Sistema Axiomático).
Tenemos un sistema axiomático que dice:
Axioma 1: A*B
Axioma 2: B*C
Axioma 3: A*C
"A", "B" y "C" son términos primitivos
Ahora los INTERPRETAMOS y decimos:
"A": Juan
"B": Pedro
"C": José
"*": ser hermano de...
Entonces reemplazamos:
Ax1: Juan es hermano de Pedro
Ax2: Pedro es hermano de José
Ax3: Juan es hermano de José
TEOREMA resultante: Juan José y Pedro son hermanos.
Tenemos un MODELO VALIDO.
UNIDAD 4:
INDUCTIVISMO:
El prestigio adquirido por las ciencias naturales (física, biología, química se debe) en parte a la contribución exitosa a la tecnología así como a la posibilidad de reemplazar explicaciones mágicas o mitológicas por explicaciones que sigan algún criterio de racionalidad
Los logros alcanzados por la epistemología(rama de la filosofía cuyo objeto de estudio es el conocimiento científico, se ocupa de problemas tales como las circunstancias históricas, psicológicas y sociológicas que llevan a su obtención, y los criterios por los cuales se lo justifica o invalida) actual ,son en parte deudores del INDUCTIVISMO, perspectiva que identifica a las ciencias como una forma de conocimiento que alcanza un alto grado de objetividad, neutralidad y progreso.
Para el inductivismo, la observación cuidadosa y desprejuiciada esta en el comienzo de todo proceso cognitivo.
El paradigma (un modelo o patrón en cualquier disciplina científica u otro contexto epistemológico) de los enunciados basados en la observación y la experimentación como “científicos” en oposición a los basados en la autoridad, emoción, especulación, tradición o prejuicios, surge a partir de la revolución científica de los S. XVI y XVII , alcanzando su síntesis perfecta en Newton y posteriormente se extendió al resto de los campos científicos.
En un sentido más amplio, el inductivismo engloba todas las corrientes que sostienen la sig. Tesis:
1) Solamente es fecundo el conocimiento de los hechos
2) La certeza está dada por las ciencias experimentales
3) El contacto con la experiencia y la renuncia a cualquier forma de a priori es la manera de evitar el verbalismo y el error.
La inducción es el razonamiento donde las premisas contienen información acerca de algunos miembros de la clase y sobre esa base, se arriba a una generalización acerca de toda la clase o una predicción acerca de un miembro no examinado de la clase. La experiencia y la observación es el lugar seguro desde donde captar la realidad.
PRECURSORES: BACON – MILL
El esquema “tradicional” del Inductivismo es:
1) OBSERVACION Y REGISTRO DE LOS HECHOS
2) ANALISIS Y CLASIFICACION DE ESTOS
3) DERIVACION INDUCTIVA DE GENERALIZACIONES. ESTABLECIMIENTO DE ENUNCIADOS GENERALES A PARTIR DE LAS OBSERVACIONES PARTICULARES
4) CONTRASTACION EMPIRICA DE LAS CONCLUSIONES.
INDUCTIVISMO “ESTRECHO”
A este esquema HEMPEL , en 1966, lo denomina CONCEPCION INDUCTIVISTA “ESTRECHA “, DE LA INVESTIGACION CIENTIFICA
HUME: S.XVII. Para él la justificación es inadecuada ya que el argumento que permitiría justificar la inducción mostrando casos exitosos de aplicación es circular. Rechaza la justificación de cualquier forma de inferencia ampliativa, así como creencias acerca del futuro sobre la base del pasado, incluso si provienen de información verdadera.
Para aceptar la inducción debería aceptarse UN PRINCIPIO DE UNIFORMIDAD DE LA NATURALEZA, que dijera: “los casos de los que no hemos tenido experiencia son semejantes a los casos de los que hemos tenido experiencia”. La demostración de este principio no puede ser formal ya que en este plano se rige por la no contradicción y NO es contradictorio pensar que en la naturaleza pueda haber novedades o cambios
A pesar de ello confiamos en la regularidad de ciertos fenómenos.
La justificación de la inducción tampoco podría provenir del campo de la experiencia. El argumento que sigue incurre en circularidad:
El principio de la inducción funciono en la teoría 1.
El principio de la inducción funciono en la teoría 2
El principio de la inducción funciono en la teoría 3
El principio de la inducción funciona siempre.
Es decir usaría una inferencia inductiva para justificar el principio de la inducción.
Hume considera que hay una INCLINACIÓN PSICOLOGICA a creer en el principio de la inducción, lo que niega es que esta creencia tenga una fundamentación racional.
Las únicas inferencias justificativas son las demostrativas, las informaciones ampliativas, por definición, no son justificativas.
El argumento de Hume muestra no solo que no se puede justificar que todas las inferencias ampliativas con premisas V tienen conclusiones V, sino que no podemos justificar eso de ninguna de ellas.
INDUCTIVISMO SOFISTICADO:
CARNAP Y HEMPLE: Autores de la versión más SOFISTICADA del inductivismo, identificado como CONFIRMACIONISMO
Todos encontraron problemas al llevar hasta las últimas consecuencias, ya que como dijo Hume, el inductivismo es inconsecuente, al no poder fundamentar el principio mismo de la inducción que sostiene que la “naturaleza es constante”, y al tratar de probar esto se cae en círculo vicioso.
Frente a este problema los autores, encontraron un nuevo modo de justificación, refugiándose en el CALCULO DE PROBABILIDADES Y EN UNA LOGICA CONFIRMACIONISTA.
Al tener las predicciones un grado más o menos alto de probabilidad se suplanta la pretensión de verificación por la confirmación.
REICHENBAR no coincide con Hume en la necesidad de renunciar a busca la justificación, planteando la cuestión sobre otras bases, asimilándola a la conducta del apostador: apuesta sobre la base de probabilidades que asigna a cada jugada. No hay apuesta V o F, sino más o menos probable de cumplirse. Lo mismo considera de la inducción.
Para él, Hume demostró la imposibilidad “ontológica” (las entidades que existen o no) del principio de la inducción.
Su propuesta en cambio, parte de la necesidad de una prueba epistemológica, a partir de la siguiente tesis: LA POSIBILIDAD DE PREDICCIONES PRESUPONE LA POSIBILIDAD DE UNA CLASIFICACION DE LOS ACONTECIMIENTOS TAL QUE EL PROCEDIMIENTO DE INDUCCION REPETIDA CONDUZCA AL ÉXITO”
Lo esencial es no buscar soluciones definitivas, sino que somete cada uno de los resultados al control experimental permanente. Así puede considerar el conjunto de los métodos científicos como una vasta red de inducciones donde unas corrigen a otras.
El conjunto de las ciencias representa una apuesta más favorable que una prueba individual. No niega que si la ciencia alcanza el éxito o no, no depende de muchas circunstancias que no se pueden garantizar de antemano.
CARNAP: Coincide con Reichenbach en que la búsqueda de un método que permita pasar, sin error, de los hechos a la ley, es una empresa imposible y que la lógica inductiva, al igual que la deductiva no puede garantizar la verdad material de la conclusión de un razonamiento.
El método científico no debería proporcionar reglas que permitan enunciar leyes sino establecer (una vez formulada una hipótesis) EN QUE MEDIDA ESTA JUSTIFICADA
Desarrolló un método general para definir “EL GRADO DE CONFIRMACION DE UNA HIPOTESIS”, expresado en ese mismo lenguaje. Esboza una lógica inductiva analítica con la esperanza de alcanzar un nivel comparable al que lograron Frege y Russell para la lógica deductiva.
Así como la lógica deductiva sirve para fundamentar la matemática, LA LOGICA INDUCTIVA PERMITIRIA FUNDAMENTAR LA ESTADISTICA. A partir del ello desarrollaron un largo programa técnico que duró varias décadas, donde se construyeron lenguajes artificiales tan limitados que no pudieron satisfacer los requisitos de las generalizaciones universales
METODO HIPOTETICO-DEDUCTIVO:
EL METODO HIPOTETICO DEDUCTIVO, ES EL METODO DE LA FUNDAMENTACION DE LAS GENERALIZACIONES TEORICAS, ADOPTADAS COMO HIPOTESIS, CON AYUDA DE LA DEDUCCION DE CONSECUENCIAS EMPIRICAS COMPROBADAS.
Consiste en tratar de contrastar las hipótesis (proposición o predicción a verificar) mediante consecuencias observacionales y así establecer concluyentemente la falsedad de una proposición, pero no su verdad. Las teorías se mantendrán si son corroboradas y se descartaran si resultan refutadas a partir de la falsedad de alguna de sus consecuencias observacionales.
PASOS DEL METODO H-D
Se presenta en este método la siguiente secuencia:
1) HIPOTESIS FUNDAMENTALES o DE PARTIDA: que intentan responder a un problema
2) HIPOTESIS DERIVADAS ,deducidas de las anteriores
3) CONSECUENCIAS OBSERVACIONALES, enunciadas del más bajo nivel de generalidad, que se extraen deductivamente de las hipótesis fundamentales y de las derivadas. Se confrontan con la experiencia, se someten a prueba empírica. De allí resultará la REFUTACION ( si resulta un enunciado FALSO )
O la CORROBORACION (si la contrastación resultó favorable)
POR TANTO SE DA UN PROCESO DEDUCTIVO DE GENERALIZACIÓN DECRECIENTE DE LOS ENUNCIADOS.
TODO ENUNCIADO ES VERDADERO O FALSO
VERIFICACION: PRUEBA DE QUE UN ENUNCIADO ES VERDDERO
REFUTACION: PRUEBA DE QUE UN ENUNCIADO ES FALSO
Suponiendo que sea posible tanto verificar como refutar enunciados observacionales, ¿puede inferirse de las hipótesis de donde fueron deducidos?
Aquí surge la ASIMETRIA entre verificación y refutación de hipótesis
El Modus Tollens es la regla lógica que permite ejemplificar el caso de refutación de una hipótesis, ya que permite afirmar si un enunciado observacional resultara falso, es falsa la hipótesis de donde se derivo.
H ) C.O.
-CO_____
- H
Si la consecuencia observacional fuera verdadera podríamos construir el siguiente esquema
H ) C.O.
CO___
H
Este esquema corresponde a la FALACIA DE AFIRMACION DEL CONSECUENTE, de modo que podrían ser verdaderas las premisas y falsa la conclusión. Por lo tanto NO VERIFICA la hipótesis, que puede considerarse corroborada o confirmada, según el punto de vista epistemológico que se adopte.
La deducción de consecuencias observacionales verdaderas no permite inferir que la hipótesis sea verdadera, aunque desde la perspectiva inductivista puede decirse que la HIPOTESIS HA SIDO CONFIRMADA.
SI SE REITERAN LOS EXPERIMENTOS Y SE OBTIENE UN GRAN NUMERO DE CONSECUENCIAS OBSERVACIONALES VERDERAS , podría afirmarse por inducción que la hipótesis ES PROBABLEMENTE VERDDERA, es decir, que EXISTE UN ALTO GRADO DE PROBABILIDAD Y QUE ESA PROBABILIDAD PUEDE MEDIRSE.
Esta es la postura CONFIRMACIONISTA a la que adhieren CARNAP Y HEMPEL
REFUTACIONISMO - FALSACIONISMO
Liderada por Karl POPPER, ha dado gran importancia a la ASIMETRIA ENTRE VERIFICACION Y REFUTACION, produciendo una interpretación distinta de esta situación, partiendo del rechazo a la inducción como método científico y al inductivismo en cualquiera de sus versiones.
No participó del Círculo de Viena, pero compartía con el movimiento neopositivista la convicción de que ninguna actividad filosófica que se separe de la ciencia puede producir resultados validos, resaltando la necesidad de demarcar límites de ciencia y metafísica.
A pesar de las coincidencias, se oponía al inductivismo como método de la ciencia y al principio de verificación como demarcación entre ciencia y metafísica.
PROPONIA QUE LA CIENCIA SE CARACTERIZARA POR EL METODO HIPOTETICO-DEDUCTIVO ,CONSIDERANDO LA FALSABILIDAD EL CAMINO PARA SEGREGAR A LA CIENCIA DE LA METAFISICA.
Para él una hipótesis “disparatada” se distingue de una “científica” en que ésta puede ser CONTROLADA, CONFRONTADA CON LA EXPERIENCIA Y POR TANTO FALSADA POR ELLA.
Desde el punto de vista lógico, ningún número finito de casos a favor de una generalización empírica es suficiente para formular una ley (ej. Todos los cuervos son negros...)
Al intentar confirmar una hipótesis y caer en falacia de afirmación del consecuente, lo que hay que hacer es buscar, con absoluto respaldo lógico, la REFUTACION O FALSACION de las hipótesis, con la estructura del Modus Tollens.
La hipótesis debe sistemáticamente intentar refutarse y si resiste tales intentos, hay razones para aceptarla PROVISIONALMENTE.
Las hipótesis propuestas para responder un problema deben correr el riesgo de ser falsas y para ello, en principio deben ser FALSABLES.
HIPOTESIS FALSABLES: es tal cuando aporta un informe de riesgo acerca del mundo, es decir que tenga contenido empírico, que diga algo acerca del mundo y no esté prevenido contra la refutación, o sea que corra el “riesgo” de que esta pueda suceder en cualquier momento.
En primer término, es necesario que la HIPOTESIS SEA FALSABLE, es decir que tenga la posibilidad de ser falsa. La terminación “ble” indica posibilidad, por lo que no se debe confundir falsable con falsada.
Una hipótesis falsable, en el proceso de contrastación empírica, puede resultar falsada o corroborada (ej. La teoría geocéntrica, es falsable y resulto falsada por la historia de la astronomía y la heliocéntrica también falsable, pero fue corroborada)
Existen GRADOS DE FALSABILIDAD:
Dependen del grado de generalidad de su sujeto y del grado de precisión de su predicado.
Sera mas falsable cuando el sujeto sea más universal respecto a otra y su predicado más preciso, ya que el enunciado universal ofrece mayores oportunidades para la refutación y al ser mas “preciso” su predicado también facilita la refutación. (ej. “Todos los planetas tienen atmosfera” es mas falsable que “la tierra tiene atmosfera”, así como “todos los planetas tienen atmosfera donde está presente el oxigeno” es mas falsable que “todos los planetas tienen atmosfera”)
NO SON FALSABLES: porque no tienen contenido empírico:
· ENUNCIADOS PROBABILISTICOS (porque la probabilidad los protege contra la refutación)
· ENUNCIADOS TAUTOLOGICOS (porque no ofrecen ninguna información precisa acerca del mundo, solo expresan la ley del 3ero excluido : p v –p )
· ENUNCIADOS QUE CONTIENEN TERMINOS SIN DENOTACION (ANGEL,BRUJA)
· ENUNCIADOS PROBLEMATICOS (“QUIZA MAÑANA TE CONTESTE EL MAIL”)
En estos dos últimos casos ningún estado de cosas, permite afirmar que el enunciado es falso.
TIPOS DE HIPOTESIS: FUNDAMENTAL, AUXILIAR Y AD-HOC
Cuando se intenta derivar consecuencias observacionales a partir de hipótesis fundamentales, es necesario hacer uso de suposiciones adicionales
HIPOTESIS FUNDAMENTALES: por si solas en general no son suficientes requieren que se las ponga en conjunción con otras que tienen un carácter instrumental o auxiliar llamadas
HIPOTESIS AUXILIARES: Cumplen el papel de premisas adicionales, que deben cumplir 2 requisitos:1) ser falsables
2) ser contrastadas con anterioridad y/o con independencia de la hipótesis fundamental (ej. Hipótesis “mañana te mando un mail” puede tener como hipótesis auxiliar “mañana estoy vivo” “mañana funciona el servidor” de tal modo que si la hipótesis resulta refutada, pueda desviarse la falsacion a alguna hipótesis auxiliar que no se cumplió)
El esquema sería H y Ha1 y Ha2 y Ha3 ) C.O
En el esquema podría resultar que si se presenta –C.O (no se cumple la Consecuencia Observacional) puede deducirse –Ha1 o –Ha2 (no se cumplen algunas de las Hipótesis Auxiliares involucradas)
Si un enunciado que se presenta cumpliendo este papel de premisa adicional NO CUMPLE ESTAS DOS CONDICIONES, se dirá que se trata de una HIPOTESIS AD-HOC, que ocupan un lugar importante en el desarrollo de las teorías. (ej., entre las premisas adicionales figura “mañana no seré capturado por seres extraterrestres”, es un enunciado irrefutable destinado a “blindar” la hipótesis principal para salvarla de la falsacion)
Puede ser una conjetura audaz, algo que se especula que debería ocurrir para que se cumpla lo que afirma la hipótesis principal. Algunas teorías científicas importantes fueron hipótesis ad-hoc en el inicio de una investigación.
REFUTACIONISMO SOFISTICADO: LAKATOS
A la pregunta del falsacionismo ingenuo ¿es falsable? ¿ha sido falsada? el REGUTACIONISMO SOFISTICADO pregunta “la teoría propuesta ¿es un sustituto viable de aquella que desafía? ¿es más falsable que su rival?
LAKATOS. El problema metodológico no se centra en la falsacion de teorías, sino en los criterios de evaluación de teorías rivales.
Para el REFUTACIONISMO SOFISTICADO: una teoría es “CIENTIFICA” solo si tiene más contenido empírico corroborado que su rival. La tesis central de esta teoría estriba en que una TEORIA NUNCA PUEDE SER FALSADA POR LA OBSERVACION NI POR EXPERIMENTO ALGUNO PERO SI POR OTRA TEORIA: NINGUN EXPERIMENTO,INFORME EXPERIMENTAL , ENUNCIADO OBSERVACIONAL O HIPOTESIS FALSADORA, de bajo nivel corroborada puede originar por sí mismo la falsacion. No hay falsacion sin la emergencia de una teoría mejor.
Intenta sintetizar el falsacionismo popperiano incorporando elementos de la teoría de los paradigmas de Kuhn, así como la idea de cambio de teorías como cambio de paradigmas. Pero a diferencia de Kuhn, Larkatos no renuncia a proponer un criterio de elección racional entre teorías rivales. Para él una teoría, en tanto conjetura, puede ser reemplazada por otra, pero no por cualquiera entre tantas que proliferan en momentos de crisis, sino por aquella que en lo principal, incluya los mismos elementos, pero luego la supere al realizar predicciones exitosas.
UNIDAD 5
La palabra “explicación” tiene un uso habitual (narración, adiestramiento en procedimientos, explicación de significados, elucidación conceptual, distinción conceptual) tiene un uso técnico en el lenguaje científico y epistemológico diferente.
Esta polisemia (una misma palabra que tiene varias acepciones) parcial es frecuente en el lenguaje corriente, en la ciencia si es una cuestión grave, donde se debe tratar de generar univocidad, como precisión lingüística y conceptual.
En ciencia se debe diferenciar entre DESCRIBIR Y EXPLICAR
DESCRIBIR= responder la pregunta de CÓMO es algo
EXPLICAR=responder a la pregunta de PORQUE algo es como es
Ej. Censo, “describe” la realidad social, un sociólogo a partir de ello “explicaría” el porqué por ej. se deteriora la calidad de vida por la mayor tasa de natalidad.
EXPLICACION CIENTIFICA: ES UN INTENTO POR HACER COMPRENSIBLE O INTELIGIBLE EVENTOS PARTICULARES O HECHOS GENERALES APELANDO A “OTROS” HECHOS PARTICULARES O GENERALES DE ALGUNA RAMA DE LAS CIENCIAS FACTICAS.
EXPLANANDUM…… aquello que requiere una explicación, lo explicable
EXPLANANS ………...aquello que proporciona la explicación, lo que explica
Analizar el concepto de explicación supone no sólo caracterizar con precisión el explanandum y el explanans, sino también la índole de la RELACION EXPLICATIVA entre ambas.
MODELOS DE EXPLICACION CIENTIFICA
1) EXPLICACION NOMOLOGICA-DEDUCTIVA: ( N D)
La explicación (explanans) de un enunciado E (explanandum) está integrada por dos tipos de enunciados:
a) las condiciones antecedentes (C1,C2…Cn), que describen las circunstancias particulares iniciales en las que se produce E
b) las leyes generales (L1,L2…Ln) que explican E
Así C y L funcionan como PREMISAS, de una inferencia deductiva, cuya conclusión es E
Su esquema es, entonces:
L1,L2….. Ln explanans (lo que explica)
C1,C2…..Cn_____________________________________
E exlanandum (lo explicado)
Ej. Todos los metales se dilatan con el calor
Este trozo de hierro es un metal
Por lo tanto_________________________
Este trozo de hierro se dilata con el calor
Para Hempel una explicación nomologica-deductiva debe cumplir las siguientes CONDICIONES DE ADECUACION:
*El explanandum debe ser consecuencia lógica del explanans
*El explanans debe contener leyes generales (de las que se deriva el explanandum)
*El explanans debe tener contenido empírico
*los enunciados que componen el explanans deben ser verdaderos (verdad como correspondencia = coincidencia con un estado real de cosas. Mientras que los anteriores hacen a la consistencia deductiva (e.e. su carácter lógico, no material) Recuerde que se trata de "explicar" algo que sucede en lo "real".)
Los tres primeros requisitos son de carácter lógico y el cuarto de índole empírico.
Hempel y Nagel: este tipo de explicación es la fundamental, al punto que las otras formas de explicación serán pertinentes en la medida en que se aproximen a ella (la estadística) o que se puedan reducir a ella (la teleológica y la genética)
2) EXPLICACION ESTADISTICA-INDUCTIVA : ( E I ) :
Su estructura es muy semejante a la explicación deductiva:
L1,L2….Ln
C1,C2….Cn
E
Se diferencia en dos aspectos:
a) Las leyes no son leyes generales de universalidad estricta sino generalizaciones estadísticas
b) La doble línea indica que las premisas apoyan a la conclusión con una probabilidad p (numero probabilístico comprendido entre 0 y 1)
La conclusión se deduce de las premisas: el explanans no implica lógicamente al explanandum, solo le otorga cierta probabilidad
La línea simple representa implicación lógica , la doble representa una relación de sustento inductivo tal que el valor numérico particular de la variable p constituye la “fuerza” de ese apoyo , que puede reemplazarse por una estimación mas vaga, con expresiones como “muy probable” ,poco probable” ,o “apoyo inductivo fuerte” , “apoyo inductivo débil”
Ej. La gran mayoría de las infecc con estreptococos remiten rápidamente con penicilina
Juana tenía una infección con estreptococo
Juana recibió un tratamiento con penicilina
P=0,9
Juana se recuperó rápidamente
HEMPEL considera a la explicación deductiva como fundamental porque está asociada al hecho de que la relación de implicación lógica entre premisas y conclusión maximiza el valor predictivo de la explicación, pero la relevancia de la explicación inductiva depende de que una muy alta probabilidad de acaecimiento de E la “acerque “a la validez deductiva.
3) EXPLICACION GENETICA:
Tipo de explicación que se presenta con cierta regularidad en la historiografía y en la sociología de la historia.
Consiste en explicar un hecho histórico señalando una sucesión de hechos anteriores, encadenándolos de modo que integren un proceso que termina en el hecho de explicar. Se registran no “todos “los hechos previos, sino los de relevancia causal en el desarrollo del proceso
Hemple: cancelo la autonomía de esta explicación reduciéndola a las explicaciones legaliformes: “cada” eslabón del proceso sería una explicación deductiva o estadística, lo que equivale a transformar la explicación genética en una secuencia de explicaciones ND o EI.
Brown, considera en cambio que la explicación genética puede explicar el hecho en cuestión por sucesos, procesos o situaciones de distinta naturaleza que no se exponen a través de leyes universales o generalizaciones estadísticas sino por medio de enunciados particulares que describen hechos y situaciones específicos que se pueden “fechar”
Winch: la explicación histórica no es la aplicación de generalizaciones y teorías a casos particulares sino la búsqueda de relaciones particulares internas.
4) EXPLICACION TELEOLOGICA
Su modelo más reciente establece una relación explicativa “intenciones –fines” (ej. ¿“porque estudian los alumnos de IPC? porque tienen que aprobar la materia”)
Según la PROPUESTA DE BRAITHWAITE –HEMPEL Y NAGEL
Su versión implica sostener al menos 3 afirmaciones:
a) La explicación teleológica consiste en explicar un hecho presente por lo que ocurrirá en el futuro.
b) Es legitimo entender el fin en el sentido aristotélico de “causa final” con lo que la relación medio-fines se vuelve relación causal
c) La explicación teleológica puede, de este modo, reducirse a una explicación legaliforme.
Pero según los estudios de Von Wright permiten concluir que ninguna de tales posiciones describe adecuadamente la índole de la explicación teleológica.
Primero en ella no se explica un hecho presente por lo que ocurrirá en el futuro, sino por algo que ocurre en el presente, o sea, por la implementación de los medios-fines a partir de las “intenciones”
2 – la relación medios-fines o “intenciones-fines” no es asimilable a la relación causa-efecto. Aun dejando de lado la “causa final” invirtiendo la relación, procurando entender el fin como “efecto deseado” y los medios o intenciones como causa , no parece pertinente reconocer como causal una relación en la que la supuesta causa a veces genera su “efecto”( fin) y otras no, ya que no siempre logramos nuestros propósitos o intenciones
Él retoma la propuesta aristotélica de los SILOGISMOS PRACTICOS, para dar cuenta de la explicación teleológica.
Los describe: a) la premisa mayor del silogismo menciona algo pretendido o una meta
b) la premisa menor presenta algún acto o acción conducente al logro de la meta, es decir un medio dirigido al fin.
c) la conclusión consiste en el empleo de ese medio para alcanzar el fin en cuestión.
El silogismo práctico traduciría la naturaleza de la intencionalidad y la racionalidad teleológica en las acciones humanas.
Esquema:
A se propone dar lugar a p
A considera que no puede dar lugar a p a menos que haga a
Por consiguiente, A se dispone a hacer a
Por lo tanto, al sostener que A se dispone a hacer algo, que “pone en marcha” efectivamente una acción, el explanandum es una acción
Entonces el silogismo practico no es evaluable en términos de validez lógica ya que la V de las premisas no garantiza la V de la conclusión (el sujeto intencional puede se, cambiar de idea, y por lo tanto no iniciar la acción)
DIMENSION EXPLICATIVA Y PREDICTIVA
En términos general la corriente hempeliana consideraba que ene l tipo ND la explicación y la predicción, tienen la misma estructura lógica, aunque con dos matices diferenciales.
1) EXPLICACION ND Y PREDICCION: ESTRUCTURA HOMOGENEA.
a)En la explicación disponemos del explanandum y buscamos leyes generales que lo implican (explanans) mientras que en la predicción anticipamos deductivamente al explanandum
b) Obviamente la predicción se proyecta al futuro, predecimos hechos que aún no han sucedido.la identidad de estructura permitiría entender a la explicación deductiva como HOMOGENEA, respecto de la predicción: la relevancia y la fecundidad explicativa se traslada a la predicción: si identifico un fundamento nomologico de la explicación actual, podría afirmar que, en el futuro, siempre que se dé el explanans se dará el explanandum.
2) EXPLICACION ESTADISTICO-INDUCTIVA: IMPOSIBILIDAD DE PREDICCION.
Esa estructura homogénea de la expl. ND y la predicción no se da en la estadística porque es a posteriori, porque se explica un hecho luego de ocurrido y no puede predecirse en un sentido estricto. No podemos predecir estadísticamente casos individuales por abrumadora que sea la mayoría de los casos estudiados.
PROBLEMAS DE LA EXPLICACION Y PREDICCION EN LAS CS. SOCIALES.
Esta tesis de Hempel y Popper sobre la identidad estructural explicación-predicción es difícil de sostener en explicaciones y predicciones sociales.
Antes que predicciones legalijormes se dan por ej. “pronósticos condicionados” donde la aparición del evento pronosticado depende de la aparición aun pendiente de condiciones antecedentes.
Lenk puso el énfasis en los “pronósticos tecnológicos” vinculados con condiciones influenciables por los actores sociales.
Tales pronósticos no se presentan como conclusiones singulares de argumentos, incluyen variables temporales y tienen la estructura de un enunciado condicional que expresa “dependencia” respecto de una situación “construible”
La conclusión parece ser que la identidad estructural es poco significativa en las cs. sociales.
Reflexionar en qué medida la extrema complejidad de la acción humana admite perspectivas explicativas alternativas aun, respecto de los mismos hechos. El pluralismo metodológico de las cs.sociales obedece a la misma exigencia.
En ciencia, las condiciones de pertinencia teórica, explicativa y predictiva, tienen siempre que ver con las mismas dimensiones: relevancia, fecundidad explicativa y por ultimo simplicidad.
MONISMO Y PLURALISMO METODOLOGICO
LA TENSION ENTRE EXPLICACION Y COMPRENSION, cuestión de metodológica de las ciencias fácticas comienza a presentarse como problemática hacia mediados y fines del siglo XIX y principios del XX, por consideraciones realizadas por Droysen y Dilthey.
Hasta entonces se entendía que el método de justificación, modelo en las ciencias fácticas, era el correspondiente a las ciencias naturales (el inductivista y posteriormente en el s XX el hipotético-deductivo) y así las ciencias sociales se subsumían bajo dicho modelo. Esta concepción en líneas generales, se la conoce bajo la denominación de MONISMO METODOLOGICO.
Esta es la corriente epistemológica que sostiene que existe un único método aplicable a las ciencias, naturales como sociales, afirmando el monopolio del método hipotético deductivo o del dialectico. En tal sentido toda posición monista es reduccionista, ya que reduce la posibilidad al uso de esas posibilidades.
PLURALISMO METODOLOGICO: corriente epistemológica que sostiene que para cada tipo de ciencia fáctica, es decir para las naturales, y para las sociales existe un método propio de justificación de hipótesis o teorías para cada una de ellas. En el primer caso podrá ser inductivista o el hipotético –deductivo y en el segundo, será el intencional, el genético, etc.
LA TENSION ENTRE EXPLICACION Y COMPRENSION- DOC. CATEDRA BERALDI
El problema de la explicación en las ciencias sociales.
1. El “problema” de la explicación en las ciencias fácticas
Hempel: los dos tipos de explicación científica, el modelo nomologico-deductivo y el modelo estadístico-inductivo, sirven de soporte al modelo de explicación característicamente histórico.
Defiende que la explicación histórica aspira a demostrar que los hechos no ocurren al azar, sino en vista de ciertos antecedentes o condiciones simultaneas y el no poder formular leyes grales en las explicaciones históricas es por la excesiva complejidad de tales leyes y la insuficiente imprecisión con que las conocemos. Así las explicaciones históricas son esbozos de explicación.
Popper: representante tb. Del modelo nomologico-deductivo, afirma que la razón de que las leyes no sean formuladas en las explicaciones históricas es que son demasiado triviales para merecer mención y que las dan por implícitamente supuestas.
La cuestión acerca de si la ciencia y particularmente las ciencias sociales deben explicar o describir no está zanjada.
Von Wright: analiza las diferencias de los métodos explicativos entre las ciencias humanas y las naturales. Desde lo metodológico, se suelen señalar 2 actitudes con relación al problema del método, monismo metodológico y pluralismo metodológico.
Hempel, en la base de la discusión hay 2 factores que estimulan la investig. Científica:
1 – el deseo persistente del hombre por mejorar su posición estratégica en el mundo por medio de metidos confiables de predicción y control de los acontecimientos
2 – insaciable curiosidad intelectual del hombre
1.1. Origen de la controversia:
La dicotomía tiene sus raíces en la historia de las ideas, relacionada con el problema de si la construcción teórica es intrínsecamente igual en las cs. Naturales que en las sociales, humanas o del espíritu.
Von Wright: el problema parte de las dos tradiciones científicas: la aristotélica y la galileana que se remonta a Platón. La primera se vincula a los esfuerzos humanos por “comprender” las cosas “teleológicamente”, comprender las cosas como tendientes a un fin. Y la 2da. Por “explicarlas causalmente. Y estas dos tradiciones difieren en el planteamiento de las condiciones de satisfacer por una explicación científica.
En las historia de las ideas, de las ciencias, hay dos corrientes epistemológicas fuetes: la positivista y la antipositivista: la positivista: representada por Comte y Mill, queda vinculada a la tradición galileana por su monismo metodológico y el antipositivista, representado por Dilthey y Weber , representa una tendencia mucho más diversificada y heterogénea ,rechazando el monismo metod. Y rehusándose a establecer el patrón metod. a las ciencias naturales exactas como idea regulador único y supremo de la comprensión racional de la realidad, para lo que von Wright usa el nombre de HERMENEUTICA ,vinculada a la tradición aristotélica.
1.2. El problema del metido y el reduccionismo:
Positivismo: sostiene la unidad de método, subordinando el método de las cs.sociales al de las naturales, e ideal metodológico las cs. Físico-matemáticas, poniendo énfasis en la explicación y predicción. La explicación es causal y no teleológica (que son acientíficas)
Antipositivismo: sostiene contraste entre las cs. Como la física, química o fisiología, que aspiran a generalizaciones sobre fenómenos reproducibles y las cs. Como la historia, que buscan “comprender” las peculiaridades individuales y únicas de sus objetos, impugnando enfoque positivista de la explicación. Cs. Sociales o humanas, para Dilthey, no pueden buscar la comprensión de la vida por categorías externas a ella, sino por categorías intrínsecas, derivadas de ella misma, por lo que no deben explicar, sino comprender y no lo pueden hacer por métodos de las cs. Naturales sino mediante los propios. Para “explicar” (comprender) la vida no sirve categorías como leyes lógicas o razonamientos deductivos o inductivos, que son construcciones formales u objetivaciones hechas por el hombre, y no son “la vida”. Las categorías propias de la vida, Dilthey las llama “vivencias” y son, lo que nos ocurre y lo que nos ocurre históricamente. Son acontecimientos de la vida, el querer, el sentir y el representar.la comprensión en las “ciencias del espíritu” se da porque la vida se exterioriza en textos, que dan cuenta de las vivencias del que lo escribió y entonces, nos permiten comprender, además del texto, a su autor.
2.- La “comprensión” en las ciencias sociales.
Corriente antipositivista: objetivo de las cs. Naturales es “explicar” y el de la historia y las cs. Sociales es “comprender “los fenómenos que ocurren en su ámbito.
Broysen : introdujo la dicotomía metodológica y acuño los nombres de explicación y comprensión y luego desarrolladas por Dilthey, que uso el término “ciencias del espíritu” por ciencias humanas o sociales.
Uso cotidiano: sin distinción aguda entre explicar y comprender: cualquier tipo de explicación proporciona una comprensión de las cosas. Comprensión cuenta además con una connotación psicológica de la que carece la “explicación”
Simmel : la comprensión, como método característico de las cs. Del espíritu es una forma de empatía y recreación en la mente el científico de la atmosfera espiritual, pensamientos y motivos de sus objetos de estudio.
Von Wright :la comprensión está ligada tb. a la “intencionalidad” de un modo que la explicación no lo está. Esta dimensión intencional es la que juega un papel relevante en la discusión metodológica mas reciente a través de la hermenéutica.
El gran objetivo de Dilthey consistió en desarrollar una metodología apropiada para el “entendimiento” de las obras humanas, eludiendo el reduccionismo y mecanicismo de las cs. Natuarales, ya que la vida debe ser entendida a partir de la propia experiencia de la vida.
Es centra para el esta distinción entre las cs.nat.y sociales. Las primeras descansan en el concepto de “fuerza” propuesta por la física y matemáticas. Las cs.sociales, en cambio se apoyan en el concepto de “sentido “y en la historia. Así el concepto clave de las cs. del espíritu es el “entendimiento” y la “comprensión” .
Comte, representante en la sociología del positivismo.
Weber, inclinado hacia lo opuesto al positivismo, mas sólidamente, apareciendo la “comprensión” como uno de los elementos de su concepción del método científico. No significaba una identificación completa con el sujeto investigado, sino que es la capacidad de cualquier ser humano de entender al otro ser humano en una situación, aunque él no haya vivido exactamente esa situación. Algo parecido al “ponerse en el lugar del otro”, para comprender una actitud, una acción, etc.
El sentido propio de comprensión o entendimiento se halla en un contexto que se extiende entre el pasado y el futuro. Historicidad y temporalidad, son dimensiones inherentes e inevitables de toda comprensión .hay que tender un puente entre el pasado y el presente para comprender el pensamiento, acción o actitud de otro ajeno en tiempo. El todo recibe su sentido de las partes y estas solo pueden comprenderse en relación con el todo, formándose un circulo hermenéutico (GAdamer)
El sentido es histórico, dinámico y contextual, es siempre parte de una determinada situación.la interpretación siempre remite a la situación en la cual se halla el intérprete, lo que no significa que sea subjetivo y nos lleve al relativismo. El sentido es una percepción de una relación real dentro de un nexo anterior a la separación sujeto-objeto en el pensamiento.
Antipositivistas, tratan de substituir las nociones científicas de explicación, predicción y control por las interpretativas de comprensión, significado y acción.
Von Wright , sostiene quela a metodología de las cs. humanas gradualmente atrajo la atención de filósofos analíticos (positivistas y neopositivistas que pretendían excluir por completo la metafísica de las cs.) y que esta filosofía se vio inmersa en la lucha entre la metodología positivista y antipositivista.
En los años 60, reino una coincidencia gral en cuanto al que el modelo explicativo causal suministraba un marco de referencia idóneo para el estudio de los fenómenos sociales, pero hacia los 80, la alternativa interpretativa, el modelo de la comprensión, comenzó a ganar adeptos en países anglosajones. Filósofos analíticos, reflejaban este interés, por el concepto de “acción” vinculado a la “intencionalidad”.
Así, W.Dray, expresa que las explicaciones de la historia son científicas y racionales a diferencia de Hempel, aunque no son ciencia de leyes generales. Sostiene que la historia explica y mostrando que una acción fue el proceder adecuado teniendo en cuenta los antecedentes, abordando la pregunta ¿cómo fue posible? Y no la de ¿por qué? .Von Wright indicara que este giro del “porque” al “como” lo sitúa cerca de la hermenéutica.
Así von Wright busca un puente entre “explicación” y “comprensión”, sosteniendo que Hempel y Dilthey, no son incompatibles sino complementarios. Influenciado por L.Vittegenstein y la filosofía neowittegensteniana y tb. por la hermenéutica, postula que la filosofía analítica es afín a la hermenéutica a partir de los conceptos de significado, intencionalidad, interpretación y comprensión y por compartir, además, la preocupación por la metodología y filosofía de la ciencia. Sostiene que la “comprensión” en el lenguaje de la filosofía hermenéutica debería diferenciarse de la empatía, ya que es una categoría antes semántica que psicológica.
Así von Wright indica que las explicaciones causales con típicamente cuasi-teleologicas:susceptibles de formulación en términos teleológicos pero cuya validez depende de la efectividad de conexiones nómicas(leyes) por lo que suelen responder sobre ¿Cómo es ¿ o ¿Cómo llega a ser posible algo?y tienen un lugar predominante en las ciencias humanas , permitiendo comprender lo que algo es o la razón por la que ocurre.asi los acontecimientos resultantes de acciones básicas ,tienen lugar cuando las investimos de intencionalidad.
2.1. El modelo Comprensivista de von Wright
De acuerdo a lo antes dicho, la noción de causalidad vale con más facilidad para el ámbito de los fenómenos naturales que en el de los humanos. Pero, von Wright sostiene que si rastreamos el concepto de “causalidad”, veremos que se origina en nuestro conocimiento inmediato, íntimo, de la acción humana, proviene de una proyección de nuestras propias acciones sobre el mundo natural. Nosotros, cultural o históricamente, experimentamos la acción y la noción de causa surge por una especie de proyección de nuestras propias acciones al mundo natural. Así, si nosotros no actuáramos, no tendríamos el concepto de causa.
En lugar de pensar que yo soy la causa por la cual, supongamos,”x” murió por mi acción o esta fue la causa de la muerte de “x”, la causalidad en la naturaleza deriva del “saber que yo puedo” matar a una persona. O sea invierte e orden con respecto a la idea que previamente uno podía tener.
Busca mostrar que la conducta humana es algo completamente distinto de los hechos que nos encontramos en el mundo natural y hasta formula hipótesis de cómo en el ámbito humano puede haber procesos causales de tipo retroactivo, en los que el efecto es anterior a la causa. Es primaria causalmente, no temporalmente.
Por ej. El hecho de mover el brazo: primero está la decisión de hacerlo, segundo, el proceso cerebral y tercero la acción, pero temporalmente, primero está el proceso cerebral y segundo la acción.
Esta cuestión está emparentada con la “intencionalidad” y la “responsabilidad “. Un ser humano es responsable de su acción, y solo podrá serlo si la decisión la toma él.
Un concepto fundamental es el concepto de “acción”, su caracterización consiste en la producción de cambios que no hubieran tenido lugar de no haber mediado nuestra intervención. Pero la acción es tanto la acción propiamente dicha, como la omisión, que es una acción negativa.
Por lo tanto, es totalmente distinta la explicación, porque en el caso de las acciones no voy a buscar leyes, y en los fenómenos naturales no puedo adjudicarles intención, ni decisión ni responsabilidad. , por lo que lo más adecuado para “comprender” las acciones humanas no es el esquema de Hempel (leyes) sino el de Aristóteles (interpretación) que es el se conoce como silogismo pràctico, sobre las explicaciones intencionales, ya visto.
En el modelo de” explicación comprensivista” de von Wright , el concepto de causalidad supone de la libertad, ya que únicamente a través de la idea de hacer cosas se llega a “comprender” las ideas de causa y efecto.
2.2. El Modelo Pragmático de van Fraassen:
Este modelo está vinculado fundamentalmente con el contexto, y aunque este epistemólogo no se vincule directamente con el comprensivismo, se observan semejanzas con esa posición metodología.
Van Fraassen, considera los problemas epistemológicos mas allá, no exclusivamente desde el punto de vista del análisis de las relaciones lógicas y conceptuales (dimensión sintáctica y semántica) sino tomando en cuenta lo denominado dimensión pragmática, que toma en cuenta los usuarios o las circunstancias en las cuales se usan las expresiones.
Con Dilthey el sentido era contextual y la interpretación siempre se remite a la situación en la que está el intérprete. El círculo hermenéutico tiene otra importante consecuencia, no existe realmente punto de partido verdadero para el entendimiento, lo que significa que no es posible concebir un entendimiento carente de presupuestos. Todo acto de entendimiento, de “comprensión” tiene lugar en el interior de un determinado contexto u horizonte. Lo que es igualmente valido para las explicaciones científicas, que siempre requieren un marco de referencia. Así solo comprendemos solo por referencia a nuestra experiencia.
Van Fraassen considera inútil explicaciones sin tener en cuenta su contexto, ya que una explicación puede ser perfectamente válida para un contexto y estar fuera de lugar en otro.
Lo que sostiene es que una pregunta, en primer lugar, siempre se refiere a un tópico y el tópico será el explanandum. Y la propia suposición de que el explanandum es verdadero depende de una cuestión contextual.
Por otro lado, van Fraaseen sostiene que puede haber distintas respuestas e incluso totalmente distintas, a la misma pregunta de ¿Por qué? , toda validas, cada una en relación con un contexto, lo cual no quiere decir que cualquier respuesta en cualquier contexto sea legítima. Es decir que sólo puede haber explicaciones validas alternativas.
Indica que puede explicarse el hecho A a partir del hecho B o puede hacerlo al revés, explicar B a partir de A, contradiciendo a Hempel respecto a que la explicación era unidireccional, es decir que va de las leyes a las consecuencias y no al revés. Pero, en este caso, si uno acepta un determinado contexto determinado, es perfectamente legítima una explicación y no lo es la otra.
Punto importante de van Fraassen, es que es completamente equivocado pensar que las explicaciones constituyen uno de los objetivos esenciales de las ciencias, ya que una explicación no puede ser juzgada como correcta o no sobre la base de las caract. que Hempel había tomado en cuenta, relativizando así el concepto de explicación
A modo de conclusión:
Punto crítico son los conceptos de método y objetividad propios de la ciencia moderna.
Actualmente desde la epistemología comprensivista se destacan lo sig. Aportes de:
1) A.SCHÜTZ: la “comprensión” es la reconstrucción de las perspectivas que los individuos tienen de la sociedad. la acción social es entendida como una vivencia guiada por un plan o proyecto.la interpretación surge de los motivos del actor, pero el límite es la imposibilidad de generalizar y predecir.
2) GADAMER: aplica el método de análisis de textos históricos y sostiene la naturaleza histórica de la comprensión misma. Sostiene que hay una tensión entre la objetividad del texto y la subjetividad del intérprete y la forma de resolver esa tensión es mediante la fusión de horizontes, logra un acuerdo de ajuste de nuestros prejuicios .La etimología del término “hermenéutica” significa “explicación” y se trata de explicar unos enunciados analizándolos mediante otros enunciados .es pues el arte o la teoría de la interpretación.
Para él “la hermenéutica no constituye un método determinado que pudiera caracterizar por ejemplo a un grupo de disciplinas científicas frente a las ciencias naturales, sino que se refiere más bien a todo el ámbito de la comunicación infrahumana”
3) HABERMAS: destaca la capacidad de persuasión como estrategia para la dominación a partir de la comprensión de las significaciones dadas en la acción comunicativa. Comprensión: experiencia comunicativa que implica actitud reflexiva y la posibilidad no solo de intercambios de mensajes, sino también para cambiar y formar actitudes. Así, la hermenéutica se vincula con la retorica, con la argumentación de tipo informal. Sostiene que “el gran legado de la retorica sigue influyendo en puntos decisivos en relación con la nueva labor de interpretación de los textos”. retorica y hermenéutica son profundamente afines ( por ej. La retorica de Melanchthon,teólogo alemán colaborador de M. Lutero y su reforma , ejerció influencia determinante en la configuración del sistema escolar)
4) P. RICOEUR: Problematiza el intento de resolver la aporía central de la hermenéutica, es decir, la alternativa entre explicación y comprensión, que a su juicio es infundada. Buscara la complementariedad de las dos actitudes, dado que la objetivación del discurso en la obra y el carácter estructural de la composición, agregando el distanciamiento mediante la escritura, obliga a poner en tela de juicio la oposición recibida de Dilthey entre “comprender “y “explicar”.
Según von Wright , es ilusorio creer que la verdad reside inequívocamente en una de esas dos posiciones opuestas (explicacionista-comprensivista) sino que existe una confrontación de base fundada en la elección de conceptos primitivos básicos para la argumentación en conjunto. Esta elección es “existencial” consistiendo en la opción por un punto de vista no susceptible de ulterior fundamento.
Sin embargo, se puede considerar desde Dilthey, que las ciencias del espíritu y, por ende, el método de comprensión, son epistemológicamente anteriores a las de la naturaleza, a las que por lo demás abarcan, pues toda ciencia natural es también un productor histórico.
Aún así la cuestión no está zanjada y sigue en pie como problema psicológico.
UNIDAD 6.
CORRIENTES EPISTEMOLOGICAS CONTEMPORANEAS (CAP. 7)
La epistemología del siglo XX: problemas fundamentales:
a) La concepción heredada y la perspectiva cientificista.
Uno de los problemas centrales de la epistemología es la naturaleza o estructura de las teorías científicas.
Años 20, se consideraba a las teorías científicas como cálculos axiomáticos con los que se interpreta parcialmente el material empírico por medio de reglas de correspondencia., posición denominada por sus críticos CONCEPCION HEREDADA.
(LA "CONCEPCION HEREDADA" de la ciencia, impulsada sobre todo por los patrocinadores del Cìrculo de Viena y el neopositivismo en general , sostenìa una concepcion de la ciencia basada en el inductivismo, como mètodo cientìfico ùnico y universal para demarcar el àmbito de la ciencia , de la no ciencia y la pesudociencia.
CONCEPCION HEREDADA, se llamò crìticamente a partir de los años 60 a esta POSICIÒN TANTO POSITIVISTA, INDUCTIVISTA que empieza con Comte, que utiliza los elementos tanto de la tradiciòn empirista como racionalista para reforzar la fe de la ciencia en su propia validez exclusiva, de modo tan fuerte que da cuenta de la estructura de la ciencias facticas,apoyàndose en esta fe, ,COMO A LA DE LOS DEDUCTIVISTAS.
En esencia, la "concepción heredada" es la que cree que la ciencia refleja la realidad objetiva.Incluye la convicciòn de que los problemas del conocimiento se identifican (son una sola y misma cosa ) con los de la ciencia
En ese sentido , de tomar la "tradiciòn" es que se la llama "heredada". pero es simplemente la concepciòn del positivismo ,neopositivismo , cientificismo y hasta el falsacionismo popperiano . FORO DE REPASO )
SUPPE: esta expresión se usa para referirse al a posición positivista, la “versión” del Circulo de Viena, usada por Putnam en 1962 por primera vez.
Tb. a pcipios de los 20 , un grupo de científicos sociales conocidos luego como la “Escuela de Frankfurt” (Horkheimer,Adorno y Marcuse y luego de la guerra, Haberas y otros ) trabajan en el análisis del impacto de la ciencia en el pensamiento del siglo XX, con el interés centrado en el modo en que la ciencia de finales del s.XIX y pcipios del XX, había logrado establecer firmemente como “único medio” licito para conseguir un conocimiento cierto, de allí la acusación de cientificismo para referirse a la “concepción heredada” .
El cientificismo incluye la convicción de que los problemas del conocimiento se identifican con los de la ciencia. El positivismo, con Comte, utiliza los elementos tanto de la tradición empirista como racionalista para reforzar la fe de la ciencia en su propia validez exclusiva, tanto para dar cuenta de la estructura de las ciencias lácticas.
Los logros de pcipios del s XX, en el campo de las cs. Formales (Frege ,Russell , Hilbert) generaron en los filósofos de las ciencias empíricas la idea de adoptar la axiomatización y esto lo asumieron tanto los positivistas lógicos del circulo de Viena y de la Escuela de Berlín, como los hipotético-deductivistas en sus distintas versiones.
Los metodòlogos de la época buscaron el “método científico “único y universal para demarcar el ámbito de la ciencia, de la no ciencia y de la pseudociencia.
b) La historia de la ciencia
Ese desinterés por el origen y las contingencias históricas de las teorías se expresó en la frase “No existe una lógica del descubrimiento”, al ser considerado el desarrollo de la ciencia como un proceso de creciente acumulación de conocimientos.
Desde los años 50, comienza a reformularse el campo de la epistemología desde otras perspectivas. El problema del metido deja de ser el centro de atención y se acentúa el interés por la Historia de la ciencia., lo que revelaría que las ciencias fácticas en su evolución muestran una estructura que difiere de lo reconocido por las concepciones inductivistas y falsacionista.
Los enfoques de Lakatos y Kuhn comparten el interés y Lakatos adopta resultados de Kuhn en la elaboración de la metodología de los programas de investigación científica, intentando superar las limitaciones del falsacionismo popperiano.
c) Piaget: psicología genética y epistemología
Siglo XX, PIAGET, elabora un capitulo distinto de la metaciencia, desarrollado por la epistemología genética.
Sus trabajos de psicología genética y de epistemología buscan una respuesta ala pregunta fundamental sobre la construcción del conocimiento. Teoría llamada EPISTEMOLOGIA Genética, porque estudia el origen y desarrollo de las capacidades cognitivas debe su base orgánica, biológica, genética, describiendo el curso del desarrollo intelectual desde la fase del recién nacido, donde predominan los mecanismo reflejos, hasta la etapa adulta, caracterizada por procesos conscientes de comportamiento regulado.
En el desarrollo genético del individuo se identifican y diferencias periodos del desarrollo intelectual, tales como el sensorio-motriz, el de operaciones concretas y el de operaciones formales.
Considera al pensamiento y a la inteligencia procesos cognitivos que tienen ase en lo orgánico –biológico que va desarrollándose en forma paralela a la maduración y el crecimiento biológico. La lógica del niño no solo se construye progresivamente siguiendo sus propias leyes, sino que, se desarrolla a lo largo e la vida, pasando por etapas antes de alcanzar el nivel adulto. Su obra es difundida por el mundo entero e inspira, aún hoy, trabajos en dominios muy variados, (psicología, educación, epistemología, economia y derecho)
d) Tradición francesa: la historicidad de la ciencia
En la tradición francesa, la epistemología reconoce a la historia como ámbito de análisis preferencial Bachelard, Cavailles, Koure, CAnguilhem y Foucault van más allá. Para ellos la historicidad de la ciencia pone en evidencia la historia de la racionalidad. Si la epistemología es el discurso normativo, es el lugar mismo de la verdad y de la construcción de la racionalidad. Tal construcción no es ajena al poder, o sea a la constitución de las instituciones sociales que regulan la vida de las personas.
La concepción epistemológica del POSITIVISMO LÓGICO
a) La historia del Positivismo lógico.
- OBJETIVOS
- PROGRAMA
- EL METODO DE VERIFICACION Y LAS PROPOSICIONES DE LA METAFISICA
- LAS PROPUESTAS FISICALISTAS DE CARNAP Y DE NEURATH
OBJETIVO:
Objetivo de los positivistas lógicos: eliminar los pseudo-problemas, de cuestiones ilusorias y de reflexiones sin objeto, ya que fuera del análisis de las proposiciones empíricas, de las tautológicas y de los métodos deductivos, la filosofía no tiene otro objeto de estudio, confinados a ser cuestiones puramente verbales desprovistas de sentido.
PROGRAMA
La “concepción heredada”, es un producto del POSITIVISMO LOGICO, escuela surgida del Circulo de Viena y de la Escuela de REichenbach de Berlín, compuestas por científicos y matemáticos.
En sus comienzos el Circulo de Viena era centro de reunión antes que movimiento organizado ,pero fue tomando características de un partido político, al publicar en 1929 , un manifiesto titulado “EL PUNTO DE VISTA CIENTIFICODEL CIRCULO DE VIENA” , escrito por CARNAP, NERATH Y HAHN, Allí reconocen como precursores a Hume ,Comte ,Mill, Avenarius y Mach, Helmohltz, Reinman,Poincare,Enrique¡ues, Deum ,Boltzmann y Einstein.
Reconocen parcialmente el aporte de estos autores, especialmente en el campo sociológico y moral.
1919- primer congreso organizado en Praga y entre 1930 y 1940 varios congresos en Konigsber, Copenhague, Praga, Paris y Cambidge. , que difundieron sus lemas por los principales centros académicos mundiales y captar el interés de importantes científicos.
Así tomaron contacto con científicos en Escandinavia y con la escuela de los empiristas de Upsala (grupo holandés) filósofos norteamericanos (Nagel y ots.) y británicos. , consolidando también alianzas con lógicos polacos, entre ellos Tarki, que ejerció especial influencia en sus miembros, sobre todo en Carnap.
Principal medio de publicación fue la REVISTA “ANALEN DER PHILOSOPHIE” O “ERKENNTNIS”, dirigidas por Carnap y Reichenbach, diseminando por el mundo las ideas del círculo.
Otros aportes aparecieron en recopilación de monografías llamada “Ciencia Unificada”, junto colección de libros dirigida por Schlick.
Los positivistas vieneses propusieron a la filosofía avanzar “sobre la segura senda de la ciencia” integrando la física y la biología en una ciencia unificada, empírica e inductiva, que este en condiciones de legitimar sus métodos mediante la observación.
Mach: fuente principal de inspiración por la importancia que otorgó a la observación así como su compromiso con el fenomenalismo, que reducía todas las ciencias al estudio de las sensaciones.
La concepción heredada, buscaba un medio para evitar la introducción de entidades metafísicas en las ciencias.
La expresión “positivismo lógico” era por la incorporación de los descubrimientos de la lógica contemporánea, especialmente el simbolismo lógico de Frege, Peano y Russell.
Dividían a las proposiciones significativas en dos tipos:
Las proposiciones formales, como las de la logia y matemática pura (que solo son tautológicas y las proposiciones facticas (verificables empíricamente), por lo que si una proposición no es una verdad o falsedad formal o no puede someterse a prueba experimental entonces carece de sentido.
EL METODO DE VERIFICACION Y LAS PROPOSICIONES DE LA METAFISICA
Como Hume o Kant, los positivistas lógicos advierten la imposibilidad de un conocimiento más allá de los límites de la experiencia sensible, pero lo original en ellos es que esta imposibilidad no afecta a lo que se puede conocer sino a lo que se puede decir. Distinguiendo entre términos observacionales y teóricos, permiten el uso de estos últimos solo cuando tengan reglas de correspondencia que permitan dar una definición fenoménica.
La famosa formula, donde el sentido de una proposición consiste en el método de su verificación, esta dirigida contra los sistemas metafísicos y casi la totalidad de la historia de la filosofía, lo cual genero grandes dificultades a sus propulsores para afrontar las criticas.
Esta prescripción no significa que una proposición tiene sentido desde el momento en que es técnicamente posible su verificación empírica, sino que se trataría de que “en principio” es posible su verificación.
Sin embargo es difícil explicar esta condición, ya que es necesario determinar en qué momento el proceso de verificación esta terminado o cuales son las operaciones cognitivas que no necesitan mas argumentación ara ser consideradas definitivas.
Los positivistas lógicos, buscaron un punto de partida absoluto, epistemológico, surgiendo el tema de las proposiciones primeras o protocolares, que constituyen las descripciones inmediatas de las sensaciones. Desde el lenguaje observacional o protocolario sería un lenguaje de los datos sensoriales. El análisis lógico condujo al resultado negativo de que las “proposiciones del a metafísica son totalmente carentes de sentido” por contener pseudoproposiciones y no por tener proposiciones falsas o contradictorias.
Así una proposición tiene significado cuando se han fijado sus relaciones de derivación de proposiciones protocolares y de modo similar, una palabra solo tiene significado cuando las proposiciones en las que puede aparecer pueden retrotraerse a proposiciones protocolares.
Para que una palabra (a) tenga significado es necesario:
1. que las notas empíricas de “a” sean conocidas
2. que haya sido estipulado de que proposiciones protocolares es derivable “P (a)”
3. que las condiciones de verdad para “P(a)” hayan sido establecidas
4. que el método de verificación de “P(a)” sea conocido.
Muchos términos metafísicos no satisfacen estos requisitos, por lo que para Carnal, son carentes de significado las palabras “Dios” “lo incondicionado”, lo “infinito”, porque no pueden especificarse condiciones empíricas de verdad por lo que las frases construidas con esas palabras constituyen pseudoproposiciones.
Su peso en el curso de la historia de la filosofía, es porque “sirven para la expresión de una actitud emotiva ante la vida”.
LAS PROPUESTAS FISICALISTAS DE CARNAP Y DE NEURATH
La propuesta positivista consistió en afirmar que el lenguaje observacional o protocolar deberá ser un lenguaje fisicalista en el que se halara de cosas materiales, a las que se adscribieran propiedades observables. Así el lenguaje de la física, se considero universal, ya que todo lenguaje científico debería traducirse a la física para ser significativo, incluso el de la psicología, donde, según Carnap, “toda proposición puede formularse en lenguaje fisicalista ya que todas las proposiciones de psicología describen acontecimientos físicos, a saber, la conducta física de los humanos y de otros animales”.
En este contexto, el termino “física” alude a la ciencia caracterizada por reducir todo concepto a relaciones de magnitud, a una sistemática atribución de números a puntos espacio-temporales.
Neurath, destacado fisicalista, buscando el modo en que las distintas ciencias se articulan con la ciencia unificada, busco la definición de las reglas de una sociología empírica que cumpliera los requisitos de un lenguaje unificado.
Rechaza así todo tipo de dualismo, que es un resabio del a metafísica identificable en la división propuesta por dilthey, entre cs. De la naturaleza y del espíritu: ambas pueden ser coceptualizadas en un lenguaje fisicalista.
Trata de formular una sociología libre de metafísica puesto que, así como la conducta animal puede estudiarse de modo análogo a las piedras o las maquinas, así pueden estudiarse las conductas en grupos humanos. No se trata de trasvolar las leyes de la física a los seres vivos o los grupos humanos, por el contrario el sociólogo será libre de encontrar sus propias leyes, solo que ellas deberán hablar de predicciones que se ubican en el espacio y el tiempo.
Las predicciones se expresaran en el “lenguaje unificado del fisicalismo”, con ayuda de las leyes que formule el “conductismo social”. Las ciencias sociales deben librarse de conceptos como la “conciencia “para ocuparse de las reglas del comportamiento, establecer diferencias mensurables entre distintas formas de comportamiento humano.
Para Heuath , el marxismo es la teoría que contiene en mayor grado elementos de la sociología empírica pues los miembros del Circulo de Viena, eran cercanos a esa teoría , perola integración reduccionista que propone, responde a las aspiraciones centrales del programa del positivismo lógico mas que al ideario marxista.
El fisicalismo es citado, como el más claro ejemplo de reduccionismo cientificista, que consiste en la identificación de todo pensamiento racional con el pensamiento científico, así como la posterior asimilación entre el pensamiento científico y las teorías físico-naturales, lo conduciría a una forma de dogmatismo autoinmune a la crítica.
También fue considerado una expresión clara del neutralismo ético-político, aun cuando trata de asimilar el marxismo a su propuesta.
A pesar del fuerte apoyo que recibió de los positivistas lógicos, en la práctica científica condujo a grandes dificultades, ya que la historia de las ciencias registró su fracaso o estancamiento del programa fisicalista o cualquier otra forma de lenguaje unificado.
Sobre el pcipio de verificabilidad, tb se derrumbo la ilusión dogmatica de encontrar un criterio para distinguir entre ciencia y no ciencia.
En rasgos generales, el positivismo lógico, como filosofía de la ciencia, busco elucidar la “forma lógica “de las afirmaciones científicas antes que su contenido. Su interés fue clarificar la estructura lógica de “todas” las posibles afirmaciones pretendidas leyes científicas más que de cualquier ley particular, entendiendo el interés del filósofo en la construcción de adecuadas representaciones formales que proporcionen inmunidad frente a los altibajos de las teorías científicas.
PERSPECTIVAS FALSACIONISTAS:
POPPER:
Para él el método científico no es la inducción, la ciencia no pretende establecer verdades definitivas y el conocimiento empírico no es inductivo sino por ensayo y error.
Aprendemos de la experiencia por conjeturas y refutaciones. Para enfrentar problemas conjeturamos libremente hipótesis generales sobre el mundo, cuanto más audaces mejor.
Segundo, sometemos las hipótesis a pruebas rigurosas.
De las hipótesis y el conocimiento básico inferimos consecuencias observacionales contrastables por la experiencia. Si la hipótesis no pasa el test es refutada y si ocurre lo que se deduce de la hipótesis, esta sobrevive provisionalmente. Pruebas ulteriores, pueden FALSARLA.
El esquema de POPPER es:
P1----TT---EE---p2
Intenta mostrar la secuencia que presenta el progreso científico.frente a un problema se elaboran teorías tentativas. En los procesos de puesta a prueba puede haber eliminación de errores y reformulación del problema que dará lugar a nuevas teorías tentativas.
Así el método científico es un método de contrastación de hipótesis, pero no pretende verificar sus hipótesis, sino REFUTARLAS.
En esto consiste el racionalismo crítico, en tratar de demostrar que estamos equivocados, usar toda la lógica deductiva, y por tanto no hay más inferencia posible en la contrastación que el modus tollens, la refutación.
La lógica solo permite refutar hipótesis, nunca confirmarlas, ni total ni parcialmente.
Saber que hay hipótesis falsas acerca del mundo es saber algo.
Es una idea contraintuitiva, y cuesta aceptarla, porque equivaldría a admitir que la ciencia solo puede aspirar a una “docta ignorantia”. Es difícil aceptar que las hipótesis exitosas no dicen algo positivo acerca del mundo, por lo que Popper admite la noción de “grado de corroboración “o medida C
Esta medida tiene como base el apoyo evidencial, no probabilístico.
Se deben perseguir hipótesis mejor corroboradas, no más probables, aunque el índice de corroboraciones no es un índice de aptitud para salir airoso en contrastaciones futuras. A pesar de ello, la corroboración es una guía para la acción.
Insistió en que mediante contrastaciones severas los científicos llevan a cabo “un proceso racional de aproximación a la verdad “y los experimentos cruciales desempeñan un papel fundamental en el progreso de la ciencia.
Fue uno de los 1eros en llamar la atención sobre la carga teórica de los enunciados observacionales.
En la contrastación reconoce el carácter teórico e hipotético de la base empírica, porque “todo lenguaje está impregnado de teoría”, lo que debilitaría la fuerza de la falsacion.los enunciados observacionales dependen de la teoría, son falibles y su aceptación es provisoria, lo que concluye que las teorías no se pueden falsar de modo concluyente.
Popper, consiente de estas dificultades elaboro una teoría más complicada que la simple falsacion, pasando del principio “monoteorico” de 1935 al “MULTITEORICO”.
MODELO MULTITEORICO: La falsacion de una teoría se realiza mediante la confrontación bipolar teoría-experiencia. En una confrontación entre dos teorías rivales y la experiencia.
Propone la distinción entre “mundos o universos”.
1- El mundo de los objetos físicos o de los estados físico,
2- El mundo de los estados de conciencia o mentales o de las disposiciones para actuar
3- El mundo de los contenidos objetivos del pensamiento, especialmente el científico, el poético y del arte.
Este es el MUNDO DE LA CIENCIA.
Toma distancia de quienes consideran los enunciados científicos solo enunciados lingüísticos. Esto va ligado a su propuesta de una EPISTEMOLOGIA SIN SUJETO.
Posición ontológica realista: la realidad existe independientemente de las capacidades humanas de conocerla, aunque esta es una forma de “realismo crítico”
Cualquier forma de solipsismo (el mundo es una construcción de mi mente) es irrefutable y esto es un vicio no un merito.
El conoc.cientifico es “intersubjetivo”: la objetividad de la ciencia no se funda en un lenguaje fisicalista ni en una base empírica inconmovible .la ciencia es un objeto social y surge a partir de la cooperación y la competición institucionalizada por los científicos.
LAKATOS
Desarrollo la idea de los “programas de investigación” en un intento por mejorar el falsacionismo popperiano y superar las criticas.
Toma como punto de partida de su trabajo las críticas de Kuhn, señalando que se ataca a un Popper que no es el real sino el que construyeron sus divulgadores,-
Distingue entre Popper 1 y Popper 2. El primero sería exponente del falsacionismo ingenuo que se revela en obras como “La miseria del historicismo” y “La sociedad abierta y sus enemigos”.
En sus textos posteriores encuentra un falsacionismo refinado que es una propuesta del propio Lakatos.
La caract. definitoria de un programa de investigación es su núcleo central, el que está formado por hipótesis teóricas muy generales que constituyen la base del programa.
(por ej. el núcleo central del marxismo es el supuesto de que hay lucha de clases)
Este núcleo duro está protegido de la falsacion mediante un “cinturón protector” de hipótesis auxiliares, supuestos subyacentes a las condiciones iniciales y enunciados observacionales.
Heurística: sugerencias sobre cómo manejar los enigmas científicos, es un componente básico del programa de investigación, es una “poderosa maquinaria de resolución de problemas” que con la ayuda de técnicas matematices, disuelve las anomalías y las convierte en evidencia positiva.
Todos los programas de investigación cuentan de una heurística positiva y otra negativa.
La heurística negativa, consiste en la exigencia de que durante el desarrollo del programa el núcleo duro no se modifique. Cualquier científico que se apartara de se núcleo, se apartara del programa de investigación mismo.
La heurística positiva, indica a los científicos qué deben hacer, es más difícil de describir que la negativa. “consiste en un conjunto parcialmente articulado de sugerencias o indicaciones sobre cómo cambiar y desarrollar las “variantes refutables” del programa de investigación, como modificar, refinar el cinturón protector “refutable”.
El desarrollo de un prog. de investig.supone incorporar hipótesis auxiliares y desarrollo de técnicas matemáticas y experimentales idóneas.
Muchos ejemplos muestran que siempre puede desviarse la falsacion hacia otra parte de la compleja red de supuestos.
Los investigadores no solo pueden construir escudos protectores contra las anomalías sino también ignorar los casos que refutan la teoría principal. Dirá que son fenómenos que no vale la pena estudiar.
La heurística positiva, puede prescindir de la contrastación empírica mientras el programa de inv. no haya hecho progresos claros. , los primeros trabajos se hacen sin prestar atención o a pesar de las falsaciones, dándole la oportunidad al programa a mostrar su potencia.
Se espera que el programa tenga algunos éxitos que determinan “el carácter progresivo”
Cuando no puede predecir fenómenos nuevos durante mucho tiempo, se dice que el programa se torna “torna degenerativo”.
(ej. a lo largo de la edad media el sist. Geocéntrico, no pudo predecir fenómenos nuevos)
Lakatos rechaza todo tipo de relativismo, llegado el momento de justificar racionalmente el cambio de teorías. Si no hay un criterio superior al de la propia comunidad de científicos para cambiar de una teoría a otra, entonces “no hay forma de juzgar a una teoría a no ser evaluando el numero, la fe y la energía vocal de sus defensores”.
En estos casos, la vedad radica en la fuerza, el cambio científico se convierte en asunto de la “psicología de masas” y el progreso científico consiste en “subirse al carro”
A falta de criterios racionales, el cambio de teorías científicas, resulta equiparable a la conversión religiosa.
Para Larkatos, la ciencia progresa a través de la competencia entre programas de investigación. Un programa es mejor que otro si es más progresista, en la medida que lleva a nuevas predicciones satisfactorias.
Rasgo común entre inductivistas y falsacionistas es el esfuerzo por encontrar un criterio universal y ahistorico para juzgar los meritos entre teorías rivales.
Un inductivista toma como criterio universal el grado de apoyo inductivo que recibe una teoría de unos hechos aceptados y el falsacionista basa su criterio en el grado de falsabilidad de teorías no falsadas.
LA RUPTURA: DEL RACIONALISMO DE JUSTIFICACION AL ANALISIS DE LA HISTORIA DE LA CIENCIA:
KUHN
Una dura transición llevo de la “concepción heredada” a la” nueva epistemología” iniciada por T Kuhn. Fue un cambio radical en la forma de concebir “la naturaleza de la epistemología” y una “visión diferente de la ciencia empírica”.
El verificacionismo y el falsacionismo, tienen una visión común de la ciencia:
1) se preserva la concepción como una empresa racional
2) se comparte la visión de la racionalidad entendida como presencia central del algoritmo lógico en el contexto teórico
3) es común la convicción de que el ámbito específicamente científico es el contexto de justificación y no el de descubrimiento
4) ambas corrientes coinciden en la visión axiomática de la ciencia
5) comparten el punto de vista según el cual la justificación de una teoría es su remisión a una base empírica “externa e independiente de ella”, que funciona como un tribunal supremo de legitimación
6) el conoc. Científico, tiene que ver con la búsqueda de la verdad, por lo que en apreciable medida, la tarea epistemológica en esta tradición está asociada a los criterios metodológicos para diferenciar entre enunciados verdaderos y falsos
Esta común visón explica cómo importantes epistemólogos, como Nagel y Hempel, dejan el confirmacionismo inductivo del empirismo lógico para adoptar el método hipotético-deductivo.
A partir de Kuhn la imagen de ciencia empírica se transforma:
1) Las teorías dejan de ser un ejemplo de racionalidad objetiva para convertirse en un consenso racional tentativo en la comunidad científica.
2) Los hechos, lejos de ser referentes “externos” de justificación ,son definidos dentro del contexto teórico al que “pertenecen”
3) Las decisiones sobre cómo tratar la dualidad teórico-observacional no pueden resolverse en términos lógico-algorítmicos.
4) Se abandona la concepción popperiana de la ciencia como “proceso de aproximación progresiva de la verdad”, denominada “tesis de verosimilitud”
El giro epistemológico es nítido: la misión de la epistemología ya no es el análisis de los modos de justificación de las teorías científicas, sino el examen del “PROCESO HISTORICO” del conocimiento científico.
Es una cuestión de prioridades: el tema de la estructura formal de las teorías científicas no es ya reconocido como “central” por la nueva epistemología. Al concebir la ciencia como una actividad dinámica con elementos histórico-sociales decisivos, consideraban que el proyecto mismo de construir una lógica de la ciencia, incorporando como central la reconstrucción formal de teorías, estuvo inevitablemente condenado al fracaso.
Por tanto, la nueva epistemología proponía como entidades en evolución: el poderoso instrumento de la lógica de Principia Mathematica es reemplazado por la historia de la ciencia.
EL PENSAMIENTO DE KUHN EN PERSPECTIVA:
Si bien las criticas de Hanson y Toulmin anticiparon un cambio, el surgimiento de una orientación epistemológica nueva e incompatible con la empirista lógica-popperiana- comienza realmente con la publicación en 1962 de la obra “La estructura de las revoluciones científicas” de T.Kuhn.
Su tema central es el problema de la naturaleza del “cambio científico”.
Identifica dos modalidades de producción científica que se desarrollan históricamente:
1) Modo NORMAL, entendiendo por tal la forma como procede la mayor parte del tiempo la ciencia
2) Modo NO-NORMAL (también llamado “extraordinario o “revolucionario” )
En las etapas de ciencia NORMAL los científicos comparten presupuestos de índole teórica y metodológica que les permiten dedicarse a la tarea científica por excelencia: la “resolución de enigmas” consistente en perfeccionar la aplicación del aparato teórico al ámbito de la experiencia y luego, ajustar la base teórica. Se busca establecer nuevas aplicaciones a nuevos fenómenos y formas específicas, pero no se cuestionan los supuestos, dado que éstos guían la investigación.
Sin embargo, en esta perspectiva, no siempre la ciencia actúa así, determinados enigmas tienen que ver con la presencia de “anomalías”, experiencias que se resisten a subsumirse en el aparato teórico. Cuando estas anomalías son fuertemente impenetrables a la resolución, al volverse los científicos escépticos de la posibilidad “efectiva” de solución, sobreviene una CRISIS. Desencadenada esta crisis, se cuestionan los “supuestos-guía” y se comienzan a discutir fundamentos .con el tiempo, habiéndose organizado nuevos supuestos en torno a propuestas alternativas, la nueva perspectiva es “adoptada” por la comunidad científica de modo que los nuevos supuestos reemplazan a los viejos en tanto guías para la investigación, se ha consumado una “resolución científica”, que dará inicio a un nuevo periodo de ciencia normal.
Grandes revoluciones están asociadas a grandes científicos: COPERNICO- DARWIN –EINSTEIN.
No existe lógica que “regule “la alternancia homogénea de modos normales y revolucionarios. La pérdida de confianza en los supuestos, la ausencia de nuevas alternativas o de una que “triunfe” sobre otras, puede resultar la perduración del programa que entro en crisis.
EL CONCEPTO CENTRAL DE LA NUEVA CONCEPCION DE LA CIENCIA, ES LA NOCION DE PARADIGMA: etimológicamente, es algo que sirve de “modelo” para otros casos del mismo tipo, acepción usada en la vida cotidiana. Pero la noción de PARADIGMA de Kuhn no es univoca ni precisa.
La acepción principal supone entender al paradigma como el CONJUNTO DE SUPUESTOS COMPARTIDOS POR UNA COMUNIDAD CIENTIFICA QUE GUIAN LA INVESTIGACION NORMAL.
La ciencia normal procede DENTRO de un PARADIGMA y la revolución científica es el PASO DE UN PARADIGMA A OTRO.
“LAS REVOLUCIONES CIENTIFICAS SON… AQUELLOS EPISODIOS DE DESARROLLO NO ACUMULATIVO EN LOS QUE UN VIEJO PARADIGMA ES SUSTITUIDO TOTAL O PARCIALMENTE POR OTRO DISTINTO INCOMPATIBLE CON EL “
La mayoría de las críticas a su concepción se relacionaron a la equivocidad y vaguedad de esta noción.
En un primer momento un paradigma estaba integrado por gran cantidad de componentes heterogéneos: leyes, teorías, modelos, patrones, criterios, métodos, intuiciones, convicciones y prejuicios.
Posteriormente en “Segundas reflexiones acerca de los paradigmas”, intento dotar al término de mayor precisión: distinguió dos sentidos principales, el primero es global y el segundo concreto y especifico:
1) El paradigma como MATRIZ DISCIPLINAR: Es característico de la ciencia normal el ser realizada por una comunidad científica que comparte un vasto cuerpo de creencias, valores y técnicas. Es decir que la ciencia normal es desarrollada por comunidades que comparten una MATRIZ DISCIPLINAR COMUN, que se adquiere implícitamente a través del proceso de convertirse en científico. Uno de los elementos principales de la matriz son las generalizaciones simbólicas (leyes) entendidas como formas abstractas desprovistas de significado y aplicación empírica. A ello se agregan 3 elementos: modelos ,valores y “principios metafísicos”
2) El paradigma como EJEMPLAR. La parte de la matriz disciplinar que puede ser explícitamente formulada está constituida por los ejemplares, que son componentes específicos de la matriz. Sentido más cercano a “modelo” asociada a la etimología de la palabra, porque los ejemplares son aplicaciones empíricas especificas del aparato formal que sirven de modelo-guía, soluciones a problemas concretos “aceptados” por la comunidad científica como modelos. Es decir, una teoría se propone acompañada de diversos ejemplares, que se presentan como modelos de aplicación de la teoría a los fenómenos. A través de estos ejemplares (al menos parcialmente) se cargan de contenido empírico los términos de las generalizaciones que constituyen el formalismo abstracto de la matriz. Kuhn sostuvo que los ejemplares desempeñan en las ciencias el papel que la concepción heredada atribuía a las reglas de correspondencia.
Afirmo también que la expresión “matriz disciplinar” debía sustituir a la expresión “paradigma” por ser aquella el conjunto de supuestos compartidos por los miembros de la comunidad científica y que esa expresión intento referirse a lo que tradicionalmente se ha denominado TEORIA, que prefiere no usar porque los científicos la utilizan de un modo más limitado en naturaleza y alcance.
La ciencia normal es la ciencia practicada por una comunidad científica que posee en común una matriz disciplinar basada en un stock de ejemplares compartidos, o bien, las teorías son generalizaciones simbólicas empíricamente interpretada por los ejemplares.
Si bien el desarrollo global de la historia de las ciencias es un proceso de rupturas (cada revolución lo es) la ciencia normal es, internamente, una empresa altamente acumulativa. Recién la insatisfacción por la creciente esterilidad resolutiva de una matriz disciplinar genera la revolución que entroniza una “nueva” matriz disciplinar. El cambio revolucionario que se produce como consecuencia de la aceptación de una nueva matriz implica para la ciencia un radical cambio perceptual.
Dos observadores que contemplan los mismos hechos desde matrices disciplinares diferentes, VEN “cosas diferentes, no solo porq2ue los datos que cada uno recoge son distintos según la matriz disciplinar en la que trabaja, sino porque tales datos se expresan en un lenguaje científico, de modo que el significado de las expresiones es diferente en las distintas matrices disciplinares. (Ej. “masa” no significaría lo mismo para Newton y para Einstein)
Esto lleva a la CUESTION DE LA INCONMENSURABILIDAD de las teorías.
Si una teoría suplanta a otra, ambas no pueden ser lógicamente compatibles. En realidad, como consecuencia de la profunda diferencia entre sus estructuras conceptuales, son inconmensurables, es decir INCOMPARABLES.
Se le han formulado a partir de esta teoría, numerosas críticas:
1) Es dudoso que la ciencia normal se dé realmente y de la manera persistente que le atribuye Kuhn (Toulmin=
2) La distinción entre ciencia normal e investigación extraordinaria retiene genuino interés, pero no es aplicable adecuadamente a todas las ciencias ( Popper)
3) La descripción del “científico normal” es la de un sumiso y lamentable amanuense sin espíritu crítico que no pone nunca en cuestión la “doctrina “dominante (Popper)
4) La idea de que el conflicto revolucionario entre matrices disciplinares inconmensurables no puede resolverse mediante argumentación lógica convierte a la ciencia en una empresa irracional y a la aceptación de teorías en una empresa subjetiva ( Scheffler)
5) Existe una contradicción entre la tesis de inconmensurabilidad y la de incompatibilidad de teorías rivales. Si los paradigmas son incomparables, no se comprende cómo puede haber competencia entre ellos. Si la doctrina bíblica es incomparable con la teoría darwiniana entonces ambas pueden coexistir en paz ( Watkins)
6) El hecho de que los datos observacionales sean relativos a una matriz disciplinar deja a la ciencia desprovista de base fáctica objetiva. Si la matriz configura los datos, el mundo empírico no puede “controlar” las afirmaciones de la ciencia (Scheffler)
7) Es indemostrable la tesis kuhniana según la cual todo cambio de matriz disciplinar origina un cambio en el significado de los términos básicos utilizados por la ciencia. No existe en Kuhn un análisis del “concepto “ de significado ni formula criterios exactos para constatar el “cambio” de significados (achistein ,Shapere, Scheffler)
Kuhn a raíz de estas críticas intento otorgar mayor precisión a su lenguaje y en otros opto por “suavizar” lo rotundo de sus afirmaciones.
En la Posdata a “La estructura...” (1969) se declaro “convencido creyente del progreso científico” pero firme en sostener que tal progreso no tiene que ver con la verdad sino con una superior capacidad de una teoría sobre otra para resolver enigmas.
PREGUNTA RESPONDIDA POR PROFESOR EN FORO DE REPASO
En la teorìa de Kuhn , la competencia entre paradigmas en base a què criterio se resuelve? porque me queda claro por lo leìdo en la pagina 245 del texto de Asti Vera, que no es por argumentos racionales. Alli habla de argumentos como la "persuasiòn" y la "fe" , pero no comprendo a què se refiere con esto. Quiere decir con èsto que los cientìficos deberìan digamos ponerse de acuerdo a traves de la persuasiòn de unos sobre otros o por la fe en el nuevo paradigma, para aceptarlo ?
Persuadirlos en que el paradigma incipiente tiene mayor capacidad de resolver aquellos problemas (anomalias) que el viejo paradigma no podia resolver. Por ejemplo, piense en las razones del electorado para elegir un candidato sobre otro... (Hay acaso argumentos lógicos, en el sentido de fuertemente racionales, a la hora de votar? Piense cuánto de simpatía, persuasión, idolatría, opera a la hora de elegir un "presidente" por ejemplo... Algo similar intenta postular Kuhn con la elección entre los paradigmas rivales.
DIFERENCIAS ENTRE CONFIRMACIONISMO Y FALSACIONISMO (FORO de REPASO)
En principio tanto el confirmacionismo como el refutacionismo o flasacionismo, son como "versiones" del mètodo hipotetico-deductivo para poder hacer lo que consideran que no puede el inductivismo estrecho, que es "verificar" las hipòtesis.
y a partir de ahì vienen las diferencias
Para el CONFIRMACIONISMO:
PARA EL REFUTACIONISMO O FALSACIONISMO:
esas serìan las diferencias sustanciales de ambas teorìas, què pasa cuando las consecuencias observacionales se cumplen y el tema de la inducciòn.
Unidad 7- doc. de catedra CONTRATTI
: Planificación de la política de la ciencia: Posición de Bunge - Características de la política científica argentina: Etapas - Aspectos éticos de la ciencia y la tecnología - Cientificismo y anticientificismo - Ciencia básica, ciencia aplicada y tecnología –
POLITICA CIENTIFICA: PROBLEMAS Y PERSPECTIVAS- M.B.CONTRATTI
POLITICA CIENTIFICA: Conjunto de disposiciones gubernamentales destinadas a organizar el potencial investigador de un país y orientarlo en su crecimiento y su aplicación en otras aéreas donde los resultados de la investigación son necesarios para su desarrollo.
Este proceso es un ámbito de políticas públicas referido a la producción de conocimiento, su comercialización, adaptación e incorporación al aparato productivo, configura un amplio espacio en el que confluyen aspectos de diversas políticas (educativa, económica e industrial), confiriéndole centralidad a esos aspectos y refuerza su naturaleza política.
Históricamente ha habido políticas públicas en este sentido, acercando o alejando a la ciencia y la tecnología del centro de la escena política, dependiendo de los proyectos políticos hegemónicos así como a la percepción de los científicos respecto de sus intereses.
LA PLANIFICACION DE LA POLICITA CIENTIFICA:
Esta planificación es la articulación de todas las disposiciones decididas por los gobiernos en el área científica y tecnológica, de largo alcance, resultado del consenso de todas las fuerzas políticas de un país, como único modo de alcanzar la estabilidad necesaria para el logro de los objetivos propuestos.
El diseño de los planes de política científica se toman en cuenta distintas cuestiones que van de lo general a lo especifico.
Algunos de los factores a tomar en cuenta en esos planes son, esquemáticamente
a) el monto total de la inversión en Investigación y Desarrollo. :es tendencia general que todos los gastos de investigación estén unificados en los rubros de I + D .Su peso dentro del presupuesto total de un país es una decisión política cuyo criterio se basa en las necesidades relativas de todas las aéreas que debe cubrir el mismo y a la función que cumplen la ciencia y tecnología como variables del desarrollo económico-social para un Estado determinado, por lo que no se fija de modo uniforme en todos los países .Puede ser de un 3 % del PBI , o más o menos.
b) la selección y valoración de los objetivos mayores: ciencia básica, desarrollo industrial, servicios, etc.
c) selección de aéreas prioritarias científicas y tecnológicas, donde se debe tener en cuenta el nivel de desarrollo a alcanzar y la formulación de prospectivas, la previsión de los avances cient. y tecnol. y los cambios sociales.
d) la organización del sistema de investigación y la coordinación interinstitucional e interdisciplinaria
e) control y evaluación de los planes implementados en relación con los resultados de la producción cientif. y tecnol.
f) aplicación de los resultados de la investigación, transferencia de información hacia los sectores productivos (innovación)
g) promoción y organización de las relaciones científicas internacionales
Estos factores no funcionan en forma puramente secuencial, sino que interaccionan creando vías de ida y vuelta y generando mecanismos de condicionamiento mutuo.
Con relación al punto a) para realizar la distribución global del monto asignado en ciencia básica o aplicada y tecnología, el estudio del presupuesto debe contemplar 1) los gastos de estructura y funcionamiento, constituida por los centros de investigación y las universidades; mantenimiento de institutos de investigación, crecimiento del potencial investigador en la creación de nuevas entidades y aumento del personal, dotación de la investigación universitaria y renovación del instrumental de alto costo. Para el mantenimiento del personal, no sebe superar el 70 % del presupuesto total.
2) las cantidades necesarias para la investigación básica, aplicada y desarrollo tecnol. y los ámbitos específicos dentro de cada una de esas, que se deben calcular en función de la importancia que cada una representa en el desarrollo del país. La política de I+D debe decidirse en función de la política socioeconómica general, y nunca desconectada de esta ,por lo que la mayor parte de la comunidad científica deberá adaptar sus objetivos a los grandes problemas tecnológicos ,económicos y sociales de su pueblo ( Yúfera) , es decir no perseguir el incremento de investigación científica como fin en sí mismo.
Según este autor, este proceso de selección diferencia a los países desarrollados y a los de menor desarrollo, estando en los primeros la decisión de hacer coincidir la investigación científica con el impacto y necesidades nacionales, en cambio en los países sin potencial económico y político independiente ,las prioridades sectoriales son vagas ,poco fundamentadas y la importancia de la investigación de I+D no se valora al seleccionarlas o lo que es peor , sus resultados se publican en revistas científicas internacionales, siendo aprovechado por otros países de mayor desarrollo económico.
Yufera destaca dos posiciones básicas: 1) dar preferencia a la ciencia básica libre, causa primaria de la riqueza. y 2) la ciencia básica está a disposición de cualquiera en revistas científicas, que debe ser aprovechada por países menos ricos para crear riqueza y los países ricos debe en ir a la cabeza de la investigación básica.
Ej. EEUU y JAPON: aprovecharon primero la cs. Básica de Europa y luego desarrollaron la propia.
POSICION DE BUNGE:
Físico y filosofo argentino MARIO BUNGE, en cambo denomina PRACTICISMO o ANTICIENTIFICISMO a la posición por la cual los intereses nacionales, de naturaleza económica y social pero no cultural y política deben orientar la política científica de un país.
Considera que esa perspectiva no da importancia a la función cultural que tiene la ciencia básica, la de satisfacer la necesidad de saber y de promover la independencia intelectual de la población, subordinándolos a los imperativos del desarrollo económico y la producción.
Se olvida así que la ciencia es precondición del desarrollo técnico. En consecuencia en los países subdesarrollados siempre es ventajoso practicar la investigación básica, aunque deben darse ciertas condiciones de orden cultural, que no son una barrera insalvable.
Considera que hacer ciencia básica es más fácil que hacer buena técnica en países subdesarrollados, porque esta ultima requiere inversiones en producción que un país pobre no tiene.
Por otro lado la innovación técnica depende de la demanda. , en cambio lo único que necesita la investigación teórica, del tipo de las matemática pura, física químicas teóricas y ciencias sociales teóricas, es lapiza, papel y bibliografía, pudiendo incluso hacerse estudios experimentales, sin la utilización de equipos costosos.
La libertad de investigación debe estar contemplada en la planificación de políticas científicas, lo cual es aceptado por los especialista, pero el peso que otorga y argumentación de Bunge no son hoy compartidos, en general.
En el caso de la política científica orientada al desarrollo, como condición necesaria del desarrollo interno, debe tenerse en cuenta su participación en el juego competitivo internacional. La atención en esta etapa se dirige fundamentalmente al potencial investigador de las empresas, a quienes el Estado debe apoyar y complementar, facilitándole por ej. estudios prospectivos cuando sea necesario. En los países más desarrollados más del 60 % de la actividad de I+D se realiza en las empresas, mientras que en países menos competitivos el Estado sigue concentrando las políticas de desarrollo tecnológico, donde el problema radica en la necesidad de compra de patentes o bien acuerdos de cooperación ,que en general son de naturaleza científica y no tecnológica.
El beneficio de la compra de licencias de tecnología (patentes) está en que la calificación de la compra este integrada o no a planes de I+D.
En Argentina: estudios del economista Chudnovsky y A. López hacen referencia a la cuestión del “laissez faire”, que hace referencia en general a la política del “dejar hacer”, que en el caso tecnológico, es la falta de regulación por el Estado de la adquisición de patentes y su consiguiente ausencia de coordinación con los planes generales de desarrollo.
La presencia de “laizzez faire”en nuestro país se ha dado en casi todas las etapas histórico-políticas, estrechamente vinculada a la política económica vigente y a la desatención de los marcos regulatorios en muchos asuntos nacionales.
En la década del 90, no obstante, se adopto esta modalidad de modo deliberado en relación a la política de ortodoxia liberal de la economía, que en general, considera que a la tecnología como una variable exógena (o sea, que no juega en forma directa en el proceso de equilibrio económico) y con otros supuestos vinculados a procesos de modernización de la economía.
Desde esta perspectiva política se considera que la apertura económica a las importaciones estimularía una mejora en la eficiencia del sector productivo por la mayor competencia en el mercado local, facilitaría el acceso a maquinaria y equipo de última generación. A su vez la liberalización del régimen de inversión extranjera directa, promovería la incorporación y difusión de los conocimiento técnicos y gerenciales de los inversores extranjeros.la desregulación de los acuerdos de transferencia de tecnología seria otro estimulo al proceso de modernización.
Pero estos presupuestos por sí solos no garantizan el cumplimento de las mejoras esperadas, es necesario poner en marcha políticas de innovación complejas y continuadas en respuesta a la demanda empresarial de modernización tecnológica, lo que no se ha cumplido porque las iniciativas implementadas están desarticuladas, sin rumbo definido y no generan las sinergias para constituir el propósito central de la política tecnológica.
Posteriormente , se han dado cambios contemplados en el Plan Plurianual de Ciencia y Tecnología ( 1998-2000) ,donde comienza a instrumentarse un concepto llamado SISTEMA NACIONAL DE INNOVACION ( SNI) con gran peso en las sucesivas políticas científico-tecnológicas de la Argentina ( y en otros países tb) Este concepto involucra gran cantidad de actores de diversa índole (Estado, empresas, mercado, sistema de investigación, universidades, ámbitos sociales y otros) ,dejando atrás el “laissez faire”.
Si bien el Plan solo es una formulación que considera las condiciones concretas de su ejecución, pone en evidencia la necesidad de desarrollar internamente la investigación científico-tecnológica, (no dependiendo solamente de la inversión extranjera), y su vinculación con el sector productivo, para lo cual la articulación del Estado con los distintos sectores es imprescindible. Esto, represento un avance importante.
Otro objetivo a considerar en una planificación de I+D es la transferencia de los resultados de estos planes a los sectores productivos. Dada la importancia en el desarrollo de las naciones de las explotaciones agrícolas y la industria, es obligación del Estado aumentar el nivel tecnológico de dichas aéreas, lo que se articula con la parte que le corresponde realizar al Estado y a la empresa privada.
EEUU 70 % investig. se hace en empresas privadas, pero el Estado aporta el 50 %
JAPON el 75/80 % de los gastos totales se invierte en el sector privado y en Suiza casi toda la investigación la hace la empresa.
En los países de menor desarrollo corresponde al Estado liderar los emprendimientos de I+D, formalizando programas conjuntos entre empresas y universidades o centros de investigación o dar incentivos fiscales a la investigación, subsidios, etc.
Un problema es que las empresas transnacionales no hacen labor de I+D en países poco avanzados por lo que estos deben importar todas las tecnologías necesarias, lo que produce un atraso en materia de innovación y desequilibrio fiscal.
Otro aspecto es la producción comercial de los resultados de la investigación, su transferencia aplicada a la industria, considerado punto final del avance tecnológico: la “innovación” tecnológica, donde se pone en juego otro aspecto de la financiación que representa grandes inversiones de capital sin garantía de rentabilidad, ya que la producción está sujeta a incertidumbre por cambios de ciclos económicos, desequilibrios financieros, variaciones de la demanda internacional, etc. El “capital de riesgo” que se requiere, en general procede de inversores específicos, entidades financieras ad hoc.
Ej.Agence National de Valorisation de la Recherche de Francia creada para promover el aprovechamiento de la tecnología producida en los organismos públicos de investigación.
Otro aspecto crítico es la cantidad y la formación de científicos que lo lleva adelante. Lo ideal es que el número de investigadores no implique un gasto mayor del 65 % del gasto global, porque sino no queda nada para invertir en mantenimiento y materiales.
Escasez de investigadores es causa y efecto de bajo desarrollo, pero el número de personal condiciona la política científica y esta a su vez determina la cantidad de científicos requerido de acuerdo a los planes e I + D, condicionados por su parte, por la situación económica gral. Son espirales de las que solo se sale por decisiones de alta política, que trascienden los intereses sectoriales hacia el crecimiento de la nación.
Ciapuscio: la materia prima estratégica de la industria actualmente es la materia gris, que si se la sabe movilizar, transforma todo. Pero esto presupone poner la investigación científica en el nivel de grado universitario, con un nuevo modelo, acento en la actitud crítica e independiente del estudiante, favoreciendo su capacidad de creatividad y cuestionamiento (o la enseñanza repetitiva, el libro de texto y clase “magistral”)
Abeledo, parte de la noción e un sistema nacional de innovación, surgida de los encargados de formular políticas científicas en los países industrializados, lo que da un marco útil para la formulación de políticas tecnológicas, haciendo explicitas las muchas y variadas formas de aportes necesarios para producir una economía innovadora y competitiva en los mercados actuales, cada vez más globales.
INNOVACION: Abeledo dice que tiene dos significados: uno responde al “MODELO LINEAL”, según el cual la relación ente investigación y desarrollo tecnológico sigue la secuencia
Investigación básica----) investigación aplicada.------) desarrollo tecnológico.----) introducción de nuevos productos al mercado
Este modelo considera que ya no responde a la realidad, porque surgió de innovaciones excepcionales gestadas por descubrimientos científicos de gran importancia y notoriedad (energía nuclear, el caucho, textiles sintéticos, radar, transistores y circuitos integrados, láser antibiótico e ingeniería genética)
La inadecuación de este modelo se acentúa cuando se lo intenta aplicar a los procesos en el ámbito latinoamericano, donde el desarrollo tecnológico no se impulsa por invenciones de gran alcance, sino algunas innovaciones son “radicales”, para creación de productos o procesos totalmente nuevos y la mayoría son “incrementales”, que representan una serie de pequeñas mejoras en la forma de hace las cosas, para poder mantener la competitividad.
Por esto y dada la diversificación de las economías actuales, surge otro concepto llamado MODELO INTERACTIVO , no causal , que responde a las variadas relaciones que se establecen entre los principales actores que intervienen en el proceso de innovación. Muestra la interacción entre los ámbitos de innovación de las empresas y los organismos de investigación, que en nuestro país son CONICET, INTA, INTI, CNEA, etc.donde pueden darse las relaciones en paralelo, no linealmente. Este modelo pone de relieve el papel de las empresas y las demandas del mercado en el proceso de innovación.
El SISTEMA NACIONAL DE INNOVACION, se basa en este modelo de innovación, lo que exige presar mucha atención al tema de los becarios y personal de investigación.
Características de la política científica argentina
Albornoz sostiene que respecto de las características de la política científica en la Argentina, a lo largo del proceso de organización nacional y durante el presente siglo ,hasta nuestros días , ésta política se fue desplazando desde el centro hacia la periferia de la escena política , pero, inversamente, se especifico “hacia adentro” del sistema, lo cual alentó tendencias autonomizantes y corporativas.
Es decir fue perdiendo esa centralidad no para integrarse a la acción para el desarrollo nacional, sino para encerrarse en sí misma y separarse de otros ámbitos del progreso económico y social, continuando aún con su papel rector en los procesos políticos de la ciencia y la tecnología.
ETAPAS:
En la 2da mitad del S XIX, en el período de organización nacional se desplego un gran interés por la ciencia expresado en el marco de un proyecto político articulador del sistema económico, industrial, educativo y la consolidación de la institución científica y su inserción en la escena internacional. Figura destacada: Sarmiento, gran admirador del modelo tecnológico e industrialista norteamericano en materia educativa y de investigación, a pesar de lo cual no se logro un contenido científico alto.
En el periodo siguiente, en el s XX, en la etapa que Albornoz denomina “INSTITUCIONALIZACION DE LA CIENCIA”, la actividad científica se intensifico, mejoro su calidad y expandió a un conjunto más amplio de actores. Las políticas para la ciencia se hicieron más específicas y apropiadas, perdiendo centralidad política. La política científica se hizo asunto de científicos.
Figura sobresaliente: Bernardo HOUSSAY .científico con inquietudes por temas de la política científica y que conocía todas las variables y problemas del proceso de institucionalización de la cs. , salarios, institutos, becas, etc. Albornoz lo considera uno de los representantes más notorios del positivismo argentino.
En la segunda posguerra se consolida definitivamente la institucionalización de la ciencia, ya considerada en concomitancia con la tecnología y el desarrollo económico, caracterizada por la preponderancia del paradigma científico de la “gran ciencia”, especialmente en la ciencia física.
Años 60, plano tecnológico, en el resto de América Latina, tb comienzan a tomar fuerza las teorías del desarrollo centradas en la investigación aplicada y la problemática de la transferencia de tecnología.
Desde lo político, se analizaron estas cuestiones bajo la oposición “centro-periferia” poniendo el acento en las relaciones políticas de dominación ejercidas por los países centrales en detrimento de los periféricos, pro su poder económico, político y militar posibilitado por su desarrollo tecnológico.
Rasgo propio de este periodo: falta de claridad respecto de los vínculos entre ciencia y cambio tecnológico, dada la estrecha relación que el desarrollo tecnológico tiene con la vida económica. Problema no resuelto en lo conceptual ni en lo organizativo.
Años 70 a los 80, agotamiento de este modelo, provocado por las “nuevas tecnologías”, la de las comunicaciones, de la información y la ingeniería genética, cuya característica principal es el acercamiento entre la investigación básica, el desarrollo tecnológico y el aparato productivo.
El reacomodamiento en nuestro país tardo mucho en producirse. Recién avanzada la década del 90 y estos primeros años del S. XXI, se vieron frutos del trabajo de políticos, técnicos e investigadores plasmados en proyectos y prospectivas que buscan armonizar el sistema argentino de I+D, al concierto internacional y propiciar así el despegue político, social y económico el país, y al mismo tiempo un lugar destacado en el progreso de las naciones.
Ej.: PLAN ESTRATEGICO NACIONAL DE CIENCIA, TECNOLOGIA E INNOVACION “BICENTENARIO” 2006/2010. , cuyo programa establece:
1) alcanzar al final del periodo una inversión consolidada en CTI del 1 % del PBI, con participación paritaria privada y estatal y un total de investigadores equivalentes a tiempo completo de 2,3 % de la población económicamente activa (PEA)
2) desarrollar capacidades, recursos humanos y acciones de investigación e innovación en nueve “áreas-problema-oportunidad” y en 19 “áreas temáticas prioritarias” (disciplinarias y tecnológicas) en ambos casos en coordinación con los ministerios sectoriales
3) desarrollar el Sistema de información de Ciencia y Tecnología Argentino (SICyTAR)
4) evaluar externamente las instituciones nacionales del sistema nacional del CTI e impulsar programas estratégicos de fortalecimiento institucional y cambio estructural
5) desarrollar y consolidar la federalización de la CTI a nivel de las provincias y regiones
6) promover actividades de divulgación y alfabetización en ciencia y tecnología
7) fortalecer los mecanismos de coordinación del sistema y de programación a corto, mediano y largo plazo.
LA INVESTIGACION CIENTIFICO-TECNOLOGICA EN LA UNIVERSIDAD:
Las conclusiones de los analistas de políticas públicas en materia de I+D e innovación muestran que el CONICET ha alterado sus objetivos iniciales (apoyar las investigaciones de los docentes de las universidades y otras instituciones de investigación científica y técnica ) en la década del 70 , pasando los investigadores a tener una relación directa con el CONICET, por lo que el organismo dedico mas a atender la carrera de investigador de su propio personal dejando el objetivo de formación de investigadores en relación a las necesidades del país.
Abeledo, afirma que en los países industrializados hay igual proporción de investigadores en empresas que en universidades e institutos privados, atribuyéndole a la Universidad la función de crear atesorar y difundir el conocimiento científico, por la formación de profesionales como de la prestación de servicios a la sociedad, o sea, debe asumir en todos los niveles el fenómeno de las nuevas tecnologías.
Este ideal es difícil para los países latinoamericanos: el cambio tecnológico y la adaptación educativa de los países industrializados, provoca ondas expansivas de innovaciones que abren con los países periféricos brechas tecnológicas y problemas en la división internacional del trabajo.
Otra consecuencia para estos países periféricos por la falta de protagonismo en la producción de tecnología, es la dificultad de constituirse en culturas tecnológicas, existiendo un dualismo entre empresas de tecnología de punta (multinacionales en gral.) y otras retrasadas y obsoletas, con infrautilización de capacidad productiva, falta de incentivos en la inversión local y ausencia de alternativas tecnológicas viables.
La universidad refleja estas tensiones políticas, económicas y sociales en las falsas dicotomías “masividad” vs. “excelencia” o la incapacidad de adaptarse a la incertidumbre del cambio tecnológico (que carreras deben priorizarse, cual es la educación real de las carreras.
UBA: pese a sus deficiencias estructurales, tiene importante tradición de investigación creativa en ciencia: PREMIOS NOBEL: HOUSSEY, LELOIR, MILSTEIN:
ALBORNOZ: para alcanzar el nivel adecuado es necesario entender la investigación básica como investigación estratégica, por la proximidad actual entre ciencia básica-industria.
En 2007 Ministerio de Economía ,lanzo el PLAN PRODUCTIVO NACIONAL ,que destaca un concepto clave: la competitividad, como incremento sistemático del nivel de productividad de la economía y la transformación de la estructura productiva, a nivel de sectores, cadenas de valor y conglomerados productivos, que combinen un algo grado de innovación.los lineamientos sectoriales promueven las actividades de “alto impacto potencial” :biotecnología, nanotecnología y energías renovables, los “sectores innovadores” : agroalimentos farmo y agroquímica, TICs ,tecnología nuclear, aeroespacial ,diseño y los “”sectores tradicionales” , coordinando interministerialmente con el PLAN ESTRATEGICO NACIONAL DE CIENCIA,TECNOLOGIA E INNOVACION, EL PLAN ESTRATEGICO REGIONAL Y EL PLAN NACIONAL DE INVERSION PUBLICA.
Pero lamentablemente en el plan no se indica mediante que mecanismos se van a relacionar las actividades de investigación con el sector productivo y con el de financiamiento. Los institutos de investigación no se han adecuado a los lineamientos establecidos por planes y proyectos gubernamentales.
Otra condición es adecuar la universidad al dinamismo del cambio tecnológico, tornarla flexible y cambiante, significa pedirle que no enseñe tanto conocimientos objetivos como que entrene para la discusión de alternativas, opciones, riesgos y ganancias potenciales.
Es decir, la inercia de los organismos de investigación, el academicismo universitario nacional, la desvinculación de ambos con las necesidades sociales y las empresas, sumados a la no intervención del Estado en estas cuestiones, impiden realizar las modificaciones necesarias.
Ejemplos aislados: INVAP (sociedad del Estado perteneciente a Rio Negro) y la COMISION NACIONAL DE ACTIVIDADES ESPACIALES (conae) con gran capacidad tecnológica en un escenario con un perfil de escaso valor agregado.
Modelo neoliberal sumado a sectores progresistas sin pensamiento movilizador, hace que vivamos del capital acumulado en las décadas del 50 y 60 ,prodigas en esfuerzos y resultados, cuando se consolido la capacidad científica del país (CONICET, INTA ,INTI ,CNEA) y las universidades tuvieron alto nivel investigador ,con núcleos impulsores de investigación científica.
ETICA Y CIENCIA – M.B.CONTRATTI.
ASPECTOS ETICOS DE LA CIENCIA Y LA TECNOLOGIA:
Ética: es una disciplina filosófica que se ocupa de la justificación racional de las normas morales que regulan la conducta humana individual y social.las normas morales nos dicen que es o no correcto, tanto en relación con nosotros mismos como con los demás, expresan juicios morales que, considerados en conjunto, suelen revelas aspectos importantes de la idiosincrasia de grupos o pueblos, el ideal de vida buena que una comunidad comparte. En relación con la vida humana se articulan conceptos como bueno, malo, correcto, incorrecto, justo, injusto, deber, obligación, prohibición y otros que aluden a creencias de la gente sobre la conducta propia y ajena, corporizado en las instituciones sobre lo que es moralmente aceptable.
El concepto vinculado con las cuestiones éticas de la ciencia y tecnología que más peso tiene actualmente, dada su influencia sobre el destino de las sociedades y los hombres, es el de RESPONSABILIDAD.
Su significado, como la gran mayoría de los conceptos filosóficos, es problemático, por lo que se tomaran solo los referidos a la ética de la ciencia.
Primero, hay que distinguir un sentido causal y un sentido normativo de responsabilidad. El elemento de intencionalidad es necesario para adjudicarle responsabilidad por la consecuencia de una acción. Pueden realizarse especificaciones sobre las condiciones psicofísicas para ser responsable de los actos, así como la distinción de los actos, correctos o incorrectos y su correspondiente noción de responsabilidad.
Pero la responsabilidad moral no es solo atribuible a individuos sino también hay responsabilidad colectiva. El concepto plantea interrogantes difíciles de solucionar pero su empleo es exigido por las peculiares situaciones conflictivas de la vida contemporánea.
A raíz de los perjuicios en la salud y el medioambiente derivados de la implementación de las teorías científicas y tecnológicas, nació en los últimos tiempos una disciplina filosófica llamada ETICA APLICADA.
Esta sería la aplicación de la ética teórica, aquella que analiza filosóficamente las normas morales a casos particulares, los métodos y procedimientos, si los hay que permitirían ”bajar” al campo de los hecho concretos los principios teóricos, es materia de ardua discusión.
La ciencia y tecnología , fenómenos típicamente contemporáneos , han elevado la necesidad de apelar a la ética para resguardar los derechos a la vida de los habitantes de la Tierra expuestos a diversos peligros por el accionar de aquellas, en tanto productoras de conocimientos y las practicas que ello implica.
Existen dentro de la ética aplicada, disciplinas que se ocupan de problemas específicos ocasionados por la ciencia y la tecnología en ciertos sectores del mundo social y natural: ética del medioambiente, ética metica o bioética, ética aplicada al tratamiento de animales y plantas, etc.
Todos estos ámbitos no cuestionan directamente el conocimiento mismo o el accionar de la ciencia o la tecnología como instituciones generadoras de saber, sino a los conflictos sociales y morales que provoca su aplicación, aunque ambas perspectivas interaccionan en forma continúa en los estudios de ética aplicada.
Otra distinción es la establecida entre:
* RESPONSABILIDAD RETROSPECTIVA: referida a los resultados de las acciones ya realizadas (haber permitido que se arrojaran residuos industriales al Riachuelo)
*RESPONSABILIDAD PROSPECTIVA: exigencia de prever los posibles resultados de las acciones, planteando a la ciencia y la tecnología la exigencia de conservar el planeta en buenas condiciones para las generaciones venideras.
No todos concuerdan en que ciencia y tecnología sean responsables de los daños que ocurren en el mundo actual, afirmándose que están mas allá de posibles objeciones de naturaleza ética porque son buenas en sí mismas, probado por las múltiples formas de progreso con que han beneficiado a la humanidad. Pero desde otras perspectivas se muestran los efectos adversos e irreversibles que acompañan a los beneficios. Hasta las mismas técnicas y productos que permiten salvar vidas ocasionan otros malestares y dolencias que a veces son daños irreversibles.
Caso paradigmático: la energía nuclear, muestra rostro dual de ciencia y tecnología. Sus usos beneficiosos son cuantiosos, pero catástrofes como la de Chernobyl, son suficientes para saber que se está lejos del ideal.
Los estudios de riesgo del uso de este tipo de tecnología en general tiene que ver con estadísticas, pero la gente quiere la seguridad de determinadas tecnologías, menos relacionada con números como con modos de vida, esperanzas , temores ,creencias enraizadas en la tradición y perspectivas sobre el futuro. El modelo de evaluación del riesgo, no debería ser algo abstracto y determinable en forma cuantitativa o técnica solamente sino pensándolo desde una dimensión integralmente humana, encara el control de la ciencia y la tecnología implica asumir sobre todo la perspectiva ética y no meramente técnica de dicho control. La crítica, indispensable en aspectos sociales como la vida democrática, se vuelva esencial también para los problemas ambientales y tecnológicos.
Por otro lado, el proceso de producción de conocimiento científico y tecnológico involucra cuestiones éticas que comprometen al científico en tanto ser humano con intereses, porta valores personales, incurre en parcialidades y errores y otros rasgos conductuales comunes a todos. Algunas normas exigidas a los científicos, en tantos individuos, son las exigibles a cualquier profesional o trabajador (honestidad, veracidad, etc.) y otras están asociadas a la observación de los pasos del método científico y las condiciones de su aplicación. Este nexo entre regla metodológica y regla moral, exclusiva de la ciencia, hace pensar más que en códigos de conducta o normas a las que el científico debe ajustarse, en valores que son propios de las actividades inherentes a la investigación.
Estos valores serian de diversos tipos: cognitivos metodológicos y prácticos o morales y el tenerlos en cuenta, dándoles cumplimiento en el proceso de investigación daría forma por sí mismo a la responsabilidad ética del investigador. Otros excluyen a los valores prácticos o morales ya que solo las cognitivas y metodológicas son propias de la ciencia, que solo se ocupa de conocer al mundo , no de cambiarlo, lo cual lleva a la distinción tajante entre ciencia y tecnología, simplificadora y objetada.
Por ello, se debe hablar de una ética de la investigación científica en tanto el investigador es una “persona” que investiga, sujeta a restricciones de orden moral, formuladas en códigos deontológicos como en cualquier actividad profesional.
Para la National Academy Of Science de EEUU, entre las cuestiones que atañen a la responsabilidad personal del investigador (o comunidad de ellos) relacionadas con el cumplimiento de las normas institucionales explícitas o implícitas, o de las que se desprenden las prescripciones metodológicas se encuentran las siguientes:
*errores cometidos en el transcurso de la investigación: 1) “errores honestos” que si son detectados deben ser reconocidos por su autor y tolerado por la comunidad científica 2). Por “negligencia”, por precipitación, falta de cuidado, inatención, etc. en cuyo caso la reacción será más severa ya que sus consecuencias son más difíciles de revertir que los primeros.3) por “engaño” inventar falsificar o plagiar datos o resultados, que socavan el progreso de la ciencia y su corrección no se dirime solo internamente sino también en tribunales externos.
*la adjudicación de créditos o recompensas: en el sistema estándar científico la adjudicación del crédito por el merito de los trabajos es reconocido en 3 lugares: 1) la lista autores 2) en el reconocimiento por las contribuciones de otros y 3) en la lista o referencias de las citas. Cuando las citas no se realizan adecuadamente, perjudican al investigador en su prestigio y su carrera tanto como al sistema de publicaciones científicas. Para evitar conflictos debe preestablecerse al desarrollo de la investigación, la lista de autores, que en general se determina por el rango: graduado, estudiante, etc.pero es importante que estén mencionados todos los colaboradores
*el tratamiento de las técnicas experimentales: las observaciones realizadas por los científicos por técnicas experimentales estandarizadas permite la verificación independiente de los datos., lo que permite que los resultados de su trabajo pueda ser reproducido por otro científicos lo que favorece la confiablidad, aun cuando estos métodos como sus resultados no sean infalibles y deban someterse a continua revisión y control, para no caer en falales errores. El escepticismo es una caract. de la ciencia presente en todo momento de la investigación.
*la publicación y la apertura: la ciencia no es una experiencia individual sino conocimiento compartido basado en la comprensión común de algunos aspectos del mundo físico o social. La confiabilidad de este conocimiento cuenta con la convención de la publicación de sus resultados, originándose conflictos sobre la prioridad de descubrimientos, ya que el que primero publica obtiene el crédito, no el primero en descubrir algo. Quien publica es reconocido en las citas en otras publicaciones con condición básica de haber pasado controles de calidad de sus colegas, para no caer en errores o dar lugar a interpretaciones equivocadas.
*conflictos de intereses: el científico tiene que emplear su propio juicio para interpretar datos, encontrar problemas de investigación y cuándo concluir un experimento, lo que necesita desarrollar habilidades ,algunas que se pueden aprender y otras no, comportan valores, a veces de naturaleza epistémica(consistencia ,precisión en las predicciones, capacidad de unificación de observaciones diferentes,etc) otros son valores personales ,religiosos ,filosóficos, culturales ,políticos, económicos que forman el juicio del científico de forma fundamental .
Los valores pueden tener influencia positiva o negativa sobre el desempeño del científico, cuando ellos comportan prejuicios, pero se considera que los mecanismos correctivos de la ciencia, como el control empírico y consenso de la comunidad científica, pone límites a esa posibilidad. Además la formación del científico debe ser lo suficientemente amplia (incluyendo cuestiones no científicas, de las ciencias sociales, religión y ética) así puede tomar conciencia de las suposiciones o creencias que subyacen sus elecciones y decisiones en su trabajo y así, en lo posible neutralizarlos
Estas consideraciones de la National Academy of Science destacan elementos importantes pero no bastan y hasta puede considerarse defectuoso, porque supone que la ciencia es una institución autosuficiente e indiscutiblemente certera en todos sus presupuestos y al pedir un conocimiento “amplio” del científico tiende a “deshumanizarlo”.
CIENTIFICISMO Y ANTICIENTIFICISMO:
CIENTIFICISMO: punto de vista sobre la naturaleza de la ciencia, la tecnología y sus relaciones con el resto de la sociedad caracterizado por considerar a la ciencia, no como independiente del resto de la sociedad, sino también su rectora. Esta preeminencia se supone derivada de su capacidad de obtener y formular un conocimiento de la realidad absolutamente racional y objetivo, con resultados altamente precisos y seguros, que proporcionarían una descripción y explicación de los fenómenos reales totalmente cierta y confiable.
Epistemológicamente denominadas POSITIVISMO Y EMPIRISMO LOGICO.
Uno de sus más famosos exponentes es el físico y filosofo argentino MARIO BUNGE.
Para él la ciencia es el único modo de saber que proporciona una comprensión fundamentada de la realidad, por eso está totalmente justificado su papel central en la cultura contemporánea. Pero no solamente predomina sobre cualquier otro aspecto del sistema cultural sino que la ciencia misma es un modelo de ética.
Estas teorías fueron perdiendo vigencia, aunque su influencia haya sido muy grande, a la luz de otras perspectivas epistemológicas, tales como la historia de la ciencia y la filosofía de la tecnología, o la sociología y la antropología, considerando hoy que la ciencia no puede prescindir de alguno de esos distintos puntos de vista. , que representan un enfoque integral del fenómeno tecnocientifico.
En el terreno político es donde se ha sacado partido del poder potencial de estas teorías al impedir que el resto de la sociedad participe de un dialogo con la comunidad científica, aún cuando las actividades de la comunidad científica ponen en riesgo sus intereses y hasta su supervivencia.
ANTICIENTIFICISMO: Tesis opuesta a la del cientificista, que considera a la ciencia como conocimiento construido, provisorio y negociable, histórica y culturalmente contextualizada y éticamente comprometida junto con la tecnología rechazando la preponderancia del conocimiento científico sobre todo tipo de conocimiento y por eso ajena a todo requerimiento de orden social y ético.
El anticientificismo niega que el fenòmeno tecnocientìfico sea valorativamente neutral porque no puede ser explicado sòlo por factores cognitivos o epistèmicos sino tambièn por factores sociales y culturales originados fuera de la ciencia o sea que la ciencia serìa ètica dependiendo del contexto particular en el que se desenvolviera, sus preferencias ,prioridades ,a la hora de investigar dependen del contexto , no tanto de la ciencia per se
.
Sus objeciones son:
· La fragilidad del conocimiento inductivo: Hume – para quien ningún número finito de enunciados singulares puede justificar concluyentemente un enunciado universal, tanto la versión verificacionista como la confirmatoria. T Khun, introdujo además el concepto de “paradigma”, postulando que una amalgama de factores tecnológicos, pedagógicos, psicológicos, sociológicos, considerandos no epistemológicos por la tradición empirista, era la responsable de las teorías aceptadas.
· Relativismos: a partir de Kuhn se desarrollan estudios sociológicos de la ciencia, donde la frontera entre ciencia y sociedad se desdibuja. M.Mulkay, sostiene que la ciencia toma muchas veces del ámbito cultural externo ciertos términos o conceptos cuando sus recursos interpretativos fracasan y que también es receptora de las demandas de intereses de su grupo, por lo que el valor cognitivo de la ciencia quedaría expuesto a la justificación relativa a los contextos particulares.
· La carga teórica de la observación: esto alude a que lo que se ve o percibe depende tanto de las impresiones sensibles como del conocimiento previo, expectativas, prejuicios y estado interno general del observador. científicos que trabajan bajo paradigmas distintos ven al mundo de modo diferente.la carga teórica profundiza el problema de la relatividad.
· Infradeterminacion: problema ocasionado por la posibilidad de establecer teorías alternativas incompatibles para explicar un mismo conjunto de fenómenos. La evidencia empírica es insuficiente para la solución de un problema dado. Relacionada con la carga teórica y la inconmensurabilidad.
· Clausura metodológica: dados los anteriores problemas, se da un vacio epistémico entre la evidencia empírica y las teorías respectivas. La falta de recursos para llenar ese vacío se recurre a factores no epistémicos, como los factores técnico-instrumentales (tradiciones técnicas e instrumentos) factores sociales (económicos, profesionales políticos o ideológicos= contexto social) para obtener los resultados y su interpretación. Esta clausura favorece la consecución de objetivos de la ciencia y disminuye la incertidumbre ocasionada por la infradeterminacion.
Este conjunto de restricciones al alcance epistémico de las afirmaciones científicas es de amplio consenso, lo que ofrece una imagen de la ciencia como una actividad humana mas, lejos de la idealizada perspectiva del cientificista, lo cual es un rasgo que se constituye en condición necesaria en la producción de su saber.
Es decir, decirle no al mantenimiento de una postura positivista ya sin fundamento pero también no a la anticiencia.desenmascarar a la ciencia en su pretensión hegemónica injustificada para acercarla a la sociedad y ponerla a su servicio, invertir la dirección que actualmente se da entre ambas.
CIENCIA BASICA, CIENCIA APLICADA Y TECNOLOGIA
Uno de los factores que favorecen la idea de ciencia desvinculada de la sociedad y productora de conocimiento universal y necesario es la diferenciación que se puede establecer entre ciencia o ciencia aplicada o tecnología.
Bunge, es uno de los autores que apoyan la distinción entre ciencia básica, ciencia aplicada y tecnología. Las 2 primera s tienen como objetivo la producción de conocimiento aplicando el método científico, pero la primera trabaja sobre los problemas que le interesan, puramente congoscitivos, no se puede planear, la elección de temas es libre, así como el tiempo y los procedimientos que usa, lo que producirá resultados beneficiosos para la ciencia aplicada, la técnica y la sociedad en forma automática, mientras que la segunda estudia solo problemas de posible interés social y pude planearse.
La técnica se diferencia de las dos ,porque mientras aquellas buscan leyes que explican la realidad, el propósito de aquella es controlar la realidad empleando el conocimiento y el método científico, así como otros tipos de conocimientos. Soluciona problemas prácticos, no cognoscitivos.
Los resultados de las ciencias, es conocimiento y de la técnica es un artefacto o plan de acción de valor práctico.
Por ello se puede sostener la neutralidad valorativa de las ciencias y no de la tecnología, porque las primeras son independientes de cualquier interés externo u objetivo que trascienda el puro conocimiento, en cambio la segunda produce efectos reales en el mundo.
“La ciencia básica o pura es intrínsecamente valiosa o carente de valor, pero la tecnología puede ser valiosa o disvaliosa, según sean los fines a los que sire, por lo que es necesario someterla a controles morales y sociales” (Bunge)
Similar pensamiento al de Bunge, Rescher, afirma que las cs. y la tecnología van juntas como piezas de un mismo cuerpo, debido al sofisticado desarrollo científico tecnológico actual, no a la función intrínseca de cada una. El cometido de la cs. es puramente cognitivo, por lo que el conocimiento científico es solo descriptivo y el tecnológico presenta una vertiente cognitiva (saber còmo hacer) enraizado en el conocimiento científico y otra normativa (saber si hacer algo concreto es razonable dadas las circunstancias.) las cuestiones normativas de valor, importancia, legitimidad y similares quedan fuera del tema.
Otros autores encuentran más compleja la cuestión y la consiguiente atribución de responsabilidad moral.
Agassi: considera que ciencia y tecnología conforman un fenómeno de la modernidad sin precedentes.la tecnología es consecuencia de la cs. moderna, que e proporciona fundamentos teóricos de la acción eficaz. , es una rama de la técnica, que se puede entender como “ciencia aplicada”.
Una diferencia entre técnica y tecnología que tiene relación directa con la responsabilidad moral es la del vínculo establecido por parte de cada una, entre la humanidad y el mundo artificial. La técnica se ponía al servicio del hombre adaptando la naturaleza a sus necesidades, “obedeciendo a la naturaleza, por lo cual regulada por las “reglas del oficio”. Pero en el caso de la tecnología, el mundo artificial es creado por los seres humanos independientemente de la naturaleza, lo que requiere regulación, normativa, que asegure armonía y sabiduría que antes se confiaba a la naturaleza.
Como para él la distinción entre cs. y tecnología es solo conceptual, se puede usar el término “tecnociencia”, referido a un fenómeno unitario. y es al científico individual ,en tanto investigador a quien compete el control responsable de la tecnociencia,guiándose por los principios de moralidad que le permitan evaluar si el resultado final será un beneficio o una amenaza para la humanidad, aunque no es suficiente. Los peligros inherentes a la tecnociencia son incontrolables y los conflictos actuales y potenciales que genera exceden los límites personales de responsabilidad y pide el control ético-político y social.
Olive: rechaza la idea de la neutralidad valorativa de la ciencia o de la tecnología, porque ambas están implicadas en el desarrollo de la tecnología dada. En ambas hay que aplicar lo que instituciones ecologistas llamaron “principio de precaución” que exhorta a suspender la implementación de determinadas tecnologías si existen bases razonables ,aunque no conclusivas , de que una innovación puede provocar daños al medio ambiente, con una justa discusión y participación de todos los afectados por esa tecnología, incluso la comunidad más amplia.
REFLEXIONES GRALES SOBRE EL TEMA:
Los beneficios que la ciencia y la tecnología aportan a la sociedad son muchos pero también están rodeados de riesgos. Científicos y tecnólogos comparten la responsabilidad sobre esos riesgos actuales o potenciales, ya que no constituyen ámbitos separados con su propia lógica sino son extremos de un continuo que los incluye.
El cuestionamiento sobre los “descubrimientos” científicos se ha ido extendiendo y la sociedad ha tomado cartas en el asunto: comités éticos en hospitales y centros de salud , acuerdos internacionales sobre cuidado de recursos disponibles en el planeta y la reciente Cumbre de Copenhague sobre reducción de gases causantes del efecto invernadero y otros acuerdos regionales sobre el uso de bienes naturales compartidos son ejemplo de la búsqueda de límites a las actividades de ciencia y tecnología.
Aún así los controles son aún resistidos y en nombre de una ciencia autocalificada como autónoma que reclama independencia completa de los demás sectores sociales y por lo tanto inimputable de responsabilidad moral.
Esto ha sido aquí cuestionado. El conocimiento científico no tiene la precisión ni objetividad que antes se le asignaba ni esta exenta de influencias externas en la elección de problemas y la justificación de las soluciones. Y además puede ser hija de las influencias de factores políticos o fuentes de financiamiento.
La solución propuesta consiste en que los proyectos de investigación y desarrollo tecnológico sean puestos a consideración de los interesados o afectados por ellos, aunque esto parezca utópico.