Buscar

La aritmética de los babilonios y sus huellas

Para ampliar los pocos temas de historia de la ciencia publicados hasta ahora vamos a ver algunas características de la aritmética de los babilonios y la forma en que, curiosamente, sigue presente hoy día entre nosotros.
Como es sabido, el origen de la aritmética, lejos de haber sido producto de mentes ociosas puestas a imaginar entidades abstractas como los números y sus posibles propiedades y relaciones, es mucho más ramplón y, si se quiere, esperable: reside en la práctica del intercambio comercial.
Particularmente, pueblos eminentemente comerciantes como el fenicio y el babilonio han hecho mayores progresos en aritmética que otros, como la egipcia.
Con respecto al sistema aritmético de los babilonios, se trataba de un sistema notacional que, a diferencia del nuestro que tiene como base el 10, tenía como base o patrón de referencia el número 60 (no el 6, como a veces erróneamente se afirma).
¿Cómo hacían los antiguos mercaderes babilonios si querían dejar registrada una cantidad de productos comerciados, por ejemplo animales?
El método o sistema por ellos inventado representa un progreso respecto de un sistema de notación más primitivo (notación con palitos acumulados, por ejemplo) porque era de carácter posicional. Esto es, al igual que ocurre actualmente en nuestro sistema de notación aritmética, un numeral (la manifestación gráfica de un número) representa un número u otro según el lugar que ocupe en la representación. No es complicado esto, por ejemplo el símbolo "5", no siempre representa el número 5:
en 154 el símbolo representa el número 50;
en 1592 el símbolo representa el 500
O sea, el sistema de notación aritmética es posicional porque según sea la posición del símbolo o numeral representa un número u otro.
Este invento se lo debemos a algún anónimo babilonio (ya que no debemos olvidar que la idea tuvo lugar primero en la mente de alguna persona y no en "los babilonios") y puede advertirse fácilmente que facilita mucho las cosas respecto del sistema de tachar palitos o palotes.
Sin embargo, por primitivo, el mecanismo de represtentación de los números naturales de los babilonios no contaba con un símbolo diferente para cada número, como tenemos hoy, por lo que las unidades sí se repetían y se representaban con una cuña o algo parecido a lo que nosotros conocemos como acento, una marquita. Por ejemplo el cuatro se escribía así: ´´´´.
Para el número 10, la civilización babilónica tenía un símbolo distinto, < el que nosotros conocemos como "menor que".
Ya estamos en condiciones entonces de escribir el número 14 en babilonio <´´´´. Una curiosidad de este símbolo, tan común entre nosotros, es que según varias interpretaciones, representa el 10 porque representa la posición de dos manos unidas en la punta de los dedos.
Pero recordemos que si bien el número 10 tenía una representación diferente del 1 el sistema no es de base 10 sino de base 60, por lo que ¿cómo debemos interpretar el siguiente número?:
´´ ´´´  El espacio entre los dos números nos indica dos posiciones que deben interpretarse diferentemente. Si estuviésemos en la notación de base 10 los dos primeros números serían el 20 (dos unidades ubicadas en el lado de las decenas, cada una representando el 10), pero como es de base 60, en esa posición tenemos 120, de modo que el número es 120+3=123.
Veamos éste: ´´´ ´ ´´´. Se trata de identificar las tres posiciones, la de la unidad a lo último es el 3, la de los 60 (equivalentes a nuestras decenas), como tiene una sola marca es 60, y la primera, por su posición representa para cada unidad 60 al cuadrado, o sea, 3600 (si estuviésemos en nuestro sistema decimal la representación de una unidad en esa posición sería 10 al cuadrado). Como hay 3 unidades para esa posición, nuestro número es 10800+60+3=10863.
El sistema sexagesimal hoy se mantiene vivo entre nosotros en la manera de dividir la hora y el grado en minutos y segundos de arco.

Las leyes naturales como enunciados y como entidades

En esta ocasión hablaremos de un problema filosófico que se refiere a algo que para la ciencia cumple un papel central y es una de sus nociones más características: las leyes científicas.
Hablaremos de las leyes de la naturaleza para circunscribir el planteo a un plano donde las teorías son más sólidas, o más elaboradas, pero lo mismo puede aplicarse a las leyes sociales, si es que existen.
Existe una ambigüedad, o un doble aspecto, respecto de qué se quiere decir cuando se dice "leyes", que consiste en que una ley natural puede ser entendida como un enunciado descriptivo o como una entidad responsable de la ocurrencia de fenómenos regulares.
En el segundo caso se alude al papel "rector" de las leyes respecto de ciertos hechos que ocurren siempre de cierto modo; en el segundo se alude a una descripción, a veces de esa entidad.
El análisis de esta cuestión se relaciona con el problema del realismo científico: ¿las entidades y propiedades no observables -"teóricas"- que postulan las teorías científicas (átomo, gravedad, electromagnetismo, peso atómico, etc.) tienen existencia o son meras palabras que cumplen un papel en una teoría que funciona porque "salva los fenómenos" o resulta "empíricamente adecuada"?
Quienes niegan que existen las entidades teóricas asumen una postura instrumentalista o no realista.
Para el caso de las leyes, un filósofo de la ciencia no realista podrá decir que las afirmaciones que predican algo de entidades teóricas no son verdaderas ni falsas, pues no hablan de nada, o bien que son falsas. Pero nunca entenderá que las leyes de la naturaleza son algo que causa fenómenos observables.
Los realistas, en cambio, hablarán de las leyes como entidades. Usamos la palabra "ley" por su uso difundido, pero lo mismo vale para "constantes", "principios" y otras regularidades postuladas por las actuales teorías de las ciencias naturales.
Pero ello implica que si se habla de "la equivalencia de masa y energía", por ejemplo, se pueda hacer alusión a dos cosas diferentes, una de carácter epistemológico y otra de carácter metafísico: el enunciado -corroborado o confirmado- que escribimos entre paréntesis, como parte de una teoría, o cierta característica de la realidad que hace que los eventos particulares se comporten u ocurran de un cierto modo.
Desde el punto de vista metafísico las leyes o regularidades del mundo cumplen un papel causal o productor de las regularidades que no presentan excepciones: la velocidad de la luz en cada caso particular en que presenta la misma velocidad son los fenómenos producidos por el hecho de que la velocidad de la luz es constante; cada caso de objeto que soltamos y cae al piso es producido por la ley de gravedad (entendida como entidad, estructura, relación o propiedad metafísica diferente de los casos particulares), cada caso en un sistema donde la masa es equivalente a la energía es producido por una característica del mundo que genera esa regularidad etc.
No es difícil encontrar escritos sobre la ciencia donde se alude a las leyes afirmando que son "responsables" o "causa" o "productoras" de fenómenos regulares, sus casos o instancias manifiestas y al mismo tiempo se dice que están confirmadas o que explican sus casos ejemplificadores.
Pero una ley o entidad metafísica no puede estar confirmada porque la confirmación es un término epistemológico que se refiere al estatus cognitivo de ciertos enunciados, lo mismo que la explicación, que se refiere a dar razones, no a producir o hacer que algo ocurra. Los argumentos pueden explicar, pero no las cosas.
Conversamente, si se habla de una ley o un principio o una ecuación como un enunciado descriptivo, no tiene sentido decir que produce los casos regulares, o que "se manifiesta" en sus instancias o cosas similares, pues estas expresiones sólo pueden tener sentido respecto de entidades y propiedades reales.
De manera que habrá que aclarar y pensar bien qué queremos decir porque estas dos cosas suelen confundirse con frecuencia pero de ningún modo son lo mismo.

Paul Feyerabend, el filósofo de la ciencia que fue nazi

Paul Feyerabend fue uno de los más importantes filósofos de la ciencia de la segunda mitad del siglo XX y fue, además, un personaje típico del siglo XX, una época que hace que la distancia que hoy nos separa de la Europa de preguerras sea tan abismal, tanto en las ideas como en la forma de vivir.
Nacido en Viena (1924), al igual que Popper (1902) y Wittgenstein (1889), sobre cuyas ideas tuvo interés en los comienzos de su vida intelectual, Paul Feyerabend es todo un personaje que provoca interés y hasta fascinación por sus episodios biográficos, su personalidad e incluso por lo fácil que es malinterpretar nociones específicas de una disciplina como la filosofía de la ciencia cuando toman contacto con "el gran público".
Las ideas de Paul Feyerabend dentro de la filosofía de la ciencia, y la evolución de su pensamiento, no son tan conocidos en detalle como sí lo son una serie de slogans que le dieron cierta fama y que son objeto de interpretaciones y usos académicos muchas veces equivocados, algo propiciado por la escritura del mismo Feyerabend y que, de hecho, no le preocupaba en absoluto.
Uno de ellos es el pretendido "anarquismo epistemológico" propugnado por el vienés, expresión metafórica y vaga que el mismo Feyerabend reconoce que no consiste en un rechazo del método científico, sino en una crítica de las ideas de algunos filósofos de la ciencia de su época que, puestos a refelexionar tanto en el plano epistemológico como en el metaepistemológico, adoptaban prescripciones que juzgaba dogmáticas.
Un ejemplo extremo de las interpretaciones inadecuadas de las ideas de Feyerabend es que algunas personas que se proclaman "anarquistas" o asumen posturas de izquierda se hacen eco de ciertas formas de una vulgata viral del pensador, algo al menos curioso considerando que Feyerabend fue nazi, y no meramente un simpatizante o soldado de la segunda guerra mundial, sino que formando parte del ejército alemán llegó incluso a ser comandante de un batallón en el malogrado Frente Ruso, logrando condecoraciones por ello.
Parte de la equivocidad responde al modo de escribir del propio Feyerabend, quien acostumbraba utilizar metáforas políticas y frases de gran poder de marketing, como algunas de Marx por ejemplo.
Pero al hacer esto, si bien se consigue éxito retórico con facilidad en el público no especializado (en el ámbito académico de la filosofía de la ciencia especializada Feyerabend tuvo un efimero brillo, si bien lo tuvo), se incurre en una vaguedad que impide saber exactemente qué se está diciendo acerca de aspectos muy específicos que, naturalemente, el lego no conoce.
El mismo Feyerabend pareció reirse o tomar de un modo muy particular (propio de su personalidad ácida) este asunto, por ejemplo señalando en Matando el tiempo, su autobiografia intelectual, que el famoso escrito Contra el método (una de las vías de acceso a su fama fuera de ámbitos académicos) se podía interpretar de dos maneras: en serio y en broma.
Si afirma que una frase, párrafo o libro entero debe interpretarse "en broma", esto a su vez es ambigüo pues ¿qué significa "en broma"? ¿acaso en un sentido irónico, queriendo decir lo contrario? ¿totalmente en broma, no queriendo decir nada sobre el tema (lo que podría ser una confesión de engaño)?
Así y todo, Paul Feyerabend fue uno de los filósofos de la ciencia más agudos y perspicaces del siglo XX, fundamentalmente por su capacidad para apreciar detalles, aspectos profundos y no advertidos por filósofos ni científicos tanto en física teórica, filosofía de la física, filosofía de la ciencia y metafilosofía de la ciencia. De este asunto nos ocuparemos en otros posts.
Curiosamente, el filósofo estudioso de la física cuántica y de la metafilosofía de la ciencia que se desempeñó con gran eficacia en el ejército nazi trabó años después una entrañable amistad con alguien que fue víctima de los nazis al punto de tener que cambiarse de apellido para sobrevivir en su Hungría natal dado su origen judío: el filósofo de las matemáticas y de la ciencia Imre Lipschitz, conocido como Imre Lakatos, cuyas madre y abuela murieron en Auschwitz.
Feyerabend no se cansaba de manifestar el entrañable afecto que tendía por el filósofo que analizaba las ciencias en términos de programas de investigación.
Y una última curiosidad de Feyerabend es que, durante el movimiento estudiantil de fines de la década de 1960 mantuvo una buena relación con los estudiantes rebeldes, algunos de los cuales llegaron a ver en Paul un aliado en defensa de la libertad, algo no tan extraño si se considera su hiriente individualismo, su espíritu beligerante y su hábito de invitar a los estudiantes a los bares luego de sus clases en Berkeley a beber cerveza y establecer largas y diversas discusiones.

La diferencia entre probabilidad logica y probabilidad estadistica

probabilidad logica y probabilidad estadisticaDentro de la filosofía de la ciencia de la vertiente inductivista, desarrollada principalmente en el siglo XX por los pensadores de Círculo de Viena y otros pensadores afines, como Carl Hempel y Hans Reichenbach, ha sido introducida una distinción -de utilidad para el estudio de cuestiones filosóficas de la ciencia relativas a la justificación y a la predicción científica, por ejemplo- que consiste en diferencia el concepto de probabilidad de carácter lógico del de probabilidad estadística.
La raíz de tal distinción, que hasta donde conocemos fue presentada por Rudolf Carnap, reside en el intento (que tuviera lugar principalmente en los escritos de los inductivistas, con el propio Carnap a la cabeza) de justificar las inducciones de la ciencia, y particularmente, de hallar un criterio o un modo de poder cuantificar el grado o la medida en que los hallazgos de investigación favorables a una hipótesis permiten justificarla, en el sentido de establecerla como probable, probablemente verdadera o verosímil.
En este sentido, Carnap ha mostrado que no es lo mismo la probabilidad que ciertos datos prestan a una hipótesis, ley o teoría a la que confirman (probabilidad lógica) que la probabilidad de la hipótesis o ley misma considerada como un enunciado descriptivo (probabilidad estadística).
La diferenciación se puede ver con claridad si se piensa en lo siguiente: la probabilidad lógica es una relación, la que existe entre ciertos enunciados que describen informes observacionales (por ejemplo "en el momento T en el lugar L se observó un cuervo negro") y una hipótesis a la que apoyan o confirman ("todos los cuervos son negros"). Esta relación tiene la forma de un razonamiento inductivo con premisas singulares y una conclusión general.
La probabilidad lógica es entonces el apoyo que ciertos enunciados le prestan a otro; en nuestro caso, sea que se tome como premisa la descripción de una observación o de millones, nunca (por la naturaleza misma del vínculo inductivo) se probará la verdad de la conclusión "todos los cuervos son negros", pero se podrá decir que esas premisas hacen probable la verdad de la conclusión.
En cambio, la probabilidad estadística es algo diferente. Se refiere a la descripción de una clase o conjunto y se encuentra caracterizada en las denominadas leyes estadísticas o probabilísticas.
No se trata de una relación sino de un mero enunciado descriptivo (hipotético como todo el conocimiento científico) que se refiere a un conjunto en el que una cierta propiedad o característica no se cumple en todos sus miembros pero sí en algunos.
Por ejemplo, si tomamos en enunciado legal "todos los cuervos son negros", éste describe una clase en la que sí se presenta la característica (ser negro) en todos los elementos (ser cuervo), por lo que en este caso la probabilidad es de 1, o sea certeza: si hay un cuervo en el mundo, es negro, si hay cinco, los cinco son negros.
Pero si tomamos un enunciado como "el 90% de quienes padecen una infección causada por estreptococos y toma penicilina se cura", que es lo que se conoce como ley estadística o probabilística, tenemos un caso de probabilidad estadística en el sentido señalado.
El enunciado se refiere a una clase o conjunto, el de las personas infectadas por estreptococos que toman penicilina, y afirma que una cierta propiedad, la de curarse, se cumple en algunos casos (la mayoría), pero no en otros.
Las leyes estadísticas son enunciados descriptivos que se refieren a un conjunto, y no establecen ninguna relación lógica (ni "predicen" nada); señalan que una parte del objeto al que se refieren presenta una característica, atributo o propiedad, y otra parte no.

El principio de demarcacion del empirismo o positivismo logico

Tanto Karl Popper como los empiristas lógicos -o positivistas lógicos, que no es lo mismo pero en este contexto no es necesario diferenciar ambos conceptos- han propuesto un criterio de demarcación, mas ambos criterios presentan más diferencias que similitudes.
En este post nos referiremos fundamentalmente al primer criterio.
Tanto el criterio de demarcación de los miembros del Círculo de Viena como el del filósofo racionalista crítico pueden entenderse en principio como criterios de cientificidad, en el sentido de ser requisitos destinados a diferenciar entre algo que pertenece a la auténtica ciencia y algo que no pertenece a ella.
Un propósito parcialmente compartido, un poco olvidado en la actualidad -lamentablemente-, para la propuesta de sendos criterios de demarcación era poder separar las aguas respecto de ciertas teorías que se presentaban como científicas cuando en realidad no lo eran. Dicho sea de paso, el sociólogo Max Weber, sin proponer un criterio como tal, tenía la misma preocupación respecto de la sociología y las ciencias sociales.
Sin embargo, el rechazo de la pseudociencia y la "fraseología grandilocuente" "vacía", que se presentaba como conocimiento pero no lo era, era para los empiristas lógicos una cuestión programática, un objetivo de base ineliminable: para ellos el rechazo incluía la metafísica, filosofía especulativa que aludía a entidades como "el alma" o "la nada" que no se sabía qué cosa eran y, fundamentalmente, no había manera de poder tener una experiencia de ellas.
Para Carnap y los miembros del Círculo la filosofía especulativa, en el mejor de los casos, sólo podía tener valor poético. Dicho sea de paso, algo similar (en el sentido de valor literario) se ha dicho de los escritos de Freud, cuya teoría psicoanalítica era para Popper un conspicuo ejemplo de pseudociencia.
Pero el criterio de demarcación de Popper no se hacía eco de las tesis de los empiristas vieneses; para él, el la filosofía representaba un tipo de conocimiento -diferente del científico, por supuesto-, y poseía un valor incluso para la ciencia misma: para el autor de La lógica de la investigación científica los problemas filosóficos y metafísicos muchas veces sirven como inspiradores o puntos de partida para la formulación de hipótesis, que finalmente han de conducir al descubrimiento y al conocimiento científico.
Yendo ahora al tema específico, destacando estas diferencias entre ambos criterios, diremos lo siguiente.
El criterio de demarcación del empirismo lógico, conocido como "Criterio verificacionista del significado" o "Criterio de significación cognoscitiva" procuraba distinguir entre enunciados científicos y enunciado no científicos, o pseudocientíficos.
Para los positivistas lógicos, un enunciado era realmente científico si proporcionaba conocimiento, si describía algo realmente existente y no algo ideado por imaginativos filósofos con pretensiones de perspicacia respecto del mundo.
¿Cómo podía saberse si un enunciado realmente proporcionaba conocimiento acerca de alguna cuestión?
Un enunciado porporciona conocimiento -en la visión del Círculo de Viena y sus seguidores continentales- si posee significado. Aquí puede apreciarse la influencia del primer Wittgenstein, el del Tractatus Logico-Philosophicus en la propuesta del empirismo del siglo XX.
Los enunciados no significativos, simplemente no hablan de nada, son palabras sin contenido.
Los enunciados con significado son los de las ciencias formales, como la matemática, que poseen -según muchos sostienen- carácter analítico, y aquellos de las ciencias empíricas o fácticas que son verificables o refutables, directa o indirectamente, mediante la observación.
O sea, para el empirismo lógico un enunciado sobre el mundo, perteneciente a las ciencias naturales o sociales, representa conocimiento de la realidad y tiene significado si es posible establecer su verdad o falsedad a través de la experiencia.
Recordemos que los pensadores del Círculo de Viena adscriben al empirismo que es la doctrina gnoseológica (perteneciente a la teoría del conocimiento en general, no específicamente del conocimiento científico) según la cual la fuente y el criterio último para conocer es la observación.
De manera que un enunciado como "esta mesa es dura" es significativo porque su carácter de verdadero o de falso puede establecerse mediante la observación directa (en el sentido del empleo directo de las capacidades sensoriales), en tanto que un enunciado como "la nada nadea" y similares no es significativo, no tiene significado porque no brinda conocimiento debido a que no es posible observar la nada ni ninguna de sus presuntas actividades como "nadear".
También, un enunciado como "al aumentar la presión sobre un gas a volumen constante las partículas de ese gas chocarán con mayor frecuencia entre sí", también es significativo, porque si bien no se pueden observar directamente las partículas del gas, el enunciado tiene consecuencias observacionales (enunciados que se deducen de él que describen un evento directamente observable) que sí pueden verificarse o refutarse mediante observación: "subirá la temperatura del gas", por ejemplo, ya que el concepto de observación directa incluye el uso de instrumentos sencillos de empleo habitual.
Nótese que el criterio empirista lógico de significado es en realidad "observacionista" y no "verificacionista", pues la verificación es sólo uno de los resultados posibles (el otro es la refutación o falsación), de manera que un enunciado como "mañana lloverá aquí" es significativo según el empirismo lógico (describe un hecho observable), pero si mañana no llueve se probará que es falso, por lo que sí representa conocimiento: el conocimiento de como el mundo no es, diríamos en una especie de guiño popperiano.
Aunque lo importante, en esta visión, es que "la nada" no son más que unas palabras. El criterio de demarcación del empirismo lógico sufrió muchos cambios, en parte debido a sus propias limitaciones. En su versión inicial establecía que un enunciado de las ciencias empíricas tenía sentido o significado (aquí no es necesario diferenciar estos términos) si podía verificarse o refutarse directamente, pero ante el problema de qué ocurría con los enunciados teóricos (aquellos que contienen términos que se refieren a cosas que existen pero no son directamente observables, como "moléculas" en nuestro ejemplo), autores como Carnap y Hempel, entre otros, buscaron diferentes alternativas a lo largo de varios años para demarcar el ámbito de los enunciados científicos de los metafísicos.

Distintas maneras de entender qué es un triangulo

que es un trianguloCotidianamente todos hablamos de triángulos. No sólo la palabra forma parte de nuestro vocabulario habitual, en algún caso técnico, sino que incluso no consideramos problemático entender qué cosa es un triángulo: usamos el vocablo porque comprendemos su significado, ya que si no lo hiciéramos no nos entenderíamos entre nosotros y no podríamos estar seguros de qué queremos decir cuando incluimos el término "triángulo" en nuestras conversaciones o escritos.
Lo mismo corre con la palabra "triangular".
Pero ¿sabemos realmente qué cosa es un triángulo? ¿No usamos acaso, algunas veces, la palabra "triángulo" con diferentes significados sin darnos cuenta?

Distintas maneras de entender la palabra "triángulo"

Un triángulo es una figura geométrica. Habitualmente, relacionamos el triángulo con ciertas características esenciales, como ser una figura conformada por tres lineas, poseer ángulos internos cuya suma es de 180°, etc.
Pero aquí ya ha surgido un problema: que la suma de los ángulos interiores de un triángulo sea igual a 180° no es algo que esté en absoluto claro.
De hecho, esa es una característica del triángulo en la geometría euclidiana, pero existen geometrías no euclidianas en las que un triángulo no tiene tal característica.
Esto no es una cuestión relativa a sofisticación de matemáticos o expertos en geometría con mucho tiempo libre: por el contrario, es un tema muy complejo porque si se interpreta que la geometría es la disciplina que describe la naturaleza del espacio físico -como pensaba Einstein, por ejemplo-, ocurre que la teoría actual acerca de la misma (la teoría general de la relatividad) asume que el espacio no se comporta de manera euclidiana.
O sea, que en el macrocosmos, en grandes distancias, la suma de los ángulos internos de un triángulo es diferente de 180° según la geometría riemanniana de cuvatura variable empleada por Albert Einstein.
La simple explicación de por qué si usamos un compás los triángulos de nuestra experiencia aparentan medir 180° en su sumatoria es que las distancias en que nos manejamos cotidianamente son pequeñas: al igual que nos parece que la tierra que pisamos es plana, o que un escarabajo en el desierto tiene por universo el desierto.
Pero esto no significa que un triángulo sea algo cuyos ángulos interiores suman más de 180°, pues, suponiendo que la teoría einsteiniana sea correcta, ésta se refiere a triángulos físicos, o sea a triángulos del espacio real, situado espaciotemporalmente.
Einstein asumía que la geometría era geometría física, interpretada empíricamente, la disciplina que permitía revelar ciertas características estructurales del espacio real, de nuestro mundo.
Pero la geometría (y qué cosa es un triángulo) puede ser interpretada de otro modo: como una disciplina ideal o formal, tal como la matemática.
En este sentido, un triángulo es una figura abstracta, y nada más.
Luego podrá alguien hacer una interpretación física de la geometría, pero entonces tendremos la geometría pura y la aplicada, la geometría formal y la geometría física, siendo ambas diferentes.
Porque después de todo, si como afirmaba Euclides de Alejandría, una recta está constituida por puntos, y un punto es lo que no tiene extensión o anchura, entonces la geometría no se refiere a nada físico a nada situado en el tiempo ni en el espacio.
Un triángulo, en el sentido de entidad abstracta o ideal, forma parte de la misma bolsa que los números, diferentes de los numerales y de cualquier enumeración concreta de objetos -conceptuales o materiales-, lo que sería aritmética aplicada, de manera similar a como un triángulo abstracto puede interpretarse como una entidad física.

De manera que podemos entender que un triángulo es:
1) una entidad abstracta euclidiana
2) una entidad abstracta no euclidiana (perteneciente y definida por alguna teoría geométrica hiperbólica o elíptica)
3) una entidad física real, como el triángulo en papel o un triángulo entre tres estrellas, de naturaleza euclidiana.
4) una entidad física real, como el triángulo en papel o un triángulo conformado por tres estrellas, de naturaleza no euclidiana.
Lo que queda claro de todo esto, es que si estudiamos geometría, sea la de Euclides, la de Riemann o la de Bolyai, Lobatchevsky y Gauss, la teoría que elijamos se refiere a algo muy diferente de un dibujo en un papel o una pizarra, y lo que ocurra físicamente (como la medición sobre un dibujo) nada tiene que ver con las entidades abstractas, por lo que es enormemente dudoso, desde el punto de vista de la filosofía de la geometría, que el dibujo sirva para probar lo que ocurre en el ámbito de la idealidad, en el mundo abstracto definido por esas teorías.

Distinción entre "enunciados teóricos", "términos teóricos" y "entidades teóricas" en filosofía de la ciencia

Expresiones como "términos teóricos", "entidades teóricas" y "enunciados teóricos" forman parte del vocabulario de la filosofía de la ciencia actual -y también de la clásica-, pero tal vez el lector no especialista le sea de utilidad diferenciar el significado de cada una de ellas.
Sucintamente, los enunciados teóricos son ciertas oraciones descriptivas que forman parte de una teoría científica, los términos teóricos son palabras, expresiones descriptivas que están dentro de esas oraciones (dentro de los enunciados teóricos), en tanto que las entidades teóricas son aquellas cosas o características de las cosas que se acepta en la actualidad que existen, de acuerdo con las teorías científicas vigentes y que se caracterizan por no ser directamente observables.
De manera que un enunciado teórico es una oración científica que contiene términos teóricos.
Pongamos un ejemplo, recordando que los términos teóricos, precisamente lo son, su teoricidad radica en el hecho de que describen algo que existe pero no puede ser observado directamente, en contraste con los términos observacionales.
Todos hemos escuchado hablar del núcleo de un átomo, sabemos, por ejemplo, que si se logra partir el núcleo de ciertos isótopos (variantes de un mismo átomo, digamos) de Uranio o Plutonio se libera gran energía, como se hizo con las bombas atómicas.
En términos generales, nadie diría que el núcleo de esos átomos no existe, ni diría que los átomos no existen. Aceptamos que forman parte de la realidad, pero de la porción de la realidad que en filosofía de la ciencia se define como "teórica".
"El átomo de Uranio tiene núcleo" es un enunciado teórico, pues sus términos descriptivos ("átomo" y "Uranio") son términos teóricos. Un enunciado no teórico, o sea observacional, sería "mi camisa es verde", por ejemplo.
¿Y qué son las entidades teóricas? Se trata simplemente del componente extralingüístico descripto o referido, el núcleo del átomo en este caso. Las entidades son aquello real postulado por las teorías, y las entidades teóricas son aquellas que, se asume que existen, pero no pueden observarse directamente.
De modo que hay tres conceptos diferentes (enunciados teóricos, términos teóricos y entidades teóricas), pero sólo dos de estos corresponden a algo que podamos hallar en el lenguaje: si hablamos de enunciados teóricos nos referimos a oraciones (que además son oraciones descriptivas, por lo que son verdaderas o falsas), si aludimos a términos teóricos nos referimos a palabras, vocablos que están dentro de las oraciones (de los enunciados teóricos), y si hablamos de entidades aludimos a cosas o características de esas cosas descriptas por los términos teóricos.
Nótese que en nuestro ejemplo, "átomo" es un término, y como lo citamos desde nuestro metalenguaje (con esta oración nos referimos a otra oración y no a una cosa real) está escrito entre comillas, en tanto que el átomo (sin comillas) es la cosa de la que hablamos, la entidad teórica que forma parte de otro dominio: el de la realidad.

Que son los "terminos teoricos" en Filosofia de la Ciencia

rudolf carnap
rudolf carnap terminos teoricosEn esta oportunidad hablaremos sobre la noción de "término teórico" dentro de la filosofía de la ciencia, sea en su versión clásica -del siglo XX- como en las corrientes actuales.
Con una excepción, la correspondiente a la denominada "concepción no enunciativa de las teorías científicas" o "concepción semántica de las teorías científicas" propugnada entre otros por J. Sneed, en filosofía de la ciencia se entiende como "términos teóricos" aquellos términos descriptivos que no son observacionales.
Expliquemos esto un poco, enmarcándolo en algunos rasgos históricos.
Rudolf Carnap (fotos), conspicuo representante del empirismo lógico (o del Círculo de Viena, si se quiere), intentó de un modo particular abordar el problema (característico de la filosofía de la ciencia empirista, pero también propio de toda corriente filosófica sobre la ciencia) de la reducción, o sea el de cómo poder reducir todos los términos de la ciencia (y por tanto los términos teóricos, a los que también llamó "constructos teóricos" e "hipotéticos", aunque este término no debe confundirse con la noción de hipótesis) a los denominados términos observacionales.
Estos últimos eran los menos pasibles de duda, pues describían algo de lo que se podía (en su visión) tener evidencia directa mediante el uso directo de los sentidos. "Verde", "duro", "brillante", "mesa", "perro" son ejemplos de términos observacionales.
La certidumbre derivaba de que si alguien decía "Esta mesa es verde", como "mesa" y "verde" son términos observacionales, mediante la simple observación podremos testear la afirmación, ver si es verdadera o falsa, y por tanto establecer si constituye conocimiento o no.
El problema surge cuando se emplean términos teóricos, aquellos que no describen algo que pueda ser observado directamente.
Ejemplos de "términos teóricos" son "átomo", "gravedad", "superyó", "inflación", "función de onda", "virus", etcétera.
¿Cómo establecer la verdad de una oración que describe algo que no puede ser observado directamente?
Rudolf Carnap propuso reducir los términos teóricos a los observacionales. La reducción, dicho sucintamente y haciendo omisión de problemas y variantes en torno al punto, consiste en que creía poder hacerlo si la oración teórica tiene consecuencias observacionales, que sí pueden contrastarse observacionalmente.
Por ejemplo, podemos no observar la gravedad, pero establecer la verdad o falsedad (y por lo tanto si representa conocimiento) de una oración que contiene el término teórico "gravedad" a partir de ciertas otras oraciones que se deducen de ella y pueden ser contrastadas por observación directa.
Por ejemplo: "si, en circunstancias normales, se suelta un objeto de ciertas características, caerá al suelo".
Otro problema es que la distinción entre qué es un término teórico y qué es un término observacional es convencional, no puede establecerse de modo tajante, pues el límite entre ambos tipos de vocables es difuso, cambia históricamente y varía según el contexto.
Por ejemplo, algunos planetas son observables y otros no; un biólogo puede observar directamente una colonia de pequeños insectos, mientras que nosotros observamos manchas, etc.
En Philosophical Foundations of Phisycs, traducido al español como Fundamentación lógica de la física, Carnap deja en claro que según su visión, el carácter convencional de la distinción teórico-observacional no representa problema alguno respecto de la cuestión filosófica de la reducción teórica a lo observacional.
Se puede definir "término teórico" dentro de la filosofía de la ciencia (con la excepción mencionada) como cualquiera de los términos descriptivos de las teorías científicas que refiere o representa algo que no puede observarse directamente.
Es importante hacer respecto de este tema una distición entre niveles de análisis, pues la cuestión de la teoricidad se refiere al lenguaje científico, y no al de la filosofía de la ciencia que lo analiza.
Por ejemplo, el término "falsabilidad" es un término que corresponde al contexto de una teoría filosófica de la ciencia, la de Popper, pero no forma parte de una teoría científica. En cambio, "gen" o "electromagnetismo" son términos teóricos.

El criterio de verosimilitud de Karl Popper

Karl Popper adscribió a la postura que se denomina realismo científico, según la cual las teorías científicas son auténticas descripciones -si bien nunca perfectas o completas- de la realidad.
Pero el realismo popperiano asumía también una de las variantes de la tesis de la verosimilitud o verosimilitud relativa (truthlikeness, verosimilitude).
El creador de la noción de corroboración científica mantuvo siempre un criterio según el cual una teoría empírica (perteneciente a las ciencias naturales o a las ciencias sociales) que sucede a otra en una cierta especialidad o disciplina es una mejor descripción de su objeto de estudio, de la fracción de la realidad de que se ocupa.
En este sentido, el criterio de verosimilitud relativa de Popper es complementado con su idea de que la ciencia tiende, se acerca a lo largo del tiempo a la verdad como un "ideal regulador" o meta de la ciencia.
Vale decir, que según esta idea las teorías sucesoras están más cerca de la teoría verdadera (la que describe completamente su objeto de estudio y tiene todas sus -infinitas- afirmaciones verdaderas) que las precedentes.
Pero además, Popper pretendió brindar un critero de verosimilitud relativa que pudiese servir para comparar teorías a partir de su contenido de verdad y su contenido de falsedad.
Pero falló, a poco de publicado, y simultáneamente, Pavel Tichy y David Miller (discípulo de Popper, actualmente trabajando en Chile) brindaron en 1974 una demostración lógica de que el criterio de verosimilitud, similitud con la verdad o cercanía a la verdad ofrecido por el filósofo vienés fallaba.
Este criterio está pensado para comparar teorías pasadas, que ya se ha probado que son falsas (aunque se espera también que las actuales lo son), por lo que ambas tendrán ciertos enunciados, teóricos u observacionales, que son verdaderos (contenido de verdad de la teoría) y ciertos otros enunciados que son falsos (contenido de falsedad de la teoría).
Sucintamente, Popper proponía que dada la teoría A y su sucesora B, B es más verosímil que A si:
a) su contenido de verdad es mayor que el de A, en tanto que su contenido de falsedad es menor o igual que el de A, o bien
b) su contenido de falsedad es menor que el de A, en tanto que su contenido de verdad es mayor o igual.
La demostración de Miller y Tichy de que el criterio de verosimilitud de Popper falla se basa en el hecho de que al aumentar el contenido de verdad también aumenta el contenido de falsedad de la teoría.
Muy informal y brevemente dicho, si tenemos los enunciados falsos A, B y C, y se agrega el verdadero D, también serán falsos por conjunción lógica (la conjunción, para ser verdadera, requiere que cada una de las cosas que están en conjunción sea verdadera) A y D; B y D; C y D; A y B y D, etcétera.
Al mismo tiempo, David Miller y Pavel Tichy demostraron que si se supone que el contenido de enunciados falsos de B es menor que el de A, o sea que hay un enunciado X que es falso y pertenece a A pero no pertenece a la teoría científica B, hay también muchos verdaderos que pertenecen a la teoría A pero no pertenece a la teoría B, por lo que es falso que el contenido de verdad de B sea mayor o igual que el de A en este caso.
Si X es falso y pertenece a A, pero no pertenece a B, por la regla deductiva lógica de disyunción, que establece que dadas dos afimaciones aseveradas en disyunción ("esto o aquello", "vamos al teatro o al cine") basta con que una de ellas sea verdadera para que el enunciado compuesto lo sea, por lo que de una oración verdadera siempre se puede deducir su disyunción inclusiva con cualquier otra, se sigue que la disyunción de X con la verdad V1 será otra verdad que no puede existir en la teoría B, lo mismo para "X o V2", "X o V3", etcétera.
Popper admitió imnediatamente su error y desde entonces varios filósofos de la ciencia encolumnados en la vertiente del realismo científico han seguido cavilando sobre el tema de la verosimilitud, proponiendo algunos de ellos otros criterios, ya no basados en el contenido de verdad y de falsedad de las teorías, como es el caso de William Newton-Smith o Ilkka Niiniluoto, aunque ninguno de estos criterios para comparar la verosimilitud de las teorías empíricas ha prosperado de manera consensuada en la filosofía científica actual.

La diferencia entre confirmacion y corroboracion

Como toda disciplina, la filosofía de la ciencia cuenta con ciertos términos técnicos cuyo significado preciso es útil establecer para evitar confusiones y para procurar comprender lo mejor que se pueda las teorías de los diferentes filósofos de la ciencia.
Dos de de estos términos, que pueden confundirse, son las nociones de corroboración y confirmación.
Lo primero que hay que decir sobre estas dos palabras es que la idea de corroboración corresponde a la teoría filosófica de la ciencia de Karl Popper (si bien, por ejemplo, Lakatos también la usa pero con un significado diferente), en tanto que la de confirmación es una noción especialmente sustentada y estudiada por los inductivistas de la corriente denominada "empirismo lógico".
Ambas nociones son evaluaciones cognitivas acerca de hipótesis de las ciencias empíricas y puede pensarse en que son calificaciones que los científicos realizan sobre las hipótesis luego de que han sido contrastadas, aunque no necesariamente es así.
Según Karl Popper, la contrastación de una hipótesis universal no consiste en deducir consecuencias observacionales de la misma, sino en intentar demostrar su falsedad, que está equivocada, esto es, en intentar establecer un enunciado de observación ("enunciado básico", en la terminología popperiana) incompatible con ella.
Para Popper, la situación de contrastación crucial es la que mejor se ajusta a su propuesta de contrastación de hipótesis fácticas, porque siempre consiste en un intento de refutación.
Sólo si se ha intentado refutar la hipótesis, y se ha fracasado, ésta queda -dice Popper- corroborada, lo cual significa que se la acepta como conocimiento empírico pero de manera provisoria.
Añade el filósofo vienés que los científicos deben comprometerse a realizar pruebas más rigurosas para intentar refutar la teoría corroborada, por ejemplo, empleando instrumentos más precisos o ideando situaciones de contrastación más severas.
La noción de corroboración en la propuesta epistemológica para las ciencias naturales de Popper, si bien admite grados, no significa de ninguna manera que los enunciados básicos apoyen o hagan probable o den "buenas razones" en favor de las hipótesis universales.
Si ese fuera el caso, el autor de "La lógica de la investigación científica" estaría aceptando una noción epistemológica que supone una relación lógica inductiva entre los diferentes enunciados.
En cambio, para alguien que acepte la lógica inductiva, la confirmación es un apoyo (también variable y siempre parcial) que ciertos enunciados de observación aceptados le prestan a una hipótesis.
Rudolf Carnap ha intentado proporcionar un criterio para medir, en diferentes situaciones, el grado de confirmación a partir del apoyo que enunciados de observación singulares aceptados tomados como premisas en un razonamiento inductivo le prestarían a la conclusión (una ley por ejemplo), o sea a partir de lo que ha denominado "probabilidad lógica" (diferente de la probabilidad estadística).

Video: el universo según la mecánica cuántica

En este interesante video documental, que nos complacemos en compartir, podemos ver la mecánica del universo desde la perspectiva cuántica.
En el documental de The California Institute of Technology, enmarcado en una clase del profesor David L. Goodstein, se menciona, de manera didáctica y con imágenes y ejemplos claros, la paradoja de que si bien nuestras ideas actuales sobre el funcionamiento del universo asimilan el mismo a un comportamiento mécánico, quienes fueron responsables de la revolución científica que impuso esta idea -los físicos- no sostienen más esta manera de ver las cosas.
Se menciona que la primera revolución en física consistió en resolver el problema de la naturaleza del sistema solar, en tanto que la segunda, más reciente, fue resultado de abordar el problema de la naturaleza del átomo.
Copérnico, Benjamín Franklin, Michael Faraday, James Maxwell, Albert Michelson, Rutherford, Lorentz, Einstein, Heisenberg, Shrödinger, entre otros grandes científicos y filósofos, recorren este interesante video documental de 27 minutos que resulta muy estimulante e invita a aprender más.
Es una pena el uso de la expresión "leyes verdaderas" respecto de las de la teoría de Newton (algo común en los físicos, poco inclinados a estudiar el significado de las palabras, que tanto emplean).
También es una cuestión muy controversial (a la que muchos filósofos de la física responden negativamente) si se pueden derivar las leyes de Newton de las leyes relativistas.
Añadamos que desde el punto de la filosofía de la física, el principio de incertidumbre, más que desafiar la idea de causa, permite -al menos según la interpretación estándar o "interpretación de Copenhague"- poner en cuestión la idea misma de realidad o de la naturaleza de las cosas reales.
Si embargo, el hecho de que conocer la posición de una partícula (o "partícula") subatómica en un cierto instante nunca permite conocer además cuál es su cantidad de movimiento (producto de su masa por la velocidad que lleva) en ese instante, debe ser entendido con la siguiente consideración: de acuerdo con la teoría cuántica actual, ya que toda teoría sobre el mundo es una hipótesis confirmada pero no verificada.
Por ello es inexacto decir que esa "es la naturaleza del mundo en que vivimos". Esperamos que disfruten de este video sobre el universo según la mecánica cuántica.

Fenomenismo, fisicalismo, objetividad y el "Aufbau" de Carnap

Uno de los representantes principales del denominado "Círculo de Viena", Rudolf Carnap, varió famosamente su perspectiva acerca de cuáles son los elementos básicos que permiten constituir el conocimiento cientifico desde una perspectiva fenomenista (o fenomenalista) hacia un enfoque fisicalista.
El cambio de postura de Carnap obedece, según las crónicas, a la influencia que sobre él, y mediante largas discusiones, ejerció la postura de Otto Neurath.

¿Qué se discutía?

Como es sabido, alrededor de fines de los años 20 del siglo XX se constituyó un núcleo de pensadores (filósofos y científicos) en la ciudad de Viena en torno del profesor Moritz Shclick, que daría lugar a lo que en 1929 se definió de manera oficial como Círculo de Viena.
No hablaremos de las ideas del grupo de pensadores, sino de las de uno en particular, Rudolf Carnap, y de su propósito inicial.
Carnap publicó un libro que se conoce como "el Aufbau", La construcción lógica del mundo (1928), que es hoy una obra de referencia para comprender en gran medida las ideas del Círculo y la evolución de su propio pensamiento.


En el Aufbau Carnap se proponía realizar una justificación de todo nuestro conocimiento -que para él y sus colegas del círculo era el conocimiento científico- a partir de un análisis de conceptos y del modo en que se relacionan entre sí, que denominó "construcción" o "reconstrucción".
La idea subyacente es que nuestro conocimiento se expresa a través de conceptos, pero si bien podemos definir algunos conceptos a través de otros, existen algunos primitivos que no puede ser reducidos. Dicho de otro modo, el conocimiento todo puede ser justificado reduciéndolo o descomponiéndolo en sus elementos básicos que son conceptos que se refieren a la experiencia inmediata, a lo dado.
Aquí hay dos elementos importantes presentes: por un lado la idea de buscar una fundamentación del conocimiento a partir de los datos, lo dado inmediatamente a la conciencia percipiente, por decirlo así; y por otro la idea de que Carnap alude a conceptos y no a términos o palabras con significado.
Con respecto al primer punto, puede ser una manifestación del componente positivista de Carnap en el sentido de su confianza en la inmediatez de la experiencia como criterio para conocer lo real, el mundo empírico. Como la expresión "positivismo" es polisémica y se presta a errores conceptuales, no diremos en esta ocasión más que lo aclarado.
En cuanto a lo otro, lo que una semántica filosófica o una filosofía del lenguaje más actual llamaría términos Carnap lo denomina conceptos, y es por algo relacionado con lo anterior.
Para el joven Rudolf Carnap autor de La construcción lógica del mundo, probablemente bajo la influencia de Mach y Avenarius (también positivistas en el sentido mencionado) el conocimiento no era considerado como algo objetivo, al estilo del "mundo 3" de Popper, sino era el conocimiento que se presentaba como fiable por su inmediatez en la conciencia.
Podría decirse que el criterio de justificación estaba en el modo de obtener un dato, por lo que, una vez existente en la conciencia, no habría posibilidad de revisión ulterior.
El fenomenismo carnapiano consistía en considerar los conceptos elementales -aquellos que permitirían luego construir los demás- como contenidos de conciencia, como vivencias siempre en la mente de una persona, y no como una expresión lingüística objetiva o intersubjetiva.
La palabra fenomenismo o fenomenalismo proviene de "fenómeno" que es "lo que aparece", lo que se manifiesta, pero siempre dentro de la conciencia individual como contenido mental.
El fenomenismo que Carnap asume es, sin embargo, de carácter gestaltico, pues, a diferencia de sus antecesores en el tema (Russell por ejemplo), consideraba que las percepciones inmediatas de conciencia -percepciones, pensamientos, sentimientos- se constituyen en la mente siempre como totalidades organizadas que denominaba vivencias.
El cambio de postura se produjo porque el enfoque fenomenista no resultaba satisfactorio para explicar la objetividad del conocimiento, esto es, cómo un concepto científico, por ejemplo, es una descripción de algo que existe en el mundo independientemente de las mentes individuales.
Neurath entendía que la experiencia sensible, base del edificio de construcción del conocimiento para los empiristas lógicos, no debía entenderse como "lo dado" inmediatamente en la conciencia, sino como aquello que puede exteriorizarse para su control intersubjetivo.
Esto es, lo que ha de servir para fundar el conocimiento todo no puede ser subjetivo sino confirmable y público, y ello es lo que puede expresarse en el lenguaje.
En tanto un medio de objetivación del conocimiento -básico o construido a partir de los elementos básicos- el lenguaje permite una salida al problema que se le presentaba al Carnap del Aufbau al querer fundar el conocimiento objetivo mediante su reconstrucción racional partiendo de elementos básicos que no son públicos.
De este modo, entonces, Carnap abandona el fenomenismo en beneficio del fisicalismo, postura según la cual la experiencia inmediata objetivada y exteriorizada en el lenguaje es el elemento atómico o más simple de constitución del conocimiento que describe el comportamiento físico de los objetos del mundo.
En consecuencia, la objetividad del conocimiento del mundo físico externo a las mentes queda garantizada por el carácter intersubjetivo del lenguaje en tanto medio que permite la confirmación -uno de los conceptos centrales de la filosofía de la ciencia- más allá de lo que pueda ocurrir en una u otra mente.

Popper, Kuhn y la carga teórica de la observación


Karl Popper

Thomas Kuhn.

Para el filósofo de la ciencia Karl Popper el problema de la justificación de nuestro conocimiento del mundo -de las teorías empíricas- se convierte en el de la justificación de los enunciados básicos.

Ello responde a que una teoría empírica, en la medida que contiene afirmaciones con forma lógica universal, no se puede verificar, y como el filósofo vienés no hallaba justificada tampoco la inducción, rechazaba cualquier criterio de confirmación.

Por esto, el centro de la atención epistemológica reside en los enunciados básicos que pueden refutar por modus tollens una teoría o un complejo y vasto sistema teórico.

Presentada como "solución al problema de la base empírica" la respuesta que ofrece Popper es que un enunciado básico debe aceptarse por convención, que es una decisión racional de científicos con capacidad de evaluar críticamente argumentos y pruebas.

En esto se ve el racionalismo de Popper pero ¿por qué la observación no es suficiente para justificar un enunciado, precisamente, observacional?

Cabe aclarar que los enunciados que Popper denomina "básicos" no son cualquier enunciado de observación, pues excluye enunciados condicionales tales como "si hay un cuervo en el zoológico de Nueva York, entonces hay un cuervo negro en tal zoológico" en beneficio de aquellos cuya forma lógica es existencial singular; enunciados de "hay esto o aquello en tal o cual lugar", según las propias palabras del filósofo.

Pero para el filósofo falsacionista nunca la observación de una pared blanca es suficiente para establecer la verdad del enunciado "esa pared es blanca". Para afirmar esto Popper establece dos vías argumentativas: la denominada tesis de la diferencia categorial entre enuciado y observación y la tesis de la carga teórica de la observación que, si bien relacionadas, son en realidad diferentes.

La tesis de la diferencia de categoría consiste en llamar la atención sobre el hecho de que un enunciado científico es una expresión linguísitica, una oración descriptiva, en tanto que la observación es una vivencia, un contenido o estado mental de una mente individual, algo de naturaleza diferente.

La observación es incontrastable y única, no puede exteriorizarse de una mente, no puede ser juzgada objetivamente, en tanto que el lenguaje es público y objetivo, en el sentido de que es contrastable intersubjetivamente. El proferente o quien escribe el enunciado puede morir y allí quedará la oración para que las demás personas puedan discutir racionalmente sobre ella.

En consecuencia, la diferente categoría de contenidos mentales y oraciones expresadas en el lenguaje natural impide que unos justifiquen otras, en la visión popperiana.

Pero hay otro argumento tanto o más importante desde el punto de vista epistemológico, que es la denominada tesis de la carga teórica de la observación, que establece que toda observación es teórica.

No sostiene Popper que la observación sea "subjetiva" en el sentido de que pudiera existir un relativismo que impidiese conocer objetivamente. Afirma otra cosa: toda observación se realiza a partir del conocimiento teórico previo del observador, de un conjunto de teorías aceptadas que determinan que el acto de observar sea necesariamente una intepretación de cierta parte de la realidad realizada a partir de ese marco teórico.

El observador no es un papel en blanco en el que se refleje de una vez toda la realidad tal como es, con sus características observables, sus conceptos y sus singificados, no es un espejo, sino que cuando, por ejemplo, observamos un auto con personas abordo, necesariamente tenemos que poseer previamente el concepto de auto y el significado del mismo y toda una teoría acerca de qué es cómo funciona, de modo que entendamos, al verlo, que es un coche que se aleja y no otra cosa.

Además, poseemos conocimiento teórico que privilegiamos y contradice lo que podríamos concluir basándonos solamente en lo observado: sabemos que el auto que percibimos a lo lejos de cierto tamaño es en realidad más grande, sabemos que esa pequeña cabeza corresponde a una persona que lo conduce: en fin, mucha teoría previa.

Podría pensarse con algunas reservas que, en cierto sentido, Thomas Kuhn extiende o generaliza esta noción de la carga teórica de la observación pero hacia un tesis semática presente en su idea de inconmensurabilidad entre paradigmas.

Kuhn mantiene algo que se ha denominado tesis de la variación radical del significado. Nótese que es una tesis semántica de la que se sacan conclusiones antagónicas a las de Popper respecto de la posibilidad de conocimiento objetivo, al enmarcarse en teorías filosóficas sobre la ciencia muy diferentes.

Afirma Kuhn que el cambio de paradigma en una ciencia madura conlleva un cambio radical del singificado tanto de términos teóricos (aquellos que designan entidades y procesos inobservables postulados por las teorías) y de los términos observacionales (que designan algo que es más o menos directamente observable). Esto es, el significado de cada término está determinado por el paradigma y el científico normal no puede sustraerse a ello.

Esta visión de Kuhn es complementada con una tesis constructivista de raigambre kantiana según la cual las categorías paradigmáticas son constitutivas -en un sentido que nunca precisó demasiado- de la realidad fenoménica científica, algo que Popper rechazaba como filósofo realista.

Video: Historia de la Matemática, los comienzos en la antiguedad

Presentamos un interesante video de la historia de la matemática donde se abordan con gran interés e idoneidad los temas característicos de los origen de esta disciplina, así como algunas cuestiones de filosofía de la matemática asociadas a ellos. El video pertenece a un canal de historia y está excelentemente conducido por el profesor de matemáticas de la Universidad de Oxford Marcus du Sautoy. En esta primera parte se abordan los orígenes del pensamiento y el conocimiento matemático, desde la primitiva matemática de los egipcios, desarrollada a partir de problemas prácticos, con el conocimiento de algunos teoremas, la proporción o número aureo presente en algunas de las famosas pirámides, el conocimiento de las fracciones y el papiro de Rhind, también conocido como papiro de Ahmes.

Dos sentidos de "formal" respecto de un sistema axiomático

En el presente artículo meramente señalaremos una ambigüedad que suele presentarse cuando se habla del carácter formal de un sistema axiomático en filosofía de las ciencias formales y en filosofía de las matemáticas.

Y lo mismo con las nociones de "axioma" y "teorema".

La ambigüedad reside en dos diferentes sentidos de la palabra "formal" cuando se aplica a un sistema axiomático.

Se suele dividir a las ciencias (en una de las clasificaciones posibles) entre ciencias formales y ciencias fácticas, siendo las primeras aquellas caracterizadas por poseer un método denominado "demostrativo" y porque su objeto de estudio, aquello de lo que se ocupa, es de carácter abstracto, ideal o "formal": números (artimética), figuras geométricas (geometría pura) y formas de razonamiento (lógica), por ejemplo, en contraposición a los hechos o eventos ubicados espaciotemporalmente de los que se ocupan las ciencias empíricas.

En este primer sentido, el vocablo "formal" se refiere a teorías científicas cuyas afirmaciones son enunciados, o sea, oraciones que pretenden describir la realidad (una parte de ella) y que por tanto poseen valor de verdad (son verdaderas o falsas).

Dicho de otro modo, las oraciones de la lógica y de la matemática, por ejemplo, tienen categoría semántica y sus términos descriptivos (no lógicos) refieren.

Pero en un sistema axiomático formal el sentido de la expresión "formal" es diferente, pues sus términos no lógicos carecen de significado.

Los términos "primitivos" y "definidos" del sistema axiomático no poseen categoría semántica, son variables susceptibles de recibir infinitas interpretaciones pero que por sí mismas nada dicen.

Por ello, los axiomas y los teoremas de cualquier sistema axiomático formal no son enunciados (carecen de significado y de valor de verdad) sino fórmulas bien formadas.

Aquí, entonces se aprecia que cuando hablamos por ejemplo de "la axiomática de Peano" podemos estar refiriéndonos a dos cosas diferentes: a su aritmética axiomatizada (una teoría metamatemática con significado) o a su estructura axiomática subyacente.

Queremos decir que una "axiomática" o una "teoría axiomatizada" no es lo mismo que un sistema axiomático formal.

Veamos el punto. Cuando Peano dice en su primer axioma "cero es un número" allí las palabras "cero" y "número" son términos "primitivos" de su sistema metaaritmético, pero interpretados, con significado: "cero" significa lo que ordinariamente entendemos por cero y "número" tiene el significado que intuitivamente le damos a esa palabra.

Pero es posible tomar los cinco axiomas de Peano y considerarlos sin categoría semántica: en ese caso tenemos el sistema axiomático formal (en el segundo sentido señalado) de la aritmética axiomatizada por Peano.

Ambas cosas corresponden a dominios diferentes, pues si tomamos el término primitivo "número" como un término primitivo formal (en el sengundo sentido) no es más que un molde a la espera de ser rellenado con algún significado, y la fórmula que lo contiene nada dice.

Entonces puedo ofrecer otra interpretación de "número" por ejemplo queriendo decir conjunto y ahora estoy en otra teoría axiomatizada que ya no habla de números sino de conjuntos.

De lo que resulta haber considerado tres sistemas diferentes, dos con significado y otro de base común carente de él: el sistema axiomático formal (de la aritmética de Peano y de la supuesta teoría de conjuntos aludida).

Los mismos dos sentidos pueden hallarse en la expresión "axioma" (y en "teorema"): en el sistema de Peano la expresión tiene significado (el señalado), pero desafortunadamente la familiaridad con los significados usuales de las palabras y el hecho de que al matemático italiano no se le ocurriera usar otras palabras para diferenciar los sentidos suele mover a confusión.

Si Giuseppe Peano hubiese escrito "Pepe es un sese" y luego hubiese introducido definiciones, la cuestión no se prestaría a la ambigüedad que esbozamos en este "artículo".

Pues vemos, ahora utilizando otra palabra como término primitivo, que "sese" no es nada, es una variable, una mera expresión gráfica.

Y luego damos la interpretación que nos convenga: decimos "sese" significa número, significa conjunto o lo que fuera.

Luego, "pepe es un sese" no tiene significado alguno, no es una oración verdadera ni falsa sino, como señalamos, una fórmula, pero si otorgamos significado descriptivo a los términos "pepe" y "sese", entonces será un enunciado verdadero o falso.

Esto es exactamente lo mismo que ocurre con la expresión escrita "cero es un número": podemos ver en esta oración dos cosas diferentes.

Y similarmente con el conjunto de los cinco axiomas de Peano, o sea con todo el sistema de Peano y su carácter "formal", si lo entendemos como una teoría aritmética (que habla de números) axiomatizada o como un sistema axiomático formal.

La demostración de Euclides de que existen infinitos números primos

Euclides de Alejandría: demostración de que existen infinitos números primos
Euclides de Alejandría, famoso por elaborar el primer sistema deductivo bajo la forma de una teoría científica –la geometría expresada en su libro Elementos- fue quien además demostró que existen infinitos números primos.
Intentaremos brindar una explicación clara y para un público amplio de cómo Euclides demostró que hay infinitos números primos.

Existen números primos y números compuestos. Los números primos son los números naturales que sólo se pueden dividir exactamente por sí mismos y por la unidad, o sea por el número 1.
Por ejemplo, el 3 se puede dividir de manera exacta solo por 3 y por 1, así que califica como número primo.

Los números compuestos son aquellos números naturales que se pueden dividir exactamente por algún otro número natural, además del 1 y de sí mismos.
Todo número compuesto es producto de varios factores primos, o sea, es resultado de multiplicar varios números primos. Por ejemplo el número 165 es igual a 3 x 5 x 11; el 21= 3 x 7; el número 6 es producto de 2 x 3.
El número 1 no se considera primo ni compuesto en virtud de una convención.

Después en matemáticas existen otros tipos de números primos que no vienen al caso, como los números primos entre sí o primos relativos, que son aquellos números enteros que simultáneamente sólo pueden dividirse exactamente por 1 o por -1, aunque tomados individualmente puedan dividirse por más números (o sea no ser primos necesariamente). Por ejemplo el 8 y el 15, tomados aisladamente no son primos, pero sí lo son entre sí. Pues su máximo divisor común es el 1.

Euclides utilizó un método lógico, del que ya hablaremos, que se llama demostración por el absurdo para establecer que existen infinitos números primos, algo que hasta que él formuló este argumento no se sabía.

Demostrar algo es ofrecer un argumento que nos permita llegar a una afirmación a partir de otras con rigor deductivo.
Podemos pensar en brindar un razonamiento que permita, a partir de ciertas premisas verdaderas, llegar a una conclusión verdadera: precisamente aquello que se desea demostrar.
Esto es característico de lo que se denomina demostración directa, por ejemplo, el argumento “todos los hombres son mortales” y “Sócrates es hombre”, por lo tanto “Sócrates es mortal” garantiza que si las primeras afirmaciones (premisas) son verdaderas, también será verdadera la conclusión con toda certeza.

Pero existe una manera diferente de demostrar una cierta afirmación, que es la demostración por el absurdo. Consiste en partir de la hipótesis de que lo que queremos demostrar es verdadero, no como premisa del razonamiento sino como un supuesto, una conjetura. Se supone que si lo que queremos demostrar es verdadero (que existen infinitos números primos en el caso de Euclides), entonces si planteamos un argumento o razonamiento que incluya la negación de nuestra conjetura entre sus premisas se arribará a una contradicción.

Ello se basa en lo siguiente: en un razonamiento deductivo no se puede obtener nunca una conclusión falsa a partir de premisas verdaderas, y si se obtiene una contradicción al menos una de las premisas será falsa. Y si se sabe que las otras premisas no son falsas, la que introducimos para buscar obtener una contradicción será la falsa, y esa, recordemos, es la negación de la que queremos demostrar. Y si “no p” es falsa, “p” será verdadera y habremos logrado nuestro objetivo.

En el caso de la demostración de la existencia de infinitos números primos por parte de Euclides, si se plantea que “existe un número primo que es el mayor de todos” ello es la negación de que existen infinitos números primos, pues esto último significa que no hay un número primo, cualquiera que sea, que es el mayor de todos los números primos.

Eso fue lo que hizo el primer director del departamento de Matemáticas del Museum de Alejandría. Partió del supuesto de que había un número primo que era el mayor de todos los números primos, para buscar una contradicción realizando deducciones.

Veamos como lo hizo:

N= es el número primo mayor de todos.
Si hay un número primo que es el mayor, entonces debe haber un número que resulte de multiplicar todos los números primos, incluyendo N (no importa cuál es ese número, pero se deduce de la existencia de N que existe uno que es producto de todos los primos): Llamamos P a ese número.

P= el producto de todos los primos, el que resulta de multiplicar todos los números primos hasta el mayor de todos, N: (2 x 3 x 5 x 7 x 11 x 13…x N).
Como N es el número primo mayor, P es un número compuesto, ya que además resulta de multiplicar números primos, o sea, es divisible exactamente por sí mismo, por 1 y por otros números (cada uno de los primos).
A Euclides se le ocurrió, además pensar que si existe P existe P+1, un número, no importa cual, que es el que resulta de sumarle 1 a P. Llamamos a ese número K.

K= el número mayor en una unidad que el producto de todos los números primos, P. O sea K= P+1 esto es lo mismo que decir que K= (2 x 3 x 5 x 7 x 11 x 13…x N) + 1

Ahora pensemos en el número P.
P se puede dividir por cada uno de los números primos sucesivamente una cantidad exacta de veces (no importa cuantas veces), precisamente porque lo obtuvimos multiplicando todos los números primos. Si todos los primos fuesen 50 haríamos cincuenta divisiones exactas y nuestro resultado sería 1.
Pero, si pensamos ahora en dividir K por cada uno de estos números primos que integran el paréntesis, en todos los casos nos encontraremos con que no se lo puede dividir exactamente: siempre sobra una unidad (el +1 que diferencia a K de P).

Para hacerlo más intuitivo pensemos en un ejemplo: si el número primo mayor fuese 5 el número P sería 2 x 3 x 5= 30 y K= 31 Si intentamos dividir exactamente 31 por 2 no podemos (pues nos sobra 1) si intentamos dividirlo por 3 no podemos tampoco (también sobra 1) e igualmente con el 5, pues siempre nos sobra uno y K no se puede dividir exactamente por ninguno de los números primos.

¿Conclusión? K es un número primo, pues no se puede dividir por ningún primo. Pero K es un número mayor que N, que es el primo mayor de todos.
Por lo tanto, K es un número compuesto. Aquí surge la contradicción: suponer que existe un número primo mayor de todos obliga a reconocer que existe otro número, K, que es primo y no es primo.

O bien, suponer que existe un número primo mayor de todos obliga a reconocer que existe otro número primo que es mayor que el mayor de todos.

De lo que se deduce que la afirmación de que hay un número primo que es el mayor de todos es falsa (pues procedimos deductivamente y con las otras premisas verdaderas) y, por tanto, es verdadera su negación, la que sostiene que no hay un número primo que sea el mayor de todos, o sea, que hay infinitos números primos

Qué es la predicción científica

En las ciencias empíricas, una predicción se puede entender de dos maneras: como la operación o actividad de formular una descripción de un hecho desconocido o como la descripción misma, o sea el enunciado.

En ocasiones algunos filósofos y epistemólogos se refieren a la predicción científica -tal vez bajo la influencia de Hempel- como el razonamiento o argumento formulado para obtener una conclusión predictiva.

Pero por lo general la predicción se refiere a un enunciado, una oración descriptiva acerca de un suceso, mayormente de bajo nivel de generalidad.

Es característico de toda predicción científica que, al ser formulada como un enunciado, permanece como una conjetura su estatus cognitivo, o sea que es una hipótesis cuyo valor de verdad no conocemos todavía.

En consecuencia, es un error identificar la predicción con la descripción de un suceso futuro, pues no toda predicción se refiere al futuro.

Una predicción científica es una hipótesis, una conjetura que se formula a partir del conocimiento teórico -generalmente basado en leyes- que se posee en una cierta disciplina científica, por ello no es caprichosa ni una mera profecía.

Pero lo que diferencia una predicción científica de una profecía es que una predicción es un enunciado desconocido (en cuanto a su valor de verdad) que se formula a partir de otros conocidos, de manera condicional y justificada.

En esta definición no hay presente ningúna alusión al momento de la ocurrencia del hecho, si bien la predicción es realizada en algún momento por algún científico, pues se trata de un concepto epistemológico, cognitivo, y no metafísico.

Por ejemplo, si se parte de que todos los metales se dilatan cuando son calentados -una ley- y se toma una vara de metal para luego calentarla -las condiciones iniciales- se puede luego predecir "esta vara de metal se dilató".

Nótese que el hecho ya ha ocurrido, es pasado que se dilató, pero se trata de una auténtica predicción, un pasaje de lo conocido a lo desconocido, que luego deberá ser contrastado con la observación o el experimento (mediremos la vara para comparar el resultado de la medición con un valor anterior).

De manera que lo que siempre ocurre después de una predicción es la prueba o test de la predicción, y no el hecho.

Naturalmente, muchas predicciones se refieren a sucesos del futuro, pero también otras aluden a hechos del pasado (en el sentido de que se afirma algo cuyo valor de verdad no se conoce y en base a conocimiento teórico), y algunos autores denominan retrodicciones a algunas de ellas, aunque no por ello dejan de ser un tipo de predicción científica en el sentido especificado.

Similarmente, si decido alterar mi dieta regular con abundantes comidas calóricas, luego de un par de días, si no me he pesado, podré formular la predicción de que engordé.

De modo que, en tanto noción específicamente epistemológica una predicción es una hipótesis bien fundada, generalmente deducida de ciertos otros enunciados, que permanecerá como tal hasta que se haga una prueba o contrastación de la misma.

Licencia de Creative Commons
Qué es la predicción científica by http://epistemicos.blogspot.com/2010/01/que-es-la-prediccion-cientifica.html is licensed under a Creative Commons Atribución 3.0 Unported License.

¿Qué es "ceteris paribus"?

La cláusula "ceteris paribus" es un supuesto que se halla presente en el desarrollo de la ciencia.
Literalmente, ceteris paribus significa "todo lo demás permanenciendo igual", y quiere decir que una predicción científica se realiza bajo el supuesto general de que no habrá ningún factor perturbador que afecte el sistema al que se refiere. Otra manera de decir lo mismo es que las variables relevantes -condiciones necesarias y suficientes para la producción del fenomeno- han sido consideradas en el argumento predictivo.
De manera sencilla, pongo a calentar la pava y espero (o formulo un enunciado predictivo) que hervirá en 5 minutos. Esta predicción se formula "ceteris paribus".
Si no se cumple esta cláusula o supuesto, ello explicará que la predicción falle, por ejemplo, si alguien apaga la hornalla o introduce hielo en ella, etc.
Una variante de la cláusula ceteris paribus es la "ceteris absentibus", que se refiere a la ausencia de factores de perturbación y puede reducirse a la primera.
Respecto del el mundo, natural o social, tendemos -como señalaba David Hume- a creer que las cosas seguirán comportándose como hemos experimentado que ocurren, pero nunca podemos tener, cognitivamente hablando, certeza de que ello será así.

El mundo, de acuerdo con la idea de universo de la física cuántica actual, no parece ser determinista, pero aún si lo fuera, siempre hay que diferenciar entre lo real extralingüísitico y el lenguaje que se emplea para referirse a ello. En este sentido, cualquier teoría o argumento predictivo siempre supone una especie de identidad estructural entre el sistema real, en tanto aislado, y los factores relevantes del mismo considerados a través del lenguaje.
Una persona se comporta de un cierto modo, una institución centenaria parece que existirá siempre, un agente económico actúa de modo regular, el sol saldrá siempre. Pero el sol es una estrella, y las estrellas se extinguen. Vivimos y actuamos con este tipo de supuestos.
Cuando un científico se halla con un contraejemplo de una teoría, o un dato parece contradecir sus hipótesis, y entonces decide incorporar una hipótesis ad hoc para mantener su teoría, y de ese modo explicar la contraevidencia, ahora convertida en una consecuencia de la teoría, ha decidido también que la cláusula ceteris paribus resultó falsa.

Por ejemplo, ante la famosa anomalía del perihelio de Mercurio (una contraevidencia para la mecánica newtoniana) se propuso en cierto tiempo la presencia de un planeta que no había sido observado (hipótesis ad hoc). De este modo, se hizo compatible la teoría con la anomalía. Al hacerlo, también se asumió que, al no considerar el planeta ("Vulcano" tuvo efímeramente por nombre) en los cálculos fallidos, la cláusula ceteris paribus había sido falsa.

Sobre el "falsacionismo" de Popper y algunos errores comunes acerca del método de contrastar teorías

Intentaremos señalar sucintamente algunos errores comunes relativos a la filosofía de Popper, conocida popularmente como falsacionismo, tales como los que aparecen en Wikipedia en el artículo "falsacionismo", donde se señala por ejemplo que Popper admite la inducción, que posee un "método falsacionista" y que su criterio de demarcación es el falsacionismo, todo lo cual es muy equivocado.
Karl Popper se encargó de aclarar que nunca llamó a su método ni a su postura epistemológica "falsacionismo". Esta idea tiene en parte origen en la obra de Imre Lakatos, quien pretendió identificar diversos tipos de "falsacionismo" como una suerte de antecedentes de su propia posición a la que deniminó "falsacionismo sofisticado". Dentro de esa argumentación, Lakatos hizo mención, por ejemplo, de un "falsacionismo ingenuo" refiriéndose a las ideas de Popper. Es muy discutible la interpetación que Lakatos ofrece de Popper, ya que no es fiel a muchas de sus afirmaciones, como vimos en el caso de la
corroboración. Imre Lakatos fundamenta su interpretación acusando a Popper de ingenuo por sostener que ignoró que se puede eludir la refutación lógica por modus tollens realizando modificaciones en cualquier parte de una teoría (lo que se conoce como tesis Duhem-Quine), pero ello ya había sido advertido por Popper en 1934, en La Lógica de la Investigación Científica, donde recomendaba evitar las "estratagemas convencionalistas" tendientes a evitar considerar refutada una teoría.
En realidad, Popper llama a su postura filosófica de la ciencia RACIONALISMO CRITICO y a su método propuesto para las ciencias empíricas método crítico. El racionalismo crítico o método crítico tiene aspectos algo diferentes para las ciencias naturales de los correspondientes a las ciencias sociales. Pero para Popper lo importante es que una teoría incompatible con un enunciado ACEPTADO que describe un evento observable debe ser abandonada, pues se halla refutada en virtud del mencionado modus tollens de la lógica deductiva.

Para el caso de la ciencia natural, Karl Popper menciona su método a manera de propuesta metodológica.
Debemos aclarar respecto del método, que éste se refiere a cómo Popper entiende que deben actuar los científicos para favorecer el desarrollo del conocimiento. Y propone que las teorías deben ser contrastadas o sometidas a prueba (to test en inglés) intentando refutarlas. Pero como el resultado de tal intento puede ser favorable o contrario a la teoría (refutación o falsación) el método no es un método de falsación sino un método de testeo o de sometimiento a prueba como cualquier otro. Sirva ello para mostrar por qué no es adecuado, en el caso de la filosofía de la ciencia de Popper, hablar de método falsacionista o método de falsación, pues se confunde el procedimiento de testeo con uno de sus posibles resultados.

Hempel y las paradojas de la confirmación

Carl Hempel en sus estudios sobre la lógica de la confirmación se ocupó de analizar el problema de las paradojas de la confirmación, sobre las que concluyó que sólo tenían un carácter aparente, como veremos en un próximo posteo.
El interés de Hempel tiene origen en la influencia que recibió de las posturas inductivistas del empirismo lógico y del propio Carnap, y en las enormes dificultades y críticas que afrontaron en la historia de la filosofía de la ciencia las nociones de inducción y de confirmación, varias de ellas provenientes de la fuerte pluma de Karl Popper.
La noción de confirmación es un concepto epistemológico, lo que no debe perderse de vista nunca. Se refiere, en principio, al apoyo que la evidencia, o los datos, o las observaciones le otorgan a una hipótesis.
Sin embargo, para Hempel, la confirmación no es un concepto semántico referido a una relación entre objetos o entidades y oraciones, sino que es una relación entre enunciados, conforme con la visión clásica.
Hempel menciona que dada la ley empírica
(1) Todos los cuervos son negros
existen las siguientes proposiciones lógicamente equivalentes a ella:
(2) Ningún cuervo es no negro
(3) Todo no cuervo es no negro


El criterio de confirmación de Nicod y las críticas de Hempel

Hempel argumenta cuestionando lo que se conoce como el criterio de confirmación de Nicod.

Jean Nicod propuso que si un "hecho consiste en la presencia de B en un caso de A, es favorable a la ley 'A implica B' (ser cuervo implica ser negro, en el ejemplo); por el contrario, si consiste en la ausencia de B en un caso de A, es desfavorable a ella".
Este criterio se aplica a las hipótesis que se pueden formular con un condicional universal y se basa en las nociones elementales de confirmación y desconfirmación. Lo que ocurre, según hace notar Hempel, es que el criterio no ofrece ninguna regla para la confirmación de hipótesis existenciales ("existe vida orgánica en otras estrellas") ni para aquellas cuya formulación lógica requiere emplear cuantificadores universales y existenciales ("todo humano muere al cabo de un número finito de años después de su nacimiento").
Por otra parte, las afimaciones (1) y (3) son lógicamente equivalentes, poseen el mismo contenido pues son formulaciones diferentes de la misma hipótesis.

Ocurre que dado un objeto (a) que es un cuervo negro y otro (b) que no es un cuervo y no es negro, estos confirmarían una hipótesis pero serían neutrales respecto de otra.
Ante esta situación, Carl Hempel propone un requisito al que denomina Condición de Equivalencia: "todo lo que confirme o desconfirme a una de dos oraciones equivalentes también confirma o desconfirma a la otra".

Este requisito tiene el propósito de que el criterio de confirmación sea independiente de la manera como se formula la hipótesis.

Las paradojas de la confirmación

Hempel señala que en las hipótesis condicionales universales de una sola variable, como en el ejemplo "Todos los cuervos son negros" es razonable adoptar una estipulación, presente en el criterio de Nicod, y a la cual considera condición suficiente de la confirmación, según la cual "es perfectamente razonable calificar un objeto como confirmatorio de una hipótesis si satisface su antecedente y su consecuente".
Cuando se considera esta estipulación junto con la condición de equivalencia ocurre que (a) confirma (1), y (b) confirma (2). Pero como (1) y (3) son equivalentes, (b) también confirma (1). Así que hay que admitir que todo objeto que no sea negro ni sea cuervo confirma "todos los cuervos son negros".

Luego, señala Hempel, toda hoja verde, toda vaca amarilla, etc. se convierte en un elemento de juicio confirmatorio de dicha hipótesis.
Pero esto no es todo, estas dos oraciones, (1) y (3) son también equivalentes a una cuarta:
(4) Todo objeto que es o no es un cuervo, o no es un cuervo o es negro

Esta formulación, por tener un primer componente de carácter analítico ("un objeto x es o no es un cuervo") resulta confirmada por cualquier objeto que satisfaga el consecuente: "un objeto x o no es un cuervo o es negro", manteniendo la estipulación antes mencionada.

Por tanto, habrá que admitir que cualquier objeto que no es cuervo confirma que todos los cuervos son negros, (1), puesto que confirma su equivalente (4).
Del mismo modo, cualquier objeto negro habrá de confirmar (1) en virtud de la condición de equivalencia.
Estas son las famosas paradojas de la confirmación estudiadas por Hempel. Oportunamente analizaremos la manera como las abordó el propio autor y algunos otros aspectos relacionados con las mismas.