Karl Popper y los Conceptos de Sistemas Teóricos

Falso, verdadero, azar, determinismo, probabilidad y medición

DR. GUILLERMO SÁNCHEZ MEDINA

Conocemos cómo la ciencia ha evolucionado en todos sus conceptos para darles orden, y una organización metodológica científica; así llegamos al Siglo XIX, siglo XX y XXI con los descubrimientos de lo que se llaman las ciencias naturales y sociales y entre ellas la físi­ca, la química, la biología, la física ondulatoria, la sociología, la psicología, la economía y tantas otras que se ocupan del principio de causalidad o de los fenómenos o acontecimientos particulares y generales.

Así fue como se crearon los pensamientos provenientes de la lógica inductiva y deductiva las cuales se ocupan de la naturaleza desde la simple átomo hasta la partícula atómica y de esta a la cosmología, pasando por toda la escala natural para encontrar como ya se mencionó, los principios de causalidad y con ello la explicación de causa-efecto o la posibilidad de lo mismo para ubicarnos dentro de la realidad.

Fue así como se construyó una explicación causal y con ello se creó una posibilidad de predicción deducible.

Cuando nos referimos a la posibilidad, lo hacemos en el sentido del poder realizar todo un procedimiento con una regla metodológica en búsqueda de leyes universales dentro de siste­mas teóricos coherentes o lo que se denomina teorías explicativas, posiblemente verdaderas en las cuales se puedan describir propiedades estructurales del mundo o campo de que se trate y con una probabilidad pero sin certeza de que sean posiblemente verdaderas.

El positivismo

Fue así como se llegó a lo que se denomina “el positivismo” (ciencia positivista). El término de positivismo apareció con Saint Simón como “método exacto de la ciencia y su extensión a la filosofía” (171). En realidad existen dos formas históricas fundamentales del positivismo, el social de Saint-Simón, A. Comte, T. StuartMill, el otro es el positivismo evo­lucionista de Spencer el cual obviamente su base es la evolución de todas las ciencias. Las tesis fundamentales del positivismo son:

1. La ciencia es el único conocimiento posible con su método válido; 2. El método de la ciencia es descriptivo de los hechos y muestra las re­laciones constantes de los mismos (Comte, Spencer); 3. El método de la ciencia es el único válido y se extiende a todos los campos de la integración. Estas tesis fueron tomadas del Siglo XIX y discutidas especialmente en el Siglo XX llevándose inclusive a concebir el “positivis­mo jurídico” por Hans Kelser y el “positivismo lógico” de todos los científicos. (172); fue así como se llegó a la aparición de Karl Popper que en 1934 publicó en Viena la “Lógica de la Investigación Científica” (en Alemán: “Logik der for schung”) (173).

Teoría de la experien­cia

En la primera parte de la obra citada el autor Karl Popper, trae en la introducción la lógica de la ciencia, en la segunda algunos componentes estructurales de una teoría de la experien­cia (teorías, la falsabilidad, el problema de la base empírica, los grados de contrastabilidad, la sencillez, la probabilidad, algunas observaciones sobre la teoría cuántica, la corroboración, o de qué forma sale indemne de la contrastación una teoría).

Además pone siete apéndices y otra parte en donde aparecen 12 apéndices mas en que en los dos últimos aparece sobre: “el uso y abuso de experimentos imaginarios, especialmente en la teoría cuántica” y el último el experimento de Einstein, Podosky y Rosen, terminando con la carta de Albert Einstein en 1935.

En realidad me voy a referir a unos conceptos aparecidos en la obra de Popper; en primer lugar a los sistemas teóricos en los que aparecen las teorías científicas en perfecto cambio, no por casualidad sino por tener en cuenta las características de la ciencia empírica. Los sistemas teóricos para Popper deben tener siempre una revisión continua, a la vez que una forma rigurosa en su formulación y experimentación reuniendo todos los supuestos que lla­mamos “axiomas”, “postulados”, o “proposiciones primitivas”.

Los sistemas axiomáticos es­tán exentos de contradicción, en cambio los sistemas independientes no contienen axiomas. Aquí es necesario aclarar cómo “llamamos axiomas a un enunciado, si no es posible deducir del resto de sistemas; el otro sistema es el teórico suficiente para deducir todos los enuncia­ dos pertenecientes a la teoría de que se trata de axiomatizar” (Popper, 1971). El último es el sistema necesario, el cual no debe contener supuestos superfluos.

Conceptos admisibles e inadmi­sibles

A veces cuando se describen los axiomas se dicen que son definiciones explícitas de las ideas que se introducen con incógnitas o variables y con “conceptos admisibles e inadmi­sibles” por medio de lo que “podría llamarse una ecuación de enunciados, que se obtie­ne a partir de una función proposicional o función denunciada”.

A todos los sistemas de conceptos que satisfaga un sistema de axiomas, puede denominársele un modelo de dicho sistema de axioma”, a su vez la interpretación del sistema axiomático como un sistema de definiciones implícitas opera o admiten ser modelos. El autor Popper en un pie de página (174), distingue entre “sistemas de objetos que satisfacen los sistemas axiomáticos y el sistema de nombres de dichos objetos”; constituyéndose el primer sistema como un modelo.

Se pregunta a la vez: “¿cómo puede interpretarse un sistema axiomático como un sistema de hipótesis empíricas o científicas?”; la respuesta es que “deben tomarse como constantes extralógicas”; por ejemplo, “una línea recta y un punto aparecen en todo un sistema axiomá­tico de la geometría, y podía interpretarse como un rayo de luz e intersección de este mismo, respectivamente”.

El sistema de axioma se convierte en enunciado acerca de objetos empí­ricos para definir un concepto “haciéndole corresponder a ciertos objetos, pertenecientes al mundo real, y considerándolos como símbolos de tales objetos”. Dentro de esta secuencia de conceptos aparece cómo “en el curso de la evolución de una ciencia se explica un sistema de enunciados por medio de un sistema de hipótesis… que permite no solo la deducción de enunciados pertenecientes al primer enunciado, sino … los que pertenecen a otros sistemas” permitiéndose así “definir conceptos fundamentales empleados en antiguos sistemas”, (175).

Es así como se llega al concepto de inferencia y al de falsación, a las definiciones explíci­tas, a los conceptos no definidos y solamente enunciados; a la vez que estos tengan un nivel de universalidad, por ejemplo los de movimiento, posición, punto masa, punto cero (Ibídem). Con respecto a los criterios de falsabilidad hay que distinguir entre esta última y la falsación.
Una teoría está falsada si hemos aceptado enunciados básicos que la contradigan y ésta condición es necesaria… pero no suficiente, pues hemos visto que los acontecimientos ais­lados no reproducibles carecen de significación para la ciencia… y así … nos inducirán a desechar una teoría – por falsada-, unos pocos enunciados básicos esporádicos pero si es reproducible sería la prueba que corrobora la hipótesis empírica y podemos demostrar la hipótesis de falsación (176), la cual opera aquí en la relación lógica con respecto a los posi­bles enunciados básicos”.

Lo que si es necesario dentro de este sistema de falsación es la “ne­cesidad de reemplazar una hipótesis falsada por otra mejor. Pudiéndose encontrar que dos hipótesis difieren en dos aspectos y que utiliza tales diferencias para refutar una de ellas”. Entiéndase todo esto como reglas metodológicas para asentar enunciados básicos, formular hipótesis que puedan ser contrastadas y falsadas con efectos reproducibles o no.

De todo esto concluimos cómo hay un criterio de demarcación perteneciente a la lógica inductiva con significado y sentido con respecto a la verdad y a su falsedad para tener una forma lógica posible de verificación como de falsación. Un enunciado tendrá que ser suscepti­ble de verificación concluyente y “si no es posible determinar si un enunciado es verdadero, entonces carece enteramente de sentido, pues el sentido de un enunciado es el método de su verificación”. He ahí la falsabilidad como un criterio de demarcación, pero no de sentido.

Como ya se explicita en otra parte, los sistemas científicos o empíricos deben ser suceptible de ser sustentados por la experiencia por medio de pruebas, lo que implica de ser posible refutar por la experiencia el sistema científico empírico propuesto. 

Popper dentro de este contexto se refiere a cómo su “propia crítica del criterio inductivista de demarcación parece suscitar objeciones contra la falsabilidad como criterio de demarcación análogas a las que yo (Popper) he suscitado contra la verificabilidad” . “Su propuesta se basa en una asimetría entre la verificabilidad y la falsabilidad”; y, la asimetría se “deriva de la forma lógica de los enunciados universales”.

El autor citado hace la salvedad de que “siempre es posible encontrar una vía de escape de la falsación”, y, cómo “lo que caracteriza al método empírico es una manera de exponer a falsación el sistema que ha de contrastarse: justamente de todos los modos imaginables.
Su meta no es salvarle la vida a los sistemas insostenibles, sino por el contrario, elegir el que comparativamente sea más apto, sometiendo a todos a la más áspera lucha por la supervi­vencia”. Por lo tanto, la tesis fundamental del empirismo es la de que sólo la experiencia pue­de decidir acerca de la verdad o la falsedad de los enunciados científicos y hasta que cambie el o los paradigmas, (177).

Los conceptos de verdadero y falso pueden entrar en consideraciones lógicas y rela­cionarse con la deductibilidad y así llegar a una predicción verdadera no contradictoria sin obligarnos a decir que ciertos enunciados básicos son verdaderos o son falsos, pues podemos interpretar el resultado una decisión convencional; lo que no quiere decir que podamos utilizar indiscriminadamente verdadero y falso y no poder utilizar también los conceptos tautológicos, de contradicción, de conyunción, de implicación pudiendo ser estos conceptos empíricos y a la vez lógicos.

A su vez, los conceptos de verdadero y falso en su uso corriente no suelen enunciar que son completamente verdaderos ayer y hoy no, o falsos hoy y ma­ñana no. 

Puesto que si ayer era verdadero un enunciado y hoy es falso estamos afirmando implícitamente que ayer estábamos equivocados y que el enunciado falso de ayer lo tomamos por verdadero, debido a un error (178).

Por lo tanto, hay que corroborar los enunciados para encontrar lo falso y verdadero con instrumentos de algún sistema básico.

Así pues proponer “definir la verdad a través de la comprobación, corroboración, utilidad y confirmación” es algo pragmático y a la vez científico; sin embargo, no nos debemos parcializar en una sola cualidad, por ejemplo, el de ser útil puesto que un hecho puede ser útil en un momento dado y en otro no. Lo que si debe operar es el principio de corroboración, de falsación y verifica­ción.

Teoría de la verdad

Popper en su obra (179) trae la “teoría de la verdad” de Alfred Tarski como un gran des­cubrimiento en el campo de la lógica, desde la aparición de la obra: “Principia Matemática” (180).

La teoría de Tarski es semejante a la pensada por Aristóteles en la cual piensa casi todo el mundo y que “la verdad es la correspondencia de los hechos” o con la realidad, lo cual significa que corresponde lo enunciado con la realidad de tal manera satisface y cumple en forma formal y lógica los postulados o enunciados.

Para Tarski la verdad ha de basarse en una fórmula con un lenguaje con proposiciones o enunciados o “fórmulas con sentido”.

Popper mas adelante en la obra: en la parte 43 en el tema sobre “Sencillez y grado de falsabilidad”, (181), expone cómo:

“Mediante la idea de los grados de falsabilidad, es factible aclarar también la distinción… entre ley y azar; los enunciados probabilitarios acerca de su­cesiones que tienen características azarosas resultan ser de dimensión infinitas, no sencillos, sino complicados”.

Así llega el autor al capítulo 8 de la segunda parte, sobre la probabilidad antes de sumergirse en el problema de la teoría del azar y no sin antes pasar por la verdad y la falsedad, la verificación y la falsación de los hechos aconteceres que el científico se propone dilucidar en el principio de causalidad, el cual también es controvertido por la metafísica in­determinista.

Por lo tanto podemos quedarnos en el concepto determinista o indeterminista o alternándolos a la vez con sus tesis lógicas específicas y tener conclusiones determinísti­cas o indeterminísticas con sus hipótesis empíricas, algunas de las cuales son imposible de explicar causalmente; por ejemplo en las que se incluyen el principio de incertidumbre de Heisenberg en relación al principio de constancia de la velocidad de la luz.

Con respecto a lo probable dentro de este contexto, es el grado o medida de la posibilidad de aparecer una clase de acontecimiento, lo cual supone siempre una alternativa o elección posible:

Esto implica que aparece o no aparece el hecho o aparecen otros hechoshe aquí el significado del concepto que debe someterse no solamente a la lógica sino al cálculo matemático expresado en símbolos para tener cierto grado de confirmación.

Así entendemos distintas clases de probabilidad, la inductiva, la estadística, o frecuencia relativa con grado de probabilidad, la matemática demostrable por ecuaciones para llegar a un grado de creen­cia razonable en que de todas maneras participa lo subjetivo y lo objetivo en la posibilidad de presentarse los hechos singulares y colectivos; y, a todas estas aparece la probabilidad relacionada con lo aleatorio y el azar.

En la historia de la ciencia ha habido toda una serie de pensamientos y/o conceptos que se relacionan con la filosofía de la probabilidad para construirse así toda una teoría y un fundamento lógico.

El autor Karl Popper alude a la “relación entre probabilidad y experiencia”:

Para poder fundamentar el mismo cálculo de probabilidades y resolver el “problema de la decidibilidad (182) de los enunciados probabilitarios” y para ello se vale de los conceptos de verifica­ción, falsabilidad, relatividad, alternancia, frecuencia, continuidad y permanencia; así llega al problema de la teoría del azar y /o aleatoriedad caracterizados estos últimos por la “incalculabilidad e infructuosidad de la aplicación de los métodos racionales conocidos de predicción”; es así como escribe: “no es un científico quien podría predecir (los hechos) sino únicamente un profeta”.

Sin embargo, “la incalculabilidad … hace concluir que es posible aplicar a semejantes eventos el cálculo de probabilidades” aquí llegaríamos a una teoría sub­jetiva, y la tesis del cálculo de probabilidades no sería un método de calcular predicciones, sino “de llevar a cabo transformaciones lógicas de algo que ya conocíamos”; de tal manera “no se explica cómo puede contrastarse ni corroborarse un enunciado de ignorancia inter­pretando como enunciado frecuencial”.

Esto nos lleva a pensar que de lo ignorado no pode­mos sacar conclusiones y aún más la teoría frecuencial no ha sido capaz de dar una solución al problema fundamental del azar.

La teoría frecuencial que trae Popper es la de Richard Von Mises:

El cual se basa en el cálculo de probabilidades de eventos o acontecimientos azarosos o aleatorios colectivos y que dependen de la frecuencia relativa de la aparición de los hechos o eventos.

Dentro de esa secuencia de conceptos aparece el axioma de convergencia o axioma del límite, el cual se refiere a cómo y cuando los hechos convergen en un punto límite; por ejemplo, en la tirada de los dados cuando aparece con una frecuencia calculada el número cinco, lo cual supuesta­mente se aproxima a un límite que aparece en la sucesión de las tiradas de los dados, en parte en la constitución física de los dados, si es más usado de un lado tenderá a caer sobre él.

El ya citado Von Mises al formular el axioma de aleatoriedad lo hace con respecto a “selecciones o elecciones” independientes del resultado de las tiradas de los dados.

A todas estas, aquí es necesario hacer hincapié como en realidad se exige demasiado, no solo de las teorías empíricas sino de todos los métodos o sistemas teóricos, para hallar su eficiencia y para hacerlos suficientes y verídicos, libres de secuelas que permitan la demostración exacta. Es así como nos encontramos con el problema fundamental de la teoría del azar en donde aparece lo imprevisible e irregular en los acontecimientos singulares y la dificultad de llegar a la exactitud y reglas del cálculo de probabilidades válidas. 

Si bien podemos encontrarnos con la irregularidad y grado de aproximación, para asumir una hipótesis con una frecuencia y medida, se puede concluir que todo puede suceder en uno u otro momento aunque algu­nos eventos aparezcan con cierta regularidad o estabilidad haciendo el acontecer admisible y no contradictorio siempre y cuando esté presente lo regular o estable; para ello necesitamos recursos matemáticos y pasar de lo imprevisible a lo previsible o de la ignorancia al cono­cimiento, llegando a una hipótesis frecuencial pero siendo imposible explicar o llegar con éxito estadístico a lo ya mencionado predicción exacta y sólo conseguir una probabilística, gracias al grado de convergencia, volviéndose éste un axioma unido a lo irregular o aleato­rio, lo cual configura el axioma de la aleatoriedad.

Más adelante en el ítem 69, pag191, trae el título “Ley y Azar” argumentando cómo los movimientos de los planetas obedecen a leyes rigurosas, mientras que la tirada de un dado está sujeta al azar; la diferencia reside en el hecho de que hasta ahora hemos sido capaces de predecir con éxito aquellos movimientos, pero no los resultados individuales” de las acciones producidas por el hombre.

De tal forma las predicciones necesitarían leyes apro­piadas y condiciones iniciales conocidas para poder predecir. Entre las condiciones estarían mediciones precisas para manejar el dado en la mano y lanzarlo con el mismo movimiento, en la misma forma y con un marco de referencia exacto y no cambiable.

Hasta el momento no ha sido posible formular ninguna ley adecuada y se ha fracasado en todas las tentativas. “si embargo, en ningún caso podemos decir definitivamente que no hay leyes en un campo deter­minado y esto es una consecuencia de la imposibilidad de verificación”, “lo cual quiere decir que mi tesis- escribe Popper- convierte en subjetivo el concepto del azar (lo que no quiere decir que haga aquí ninguna concesión a una interpretación subjetiva de la probabilidad, del desorden y de la aleatoriedad)”, (Op. cit.).

(Lea También: Azar, Incertidumbre y Cálculo de Probabilidades)

“Hablo de ‘azar’ cuando lo que sabemos (en el momento actual) no es suficiente para predecir… no sabemos cuáles son las condiciones iniciales (cabe concebir que un físico equipado con buenos instrumentos pueda predecir una tirada de dados que otras personas no pueden…los eventos están o no determinados en sí mismos (183).

Si  nuestras predicción tiene éxitos podemos hablar de leyes y por lo demás no podemos saber acerca de la existencia o inexistencia de leyes o irregularidades”…; “encontramos el azar en sentido objetivo… cuando nuestras estimaciones probabilitarias resultan confirmadas del mismo modo que encontramos regularidades causales cuando las predicciones que deducimos de leyes vienen a corroborarse”; “… debería hacerse resaltar… que el concepto… definido no se opone a la ley; y ésta es la razón porque he llamado azarosas [chance-like (en in­glés) parecidas al azar o como del azar] a las sucesiones probabilísticas”.

“En cuanto a si existen sucesiones azarosas cuyos elementos no sean predecibles de ninguna forma, es algo que ignoro. De tal hecho de que una sucesión sea azarosa no podemos siquiera inferir que sus elementos no puedan predecirse, ni que sean ‘debidos al azar’ en el sentido subjetivo de conocimiento insuficiente; y me­nos que nada cabe inferir de tal hecho el hecho ‘objetivo’ de que no existan leyes”.

“No podemos repetir jamás con precisión un experimento: lo más que podemos hacer es mantener constantes ciertas condiciones y dentro de ciertos límites. Por tanto, el que determinados aspectos de nuestros resultados se repitan, mientras que otros varíen irregularmente, no constituye un ar­gumento a favor de que lo objetivo sea fortuito, del azar, o de la ausencia de leyes; especialmente, si el experimento está ideado (como en el caso de tirar una perra chica [llamada pirinola] dando vueltas) para que las condiciones varíen.

En cuanto a esto, sigo estando de acuerdo con lo que en­tonces decía, pero puede haber otros argumentos a favor de lo objetivamente fortuito: y uno de ellos, debido a Alfred Landé (la ‘cuchilla de Landé’) tiene gran trascendencia a este respecto…”. (184).

De lo expuesto anteriormente con respecto al pensamiento poperiano deducimos que los eventos pueden ser individuales o colectivos, predecibles e impredecibles y no es posible inferir ninguna ley a partir del carácter de azar para llegar a la conformidad o disconformi­dad y a la ley o a la ausencia de las mismas, mas cuando en todos los eventos observamos cómo no deben explicarse en forma macro eventos, con valores medios o acumulaciones de micro eventos, más sí se trata de poder simplificar, unificar teorías empleando hipótesis explicativas con comprobación estadística o no; además es factible hacer estimaciones fre­cuenciales y llegar a hipótesis independientes.

Escribe Popper: “Las estimaciones estadísticas no pueden nunca deducirse simplemente de leyes de tipo determinístico, por la sencilla razón de que para deducir predicción alguna de tales leyes, se necesitan condiciones iniciales…; en toda deducción en que se obtienen leyes estadísticas a partir de micro suposiciones de carácter determinístico o ‘preciso’ entran suposiciones acerca de la distribución estadística de las condiciones iniciales… esto es asun­ciones estadísticas específicas”.

Aquí téngase en cuenta además que las conclusiones proba­bilísticas necesitan premisas probabilísticas. Popper en este momento trae un pensamiento de Einstein que se refería a cómo “en una interpretación subjetiva de la probabilidad y en un principio de indiferencia (que en la teoría subjetiva parece como si no fuese un supuesto de equiprobabilidad); mucho mas tarde adoptó al menos provisionalmente una interpretación frecuencial de la teoría cuántica” (185), (pero nunca la aceptó totalmente).

En 1935 Popper escribe a Albert Einstein e incluye el trabajo no publicado sobre las probabilidades subjetivas con conjeturas sobre la equidistribución a menudo no muy cons­cientes, pero si con premisas probabilísticas. Popper en el apéndice 12 escribe: “Los alba­ceas literarios de Einstein pedían que si se había de publicar una traducción de la carta se publicase a la vez el texto original: ello me ha sugerido la idea de reproducir la carta de Einstein tal como aparece de su puño y letra”, (K. Popper, 1971). Traigo este hecho pues en este texto no se reproduce toda la carta de Einstein sino alguna parte de ella, otras aparecen en el capítulo anterior cuando nos referimos al conocimiento, ignorancia, lo subjetivo y lo objetivo en la investigación.

Einstein escribe en su carta de los párrafos 3 al 5:

“De un modo general, no me agrada todo el aferrarse ‘positivista’ a lo observable, que ahora está de moda. Me parece una cosa trivial que no se pueda pronosticar en el campo de lo atómico con una precisión arbitraria, y pienso (como usted, por lo demás) que no se puede fabricar la teoría a partir de resultados de observación, sino sólo inventarla”.

Aquí Einstein se refiere al trabajo escrito con Rosen y Podolsky:

Cabe preguntarse si, desde el punto de vista de la teoría cuántica actual, el carácter estadístico de nuestros resul­tados experimentales es meramente efecto de una intervención desde el exterior –incluyendo la medición-, mientras que los sistemas como tales –descritos por una función ψ- se conducen en sí mismos de un modo determinista. Heisenberg coquetea [liebäugelt] con semejante in­terpretación, sin adoptarla de una forma consecuente.

Pero puede preguntarse también: ¿no hemos de interpretar la función ψ, que en cuanto al tiempo cambia – según la ecuación de Schrödinger- de un modo determinista, como una descripción completa de la realidad física, y, con ello, que la intervención desde el exterior (insuficientemente conocida) sea totalmente responsable de que las prognosis tengan solamente un carácter estadístico?. Llegamos al resultado de que no puede interpretarse la función ψ como una descripción completa del estado físico de un sistema”.

“… un sistema compuesto, que consta de los sistemas parciales A y B,… se encuentran en interacción mutua sólo durante un tiempo limitado.

“… la función ψ del sistema compuesto antes de la interacción (por ejemplo, un choque entre dos par­tículas libres); entonces la ecuación de Schrödinger nos da la función ψ del sistema compuesto después de aquélla”,… “… llevará a cabo sobre el sistema parcial A una medición (lo más acabada posible [vollstän­dige]), que, sin embargo, es posible realizar de modos diversos, según las variables a conocer (186) (con precisión)… el impulso o la coordinada espacial-. La mecánica cuántica nos da entonces la función ψ para el sistema parcial B que será en cada caso distinta según la elección hecha de la medición a ejecutar sobre A”.

De estos textos “einstenianos” es posible concluir cómo no es factible interpretarse ma­temáticamente la función ψ-ecuación de Schrödinger, como algo completo del estado físico del sistema; pues los sistemas interactúan solo durante un tiempo y la medición es posible según las variables, lo que significa que la función será distinta según la medición.

170 Los textos conceptuales de Karl Popper son útiles como soportes o apoyos de justificación teórica a mi propuesta sobre la relación entre azar y determinismo para llegar a la conceptualización del “azar determi­nista”.

171 Op. cit., N. Abbagnano, 1997, pag. 936

172 Op. cit., N. Abbagnano, 1997, pág.937

173 Esta obra fue traducida al español y su primera edición fue en el año 1962, es decir 24 años después de su primera publicación. La edición consultada es la que corresponde a la segunda reimpresión en 1971, Editorial Tecnos, Madrid-España.

174 Op. cit. K. Popper, 1971 pág. 71

175 Op. cit. K. Popper, 1971

176 La negrilla es mía. La bastardilla entre comillas corresponde a textos citados.

177 Op. cit. K. Popper, 1971, pág. 46

178 Adolfo De Francisco Zea comenta: “lo ‘no completamente verdadero’ me hace recordar la plegaria que se encuentra en San Marcos: ‘ayúdame a superar mi incredulidad’, en el sentido de aumentarse la posibilidad de creer en la verdad”.

179 ítem 84, p. 255.

180 Principia mathematica es un conjunto de tres libros con las bases de la matemática escritos por Bertrand Russell y Alfred North Whitehead publicados entre 1910 y 1913.

Este trabajo constituye un intento de derivar la mayor parte de los conocimientos matemáticos de la época a partir de un conjunto de principios o axiomas. La principal motivación para esta obra provenía del trabajo anterior de Gottlob Frege en lógica que contenía inconsistencias (en particular la paradoja de Russell).

Éstas eran evitadas en los Principia construyendo una elaborada teoría de tipos. Los Principia contenían teoría de conjuntos, números cardinales, números ordinales y números reales. Aun­que no estaban incluidos otros teoremas más profundos del análisis de números reales, parecía que efectiva­mente todas las matemáticas podían ser derivadas adoptando el mismo formalismo.

Quedaba todavía saber si se podían encontrar contradicciones derivadas de los axiomas en los que se basaban los Principia y si, por lo tanto, existían afirmaciones matemáticas que no podían ser probadas o demostradas falsas en este sistema. Esta cuestión fue resuelta por Kurt Gödel en 1931.

El teorema de incompletitud de Gödel establece que incluso la aritmética básica no puede demostrar su propia consistencia, de modo que es imposible demostrar la consistencia de ningún sistema matemático más complejo.

181 Ibídem pág. 132-133

182 Capacidad o posibilidad de decirse.

183 La negrilla es mía

184 Op. cit., K., Popper, pág. 193

185 Op. cit. K. Popper, p. 194

186 La negrilla es mía

CLIC AQUÍ Y DÉJANOS TU COMENTARIO

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *