Probabilidad, predicción estadística y ciencias bio-fisico-matemáticas

Actualmente la mecánica cuántica, la teoría de probabilidades y de predicciones esta­dísticas sumada a la teoría de la relatividad de Einstein tienen implicaciones metafísicas y nos dan la posibilidad de entender el puente entre ciencia y lo que se puede entender como Dios, o el azar y el determinismo, la ciencia y la investigación dentro de la concepción pro­babilística y subjetiva. Aquí traigo el pensamiento de Jean Guitton en el libro “Dios y la ciencia” (1998), que se refiere a cómo una molécula orgánica de varios miles de átomos tiene alrededor de 1080 isómeros posibles; obviamente con iguales componentes físicos y diferentes propiedades físicas. Sin embargo, para el autor citado “según las dimensiones del universo (diámetro de 1028 cm.) y densidad crítica (un átomo de H por m²), tal y como conoce hoy el hombre; el número de átomos del vasto Universo conocido es muy inferior a 1080. ¡Ni todo el universo contiene materia suficiente para abarcar esos isómeros! Pero además, aunque el azar rastreara las posibilidades a la vertiginosa velocidad de 100.000 millones de isómeros por segundo, aun tardaría más de 3 x 1061 años en hacerlo, cuando al Universo se le calcula una edad de 15 x 109 años, que es muchísimo menos. Si el azar tuviera que constituir las mo­léculas precisas y necesarias y en el momento justo y en el lugar adecuado para asociarlas correctamente, las posibilidades serían verdaderamente ridículas(195).

Al tener en cuenta estos conceptos volvamos a Paul Davies y a cómo en su libro (196), explica la probabilidad matemática, referida a la molécula simple del ARN autorreplicante (teoría que propone como surgió la vida) y es de uno frente a 10 a la potencia 2 millones. Los científicos de hoy día se refieren a la extraordinaria complejidad de una simple bacteria (bastante mayor que una molécula de ARN); ¿cuál sería la probabilidad de que mil enzimas se unan ordenadamente para constituir una célula en una evolución de miles de millones de años? La respuesta es de 1 frente a 10 a la mil. Algunas células pueden llegar a tener alrededor de 2 mil enzimas y realizar más de mil reacciones químicas distintas a la vez. He ahí toda una complejidad para obtener la posibilidad de la vida y para encontrar la muerte o la destrucción, y así se comprende también cómo todo es más fácil y rápido; por ejemplo, se requiere de 9 meses de gestación para el nacimiento y un instante para que todo se detenga y llegue la muerte. De todo esto deducimos cuán compleja es el concepto del origen de la vida y cómo si bien está presente “el azar como una incógnita, una ignorancia, un desconocimiento de normas, reglas o leyes”; todo esto es otra posibilidad que se conecta con la probabilidad en la flecha del tiempo. Vida, inteligencia, consciencia, libertad, voluntad libre albedrío, todos tienen un propósito, un fin en el hombre y tienen su causa y de ahí, “el determinismo”. Aquí podemos caer en que “el universo es su propia causa y que el azar todo lo desconocido”.

Con respecto a los orígenes del universo y las teorías del mismo que se refieren a mate­ria, energía, tiempo, espacio y sus constantes con diferentes masas y cargas de las partículas tienen valores conocidos, más no bien explicados, algunos con sus leyes y otras sin ellas; sin embargo, todas sí con equilibrio dinámico, físico, psicológico y aun social, con una corres­pondencia móvil que tiende a una armonía dentro de la simetría y asimetría, en una expansión y contracción dentro de espacios curvos y limitados por otros espacios en donde operan los neutrinios, los electrones y los protones y antiprotones en millones de millones. Todo esto opera dentro de las leyes cósmicas y las conocidas por el hombre con las fuerzas gravitatorias, electromagnéticas y atómicas, con las nubes de gas en expansión y condensación, con inclu­sión de masas dentro de las masas y energías, con luz y sin ella en estados críticos con masas volumétricas cerca de la entropía cero, para luego llegar a una estructuración de la materia en supercúmulos, cúmulos, galaxias y a disposiciones, las cuales no están regidas solamente por el azar, sino por todas las fuerzas que operan en forma determinística para llegar a la vida conocida. Observemos que no todas las regiones del cosmos acumulan materia suficiente para llegar a ser estrellas. Cualquier desequilibrio o desviación de toda esta organización cósmica, podría haber condenado al universo a la nada. Lo que ocurre es que sí existen des­viaciones oscilatorias y por eso se presentan los “colapsos y los estados disipatorios” en que no hay materia o masa, sino vacíos como la nada o partículas subatómicas o “antimateria”, las cuales también limitan espacios; por lo tanto, la presencia de las estrellas y planetas cono­cidos o no es una transitoriedad. Unas y otras son oportunidades cósmicas que aparecen más allá y más acá del olvido y por ende de la consciencia del hombre. Así también el universo está determinado y construido para luego destruirse y así seguir el ciclo, (197).

Entonces ¿para qué estamos aquí ahora? La respuesta está explicitada en el hombre para pasar por este pequeño “tránsito universal que llamamos consciencia”. Aquí viene una pre­gunta ¿acaso tenemos que llegar a la nada para luego tener una capacidad creadora y salir de aquella a través de la materia, energía y luz? Para comprender todo este macro y micro universo tenemos que entender un poco la teoría ondulatoria cuántica. Adelantar o hacer conclusiones es entrar en el mundo de mayor incertidumbre o negar y caer en axiomas lógicos transitorios, y así creer que si conocemos y sabemos del “todo y la nada” implica caer en el campo de la omnisapiencia sin apoyos y evidencias científicas más cuando ésta no se ha en­contrado. D. Hilbert, G. Frege y B. Russell y Kurt Gödel trataron de encontrar con las mate­máticas explicaciones a múltiples incógnitas del universo y del hombre; encontraron también una imposibilidad en su intento debiendo aceptar que debían llegar a los principios de fe y cómo el lenguaje matemático no tenía conclusiones totales; por ejemplo, para Gödel en cualquier ciencia la ausencia de contradicción es indemostrable. Aquí llegamos a preguntar­nos y en ¿dónde se conecta toda esta ciencia con postulaciones teóricas con la física y con la mente (psiquis) del ser humano? La respuesta la podemos obtener a través de los estudios sobre el cerebro y la mente cuántica. Sin embargo, en estos momentos nos ocuparemos de la relación del azar, la filosofía, la predictibilidad, las ciencias naturales, las matemáticas y las comunicaciones para luego pasar al azar, al determinismo y la mecánica cuántica y llegar a la complejidad de los procesos mentales inconscientes en los que se incluyen una serie de misterios con respecto a la percepción, a la formación de la percepción, al pensamiento, a los conceptos y la consciencia en un continuo vital del ser humano.

De esto podemos concluir que existen conceptos del “azar intrínseco y extrínseco”, esen­cial o no. Desde el punto de vista intrínseco lo podemos asimilar a lo microscópico, a lo cuántico, a lo nanómico y así al principio de incertidumbre de Heisenberg, aceptándose el azar; este último aceptándolo aún con resignación, y así se realiza para escapar y no concluir cómo “no todo está determinado” incluso lo que pueda aparecer en la imagen de cada sujeto o en un fenómeno resultante de la transposición de muchos fenómenos cuánticos indetermi­nados.

Cuando hacemos alusión a la generación de “números pseudo aleatorios” y planteamos la resolución de problemas matemáticos antes inaccesibles por el cambio de modelos rigurosos, lo hicimos permitiéndonos aplicar los problemas de la ciencia y las matemáticas con méto­dos de algoritmo en la computación; o, en vez de utilizar un algoritmo que dé una solución optima, se cambió por distintos procedimientos posibles de elegir con más probabilidades o características de resolver; esto es una forma de acomodación para simular inclusive su­cesos aleatorios, en los que también aparecen números generados aleatorios. Con respecto a este punto se pronuncia PM. Jacovkis, en su trabajo “Computación, azar y determinismo” (2005): “Von Neumann fue el primero que realizó una simulación de este tipo pues necesi­taba calcular las consecuencias de un flujo de neutrones a través de un medio; conocía las probabilidades de que cada neutrón chocara con un átomo y en tal caso, las de que fuera ab­sorbido por el átomo dispersado o fisionara a este. Además, era más barato y seguro seguir las trayectorias de los neutrones en listas de computadora que hacer experimentos reales con ellos. Von Neumann imaginó un procedimiento para generar números que parecieran aleatorios: mediante un algoritmo matemático, y a partir de un número inicial que llamó semilla, definía tantos como necesitaba, en forma repetitiva (cada uno a partir del anterior), distribuidos uniformemente en cierto intervalo.

“Con series de números así generados, se pueden establecer otras que sigan distribucio­nes estadísticas no uniformes (normal, exponencial, de Poisson, etc.) ¿Qué significa que los números parezcan aleatorios? En los últimos setenta años, los estadísticos han ideado test que permiten determinar, con tanta confianza como se requiera (es decir con una probabili­dad de equivocarse todo lo pequeña que se necesite), si una serie es aleatoria. Si los números que produce el algoritmo de Von Neumann se someten a estos test, como si no hubiesen sido generados en forma determinística, y si la prueba no desmiente su hipotética aleatoriedad, se los considera aleatorios a todo efecto práctico (“Test estadísticos” y “La evaluación de los números pseudo-aleatorios”. Traigo estos conceptos y los de la física cuántica para adentrar­nos, algo más en la comprensión del fenómeno de la aleatoriedad (azar y determinismo).

En estos dos últimos párrafos y los conceptos enunciados anteriormente, podemos con­cluir que el azar, la aleatoriedad y el determinismo, los ejemplificamos con los números, los algoritmos, los modelos matemáticos, las pruebas estadísticas llevados a las computadoras para tratar de lograr una efectividad en los programas que simulan fenómenos aleatorios; todo esto con programas que conllevan ciertas propiedades de ordenación con el objeto de evitar subjetivismos inherentes a las elecciones o selectividades humanas y sus preferencias motivadas, todas ellas por tendencias inconscientes o subjetivismos específicos; en cambio, con la elección de un programa y sus distintas variables se pueden realizar cálculos sin obstá­culos y simulaciones aceptables. Dentro de este concepto se incluye ya una determinación para llegar a la probabilidad. Obsérvese que la aleatoriedad de estas series determi­nísticas se establece utilizando el criterio de aleatorio, (de azar), con posibilidades de probabilidad y de pruebas estadísticas. He aquí también como se incluye el criterio de falsación (198).

Una pregunta más ¿será que las máquinas, los computadores también se equivocan?, ¿cuántas veces lo hacen?, o ¿puede atribuirse a otras causas las equivocaciones?, ¿será que las computadoras representan toda la inteligencia construida por el hombre o que aparece inteli­gente por el tipo de respuestas exactas, utilizando modelos de simulación y las matemáticas?, ¿será que la máquina podrá reemplazar completamente al hombre, y la matemática puede ser aplicada en todas ocasiones?; la primera respuesta es negativa. Sin embargo, estas preguntas tienen su respuesta dentro de los límites de la complejidad del hombre y entre ellos el del “sistema de cerebro-mente” como sistema dinámico complejo lejos del equilibrio con estruc­turas disipativas, con organizaciones naturales y/o perturbaciones cuánticas. Estos sistemas a los que aludo (sistema nervioso central, periférico y neurovegetativo con sus funciones somáticas y psíquicas, adaptativas) tienen sus fluctuaciones y estabilidades, y su funciona­miento es oscilatorio dentro de la evolución natural e incluye los sistemas químico-eléctricos que contribuyen a la aparición de la vida. De esto se deduce hoy día (2011) que es una serie compleja, complementaria como los postularía Freud (199). Hoy día conocemos cómo todos los sistemas complejos se han llevado en la construcción de modelos matemáticos con dis­tintas variables y relaciones funcionales entre estas; sin embargo, existe una innumerable de variables en el hombre que se refieren a las posibilidades de la acción de la imaginación y de los sentimientos; además encontramos como ya se anota en otra parte, aún no es exacto, y, los fenómenos físicos y psíquicos están siempre en el juego de equilibrio y desequilibrio, con controles que no siempre operan y por lo tanto provocan errores y rectificaciones de los mismos además de la inestabilidad y la tendencia a la estabilidad cambiante, impredecible a la corta o a la larga, y a la vez, en forma dinámica que nos lleva al fin de toda esa organiza­ción vital. He aquí la imposibilidad de resolver todos los modelos de los sistemas de alta complejidad.


195 Francisco Javier, 2003 “Dios, Ciencia y Azar”, Mente abierta. www.menteabierta.org/html/articulos/ ar_diosciencia_y_azar.htm
196 Davies, P., (1990), “Chaos Frees the Universe”, New Scientist, 128, pp 48-51.
197 Op. cit., Davies, P., 1990
198 Karl Popper propone: para establecer si un enunciado es o no significativo, el “criterio de falsación”, que consiste en intentar hacer fracasar mediante experimentos las teorías científicas. Si se logra ese propósito, la teoría no es significativa y es preciso sustituirla por otra; si se resiste la prueba, se puede considerar como significativa, y lo será mientras no se consiga hacerla fracasar, (https://html.rincondelvago.com/fases-del-metodo-experimental.html), y “Lógica de la Investigación Científica”, (1971).
199 Recomiendo a los lectores revisar la obra del autor “Psicoanálisis y la Teoría de la Complejidad”, (2002) en especial capítulo XXIII (Similitudes y diferencias entre máquina y el hombre. Reflexiones para el Futuro), y “Cerebro-Mente” (El pensamiento cuántico), (2009).

DÉJANOS TU COMENTARIO

DÉJANOS TU COMENTARIO

Please enter your comment!