martes, 10 de enero de 2012

32- Entropía y estructuras





32-ENTROPÍA Y ESTRUCTURAS

õ

            "Ninguna especulación, ningún saber ha afirmado jamás la equivalencia entre lo que se hace y se deshace, entre una planta que brota, florece y muere, y una planta que resucita, rejuvenece y vuelve a su semilla primitiva, entre un hombre que madura y aprende y un hombre que poco a poco se hace niño, después embrión, después célula. Sin embargo, desde su origen, la dinámica, la teoría física que se identifica con el triunfo mismo de la ciencia, implicaba esta negación radical del tiempo."

Ilya Prigogine e Isabelle Stengers


                   Que el universo se presente en formas de estructuras muy diversificadas, resulta tan habitual, que parece algo fácil, sencillo y natural. Sin embargo, que después de muchos eones sin que fuera posible, se llegasen a juntar elementos y surgieran moléculas, se reunieran moléculas originando cadenas, se alineasen cadenas dando lugar a estructuras y se acoplasen o encajasen estructuras produciendo células vivas, es seguramente el ejemplo de una de las mayores labores organizativas que se puedan imaginar. Muchísimo más importante que cualesquiera de las que el hombre pudiera lograr, auxiliado por su ciencia, su tecnología y sus ordenadores.
                   Esa labor que parece rutinaria y repetitiva, a pesar de su grandiosidad, se realiza sin parar en la Tierra y seguramente en muchos otros planetas de remotos sistemas solares. Precisamente eso tiene su fundamento, y es el de la forma como el universo se comporta.
                   Una de las principales características del universo que nos alberga es que camina hacia una forma inerte de materia térmicamente muerta. Poco a poco (en una escala de miles de millones de años) va hacia su degradación energética absoluta. La segunda ley de la termodinámica dice que la entropía, o sea, el desorden, crece en todos los puntos del universo. Pero, el desorden es algo muy especial (en palabras de Schrödinger), ya "que en parte se refiere al del movimiento térmico y en parte al que se deriva de la mezcla aleatoria de diferentes átomos y moléculas". Según eso, todos los átomos y moléculas que se mueven en el cosmos, evolucionan hacia el estado de una estabilidad última. Las cosas están orientadas inexorablemente hacia el desorden, que para todos los átomos y moléculas del universo constituyen la estabilidad final. El expresar la entropía como desorden tiene un inconveniente y reside en que cuando se utilizan ambos términos como sinónimos, la palabra desorden se emplea técnicamente y con un significado diferente del que tiene en el lenguaje normal. Así, por ejemplo, cuando crece un cristal en un medio líquido y surge una estructura que estaba ausente antes de que se iniciara el proceso de cristalización, aumenta la entropía del sistema. El que aparezca una estructura no significa que, en conjunto, haya un aumento de orden, a pesar de que en el lenguaje normal la aparición de una estructura, equivale a la construcción de un orden. Es cierto que hay una disminución de entropía en el cristal, pero está compensada con creces por el aumento de entropía en el líquido, e incluso en el sistema que comprende al líquido y al propio cristal. Seguramente que si se definiera la entropía como lo opuesto al desequilibrio, en lugar de identificarla con el desorden como habitualmente hacemos, se eliminarían algunas confusas ambigüedades entre los no científicos.
                   Ludwig Boltzmann, físico austriaco (1844-1906) fundador de la termodinámica estadística, fue uno de los primeros científicos que especularon profundamente sobre cómo podrían ser aplicadas las leyes estadísticas para explicar por qué nuestro universo está tan altamente organizado, es decir, tiene aparentemente tan baja entropía. Esta cuestión no había preocupado ni poco ni mucho a anteriores científicos. Para Galileo, Kepler, Newton o Leibniz, el mundo era así porque Dios lo había construido matemáticamente de manera expresa, total y definitiva. El tiempo, para ellos, era reversible, más que nada, porque no había forma de saber en que dirección fluía. En realidad, ni siquiera sabían que lo hacía. Pasado y futuro, para ellos y sus contemporáneos, significaban la misma cosa. Tenían, en consecuencia, una idea puramente mecanicista de los acontecimientos del universo. Si este mundo estaba regido por unas leyes inmutables y eternas, no podían imaginar que él mismo, estuviera deteriorándose tal como pensaban algunos filósofos del Renacimiento y la Reforma. Era verdad que la creación de Dios acabaría en algún momento siendo destruida, pero era previsible que todo siguiera fundamentalmente igual hasta el aciago día final. El mismo principio de conceptualización de la dinámica, consagraba esa creencia, al ser enunciado por Leibniz el principio de razón suficiente, que, a su vez, implicaba la equivalencia entre causa y efecto y la reversibilidad de las relaciones entre lo que se crea y lo que se pierde.
                   Sin embargo, Boltzmann ya vivió en una época en la que científicos y filósofos  empezaban a concebir la cosmología en términos evolutivos, impulsados sobre todo por los hallazgos de otro importante coetáneo, Darwin. Éste había modificado el objeto de la biología y había mostrado que cuando se investigan las poblaciones vivas y su historia, y no la de los individuos componentes, es posible comprender cómo la variabilidad de los individuos (variaciones muy pequeñas) implicada en la selección, da lugar a una deriva de las especies, generándose una transformación que, a una escala de tiempo muy larga, da cuenta de la aparición de especies adaptadas a su entorno de modos cada vez más diversificados y complejos. De análoga manera, Boltzmann trató de demostrar, en un principio, que en numerosas poblaciones de partículas, el efecto de las colisiones puede darnos una cierta idea de la irreversibilidad termodinámica, o lo que es lo mismo, un sentido al crecimiento de la entropía. Si se quería comprender el universo, habría que considerarlo en términos históricos, sobreentendiendo, que la irreversibilidad definida por el segundo principio, tenía así una importancia capital. El punto de partida de su concepción fue un sistema de moléculas gaseosas moviéndose al azar en el interior de un imaginario recipiente cerrado. A semejanza de este modelo, en el universo debían operar leyes de la entropía, que en algunos lugares de ese océano de partículas hicieron surgir por medios naturales regiones relativamente pequeñas, del tamaño de nuestra galaxia, regiones estructuradas que podríamos llamar mundos, desviadas significativamente del equilibrio térmico durante intervalos de tiempo relativamente cortos, como chispazos, en la sucesión interminable de los eones.
                   El modelo así construido trataba de dar una interpretación microscópica de la irreversibilidad, o de la evolución del conjunto de partículas hacia un estado de equilibrio. La progresiva desaparición de cualquier diferencia inicial entre las partículas, o lo que es lo mismo, la eliminación de cualquier desviación respecto de la distribución estadística del equilibrio, vendría ocasionada por el sencillo mecanismo de las colisiones entre las partículas. Y de tal hecho se deriva, ciertamente, una irreversibilidad. La irreversibilidad termodinámica, que desplegada en el paso del tiempo, implica la imposibilidad práctica de retroceder (y reconstruir un estado anterior) que tienen las moléculas del universo al pasar espontáneamente del orden al desorden. La tendencia de la entropía, pues, a incrementarse permite introducir en la física el concepto de la irreversibilidad del tiempo.
                   El tiempo fluye, transcurre o pasa en la dirección en la cual la entropía aumenta, y eso está relacionado a su vez, con la dirección que siguen los fenómenos. Si observamos más detenidamente, cómo hacía Boltzmann, lo que ocurre dentro del imaginario recipiente, vemos que las moléculas se mueven en una especie de danza caótica. El estado global es el de la máxima entropía, pero aún así, conforme nos fijemos escrupulosamente, vemos que sucede algo tan sorprendente como encomiable. Aquí y allá se forman pequeños reductos, o mundos efímeros donde la entropía decrece momentáneamente y después vuelve a aumentar. Al principio se ponen de manifiesto gran cantidad de estas pequeñas y evanescentes áreas, donde las moléculas se aprietan más de lo corriente. Si contemplamos durante un tiempo (como es un experimento imaginario, pasamos por alto el hecho de que el tiempo suficiente puede requerir el transcurso de miles de años) el panorama microcosmogónico, podríamos llegar a ver teóricamente porciones (mundos más grandes) de orden mayores y más duraderas. Esto no supondría ninguna incongruencia con la degradación del sistema en su conjunto, sino que sería perfectamente compatible con el. Además, las excepciones locales vendrían a ser de suma importancia en cualquier concepción cosmológica, ya que constituyen lo que se ha dado en llamar las fluctuaciones estadísticas de un sistema.
                   Sin embargo, de todo ello, Boltzmann realiza una interpretación probabilista referida a la irreversibilidad que, sin ninguna duda, podemos observar pero que a él le sirve para hacer hincapié en el carácter groseramente macroscópico de nuestras observaciones. Alega, que si se pudiera seguir el movimiento de cada molécula se describiría un sistema reversible y aunque tiene fuertes sospechas de que esto es irrealizable, razona siguiendo la tradición y mantiene que, "en el seno del universo en su conjunto, no se pueden distinguir las dos direcciones del tiempo, de la misma manera que en el espacio no hay arriba ni abajo". Así que, muy a su pesar, considera que la irreversibilidad de los procesos que observamos a nuestro alrededor, remite a un estado de hecho: el mundo no es uniforme y no está en su estado más probable. La posibilidad de definir una diferencia entre el antes y el después es simplemente una consecuencia de una anomalía "local", del hecho de que vivimos en un mundo sumamente improbable.
                   Su razonamiento era el siguiente: En el universo que, en conjunto, está en equilibrio térmico y, por consiguiente, muerto, sería normal encontrar aquí y allá regiones relativamente pequeñas, por ejemplo, del tamaño de la Vía Láctea, que aún desviándose significativamente del equilibrio térmico durante intervalos cortos de tiempo, carecerían de la suficiente entidad como para cambiar el modelo dinámico tradicional. En fin, una verdadera lástima de declaración, máxime si tenemos en cuenta que el mismo Boltzmann había reprochado ya al fenomenismo (aunque en sus escritos de mecánica y termodinámica no menciona más que a físicos, es la "estética trascendental" kantiana, heredera de la tradición dinámica la que resulta señalada) su cortedad de miras: "el fenomenismo ha creído representar la naturaleza sin ir más allá de la experiencia, y creo que ha caído en una gran ilusión. Ninguna ecuación puede traducir un proceso de una manera totalmente precisa, ya que siempre se idealiza, subrayando lo común y eliminando las diferencias; por eso siempre van más allá de la experiencia".
                   En consecuencia, la evolución generada por las colisiones sólo es considerada irreversible en apariencia, y si  se partiese de un estado inicial diferente, debería poder recrearse, lo que las colisiones puestas en juego por Boltzmann, destruyeron previamente. Como decimos, su tentativa de dar cuenta en términos dinámicos de la asimetría temporal de los procesos termodinámicos, se vio frustrada por el choque con el principio de razón suficiente, de Leibniz, aplicado a la construcción de lenguajes dinámicos. Su análisis, al revés que a Darwin (quién superó limpiamente y con fuerza las tesis limitativas del pasado), le obligó a concluir que, en último término, no se puede atribuir ningún privilegio a las evoluciones que hacen crecer la entropía. Las nociones de causas plenas y efectos totales propugnadas por el principio mencionado, si se asumen con todas las consecuencias, parece como si permitieran asegurar que a cada evolución dinámica en el sentido que lleva a un crecimiento de la entropía, se le puede hacer corresponder una evolución que restauraría las causas remontando la cascada de efectos. El racionalismo medieval y renacentista (e incluso actual), que deja escaso o nulo margen a las consideraciones de matiz empírico, admite en cambio, que el principio de causalidad es analítico y debe enunciarse bajo la forma del principio de razón suficiente. Nada sucede sin una razón suficiente, clamaba Leibniz. Por eso, las causas plenas y los efectos totales se subordinan a una razón que prescribe cual es el grado de coincidencia entre razón y realidad. Se identifica el estatus ontológico propio del principio de causación, con el procedimiento epistemológico propio de la indagación racional. Como ya hace tiempo que se constató que es un error identificar la realidad material con una reconstrucción en el pensamiento, y mucho más, hacerlos coincidir como paso previo a toda experimentación, las causas plenas y los efectos totales (con la equivalencia que presuponen) carecen de interés para los físicos o cualesquiera otras personas cuyo conocimiento del mundo requiere fundamentalmente de medidas y observaciones expresadas mediante vínculos numéricos u otro tipo de comprobaciones mensurables; es decir, que solo se refieren a causas y no a razones, más que nada, por lo que éstas últimas tienen de opinables.
                   Así pues, todo funcionaba "razonablemente" bien en los sistemas ideales y cerrados de moléculas gaseosas que mencionamos. Por eso, Boltzmann doblegado, escogió la fidelidad a la tradición dinámica de no hay nada nuevo bajo el sol, a pesar de que intuyó con fuerza el carácter evolutivo del mundo. Su elección nos remite a la propia historia de la física en el seno de nuestra cultura, que ha estado inseparablemente unida, en muchos casos, a los influjos ideológicos predominantes sin poder adoptar una postura autónoma.
                   El universo, es, sin embargo, mucho más complejo, interesante y con multitud de factores a considerar. Si aquél fuera asimilable en su comportamiento al de un gas fluctuante en su equilibrio térmico, podríamos decir que, al escrutar distintas regiones del mismo, deberían hallarse porciones en mayor desorden unas que otras. Observamos, en cambio, que se encuentran tan bien ordenadas todas ellas como la región que nosotros ocupamos. La explicación de todo es el origen explosivo del universo. A finales del siglo XIX las observaciones astronómicas quedaban limitadas apenas a nuestra galaxia y Boltzmann no podría haber imaginado que sus pequeñas regiones fluctuantes que postulaba contenían miles de millones de galaxias. Por si fuera poco, el descubrimiento de Hubble de que las galaxias se alejan unas de otras con una velocidad proporcional a la distancia que las separa, y el descubrimiento de Penzias y Wilson de la radiación de cuerpo negro, homogénea e isótropa que impregna nuestro universo, han contribuido a establecer la concepción de un origen del mismo que se remontaría fácilmente a unos cuantos miles de millones de años atrás. Una evidencia tan clara como la que comentamos habría satisfecho plenamente a Boltzmann. Ya no es necesario tantear un poco a ciegas sobre si la baja entropía es el resultado ocasional de fluctuaciones de partículas moviéndose al azar durante toda una eternidad. La Gran Explosión nos permite explicarlo todo con eficacia en poco tiempo. Es cierto que lo esencial de la falsamente fallida previsión de Boltzmann se ha cumplido, el paso del tiempo ha tomado sentido como concepto físico irreductible y con ello se ha transformado la misma noción (en palabras de Prigogine) de ley de la naturaleza.
                   Pero existe un problema. Es el de aplicar la segunda ley de la termodinámica al conjunto del universo. ¿Nació éste en el caos? El caos se define (no del todo apropiadamente) como mucha entropía o mucho desorden. Desde el mismo momento que nació el universo aparecieron muchos tipos de estructuras y así es como se fueron formando estrellas y galaxias. De ese hecho parece derivarse que el universo no está en un estado de máxima entropía ahora, puesto que la creación de estrellas produce un aumento de la misma a medida que consumen sus combustibles nucleares. Pero esto parece una contradicción, si se tiene en cuenta que era muy elevada la entropía al principio y que la ley de la termodinámica dice que la entropía aumenta siempre con el tiempo. 
                   Ciertamente, si se es muy estricto, los conceptos de entropía y orden termodinámico parecen ser sólo son apropiados cuando se trata de energética. Por ejemplo, si analizamos la distribución de estrellas en un cúmulo estelar esférico, puede comprobarse que no se comportan entre sí como las partículas de los experimentos de laboratorio. En este caso, el segundo principio de la termodinámica es aplicable a las interacciones moleculares gaseosas, aún suponiendo que fuerzas residuales de Van der Waals y de Heiler-London siguen operando, pero no es trasladable al caso macroscópico de una distribución estelar. También se discute el que haya una tendencia a confundir (deliberadamente o no) las distintas clases de orden habientes en la naturaleza. Es dudoso que las estructuras astronómicas existentes, condicionadas en gran parte por un remoto origen explosivo (y aún preexplosivo) del universo obedezcan también en su comportamiento a una mera descripción termodinámica. Es dudoso, asimismo, el que el orden biológico se apoye directamente en el orden termodinámico. Por esas razones tendríamos que hacer caso a Medawar cuando sugiere que "no debería establecerse una equivalencia abstracta entre entropía, azar y probabilidades cósmicas". Toda precaución es poca. Pero eso no quiere decir que en un análisis de la mecánica celeste, no haya que hacer una crítica de la dinámica clásica. Su principal defecto es que introducía el elemento espurio de las interacciones instantáneas, cuando como sabemos, según la relatividad esas interacciones se propagan con velocidad finita. Eso viene a coincidir, con la noción esencialmente probabilista e incontrolable de los sucesos, que barruntaba y prefiguraba la hipótesis fallida de Boltzmann por otro camino.
                   Se han intentado dar explicaciones a esas cuestiones tan variadas. Así, el físico Paul Davies en 1983 expuso su idea de que la teoría del universo inflacionario podría integrar o admitir en su concepción, el estado de entropía relativamente baja en que se encuentra actualmente. Tal vez aquél alcanzó su punto de máxima entropía en el tiempo de Planck, habiéndose creado poco después una "discontinuidad marcada por la entropía”, debido a la prosecución de la expansión inflacionaria. Imaginó que, aunque hubo un aumento de entropía durante el período de expansión inflacionaria, aún aumentó más la capacidad de generar entropía. Podría haber ocurrido que al final de la fase inflacionaria la entropía llegó a alcanzar un nivel superior al de antes, pero sin estar por eso próxima al máximo posible. Davies continuó razonando y supuso que lo que determinaba en última instancia la flecha del tiempo (expresión que se debe a Eddington), era la inflación del universo. Terminó por concluir que la inflación fue la que posibilitó que aumentara la entropía. "Es posible que en un universo en expansión la energía organizada apareciera espontáneamente, sin necesidad de estar presente al principio. Por tanto, no existe ninguna necesidad de atribuir el orden cósmico (baja entropía) ni a una deidad ni a la introducción de organización durante la singularidad inicial. La singularidad inicial pudo haber expelido energía de una forma totalmente caótica y aleatoria, energía que más tarde se organizó a si misma espontáneamente, bajo la forma del Universo en expansión. Obsérvese que no solamente hemos atribuido el origen de la materia al Universo en expansión, sino también el origen de su organización."      
                   ¿Se podría hablar en esas circunstancias de que en las estructuras astronómicas sigue rigiendo el principio de orden de Boltzmann? ¿Sería la termodinámica algo utilizable en este caso? En realidad, los objetos astronómicos que conocemos por agrupaciones estelares no presentan ninguna tendencia a homogeneizarse y actúan y se regulan entre sí por fuerzas gravitatorias de largo alcance. Los cúmulos y las galaxias, en general, se comportan como unidades estructurales bastante definidas. Por consiguiente, es preciso considerar que la distribución espacial de las partículas, o, para el caso, objetos astronómicos, está también determinada por factores no aleatorios.
                   La "segunda ley", eso es seguro, nos ayuda a describir correctamente una distribución de partículas, cuando dependen exclusivamente de procesos aleatorios independientes entre sí, porque se trata de procesos en desorden elemental, vinculados a sucesos fortuitos. Pero la disposición espacial de las partículas puede estar (y de hecho está) también determinada por factores no aleatorios.
                   Imaginemos, en otro supuesto, una nube gaseosa que por contracción puede dar lugar al surgimiento de una estrella. Los gases están ionizados, magnetizados y, por añadidura, la gravedad es el aglutinante esencial. Todo ello quiere decir que las partículas no se mueven con entera libertad térmica. Su posición no está enteramente determinada por el azar. La cuestión, básicamente, se reduce a determinar si la segunda ley de la termodinámica se aplica no solo a la materia, sino también a la gravedad. Algunos científicos como Stephen Hawking mantienen que la gravedad cósmica está altamente desordenada y es el resultado de influencias puramente aleatorias que actúan sin conformación estructural y que son producto de la singularidad inicial. Otros, como Roger Penrose, llegan a la conclusión de que el campo gravitacional cósmico se encuentra en un estado de muy baja entropía - es decir, está altamente ordenado- lo cual indica que hubo un suministro de orden en el mismo momento de la creación.
                   Por tanto, de momento, y a falta de mayores aclaraciones, lo que nos asegura el principio de orden de Boltzmann es que la naturaleza tiende a situaciones en las que se pueden manifestar el máximo número de posibilidades, y el concepto físico de entropía está determinado por el respectivo número de esas posibilidades. La ley de aumento de la entropía es una ley estadística; no es una ley fundamental (lo que no le resta importancia) porque no sirve para describir el comportamiento de un átomo o una molécula en particular: sólo trata del comportamiento de la media de un gran número de componentes. Si luego el principio de Boltzmann se ve reconducido por otros motivos que desembocan en una estructura determinada (por ejemplo, astronómica), no podemos más que felicitarnos por ello, puesto que proporciona aún más diversidad.
                   Los organismos vivos constituyen un ejemplo muy claro de lo que venimos diciendo. Una planta, sirva para el caso, a medida que transcurre su existencia acumula un desequilibrio en forma de energía química. Pues bien, ese desequilibrio "crea su objeto", (como diría el químico Berthelot) o provoca su reconducción bioquímica. A veces, se suele decir que los organismos u objetos biológicos químicamente desequilibrados presentan una entropía decreciente, en vez de creciente, por lo que se ha sugerido la expresión neguentropía (o entropía negativa) para describir esos procesos. La evolución del orden biológico a través de mutaciones y selección natural es aceptada en la actualidad de una manera virtualmente unánime en la comunidad científica. La característica esencial de la evolución biológica es su naturaleza accidental. Las mutaciones ocurren por puro azar e inciden sobre un desequilibrio que ha "creado su objeto" biológico. Debido a las alteraciones aleatorias que cambian, aunque sea mínimamente, las características de los organismos, se presentan múltiples opciones en la naturaleza. Las elegidas serán aquellas que mejor permitan la adaptación a las condiciones naturales. De esas circunstancias, pueden surgir estructuras complejas por la acumulación de un número muy elevado de pequeños accidentes. El aumento de orden ocasionado por esta tendencia se compensa ampliamente con el número mucho mayor de mutaciones nocivas que son eliminadas por selección natural. Por tanto, no hay conflicto alguno con la segunda ley de la termodinámica. Todos los seres vivos actuales son unos privilegiados sobrevivientes de la historia biológica, que ocupan la cima de un árbol genealógico flanqueado por numerosos fracasos genéticos.
                   El orden cosmológico no es un concepto meramente abstracto, sino que implica que cada cosa puede tener su ubicación específica, y eso por un principio que lo rige, de modo que el azar se ve restringido en su papel. Así se prodigan las regularidades que caracterizan cualquier orden, ya sea éste físico (astronómico) o biológico. Los instrumentos de reconducción de las fluctuaciones estadísticas pueden ser la gravedad, a la hora de crear estrellas y galaxias, o la selección natural, en la evolución biológica. De esta forma, lo excepcional, lo diferente (lo sistemáticamente excluido por el racionalismo) dentro de las fluctuaciones acaba siendo escogido como el caso más relevante y definitorio.
                   El mundo, sí, era un vasto océano de partículas, radiaciones y energía impelidas (esto era algo que no sospechaba Boltzmann) por la explosión inicial a evolucionar en un sentido irreversiblemente temporal hacia todas las posibilidades (en ellas no se incluyen las individualidades) que han dado lugar a la diversidad más inimaginable de estructuras.
                   Boltzmann no imaginó que sus ideas de mecánica estadística podrían efectivamente trasladarse al universo entero y a todas las disciplinas científicas. Justo lo que opinaba Gibbs al asegurar que el análisis estadístico no es aplicable sólo al comportamiento de las "grandes poblaciones", sino también a cualquier "sistema conservador", independientemente de cual sea su grado de libertad.
                   La tendencia de la vida, como las de las moléculas de gas en un recipiente, es la de expandirse aprovechando todas las posibilidades que el azar permite en la naturaleza. La vida actúa incesantemente creando estados inestables-estables, operando a partir del azar y surgiendo orden. Orden que a su vez, el azar ayuda a crear, apoyando los impulsos de la vida, tendentes a lograr en su desarrollo evolutivo la optimización de funciones en relación con el medio y con la línea elegida de su propia trayectoria vital.
                   Precisamente esas circunstancias son las que confieren a la vida sus dos características distintivas fundamentales: la complejidad y la organización. Ningún producto del ingenio humano puede ser parangonado con el más simple de los organismos unicelulares. La extrema complejidad de éste, haría risible tal pretensión. Una sencilla bacteria interactúa con el medio, estableciendo una sofisticada red de funciones y formas. La mayor parte del control reside en el núcleo de la célula, dentro de la cual se encuentra el código genético, que permite al microorganismo reproducirse o, lo que es igual, sacar copias de si mismo. Se ha llegado a inferir que como todo en el universo, este complejo edificio agrupado en torno a un código genético que nunca se acaba de construir definitivamente, tiene su fundamento en la fuerte propensión (expresión de Karl R. Popper) que hay en la naturaleza a la asociación de partículas atómicas y moleculares, así como en las fluctuaciones estadísticas generalizadas que el mecanismo de la selección natural, en el terreno biológico, se encarga de regular.
                   Análisis estadístico y cálculo de probabilidades aportan consiguientemente el conjunto inquisitivo de elementos que nos permiten desentrañar las reglas de la lógica de la naturaleza. El número de individuos en juego siempre es muy elevado, con lo que la contingencia cobra todo su valor y es el eje central de los hechos evolutivos, tanto físicos como biológicos. Así, la ventaja de obtener previsiones lindantes con la certeza se conjuga con el inconveniente de que la estricta causalidad no es discernible.
                   Ahora nos damos cuenta de que la visión de Boltzmann era magnifica, pero imperfecta y pesimista. Imperfecta porque él imaginaba un recipiente cósmico de extraordinario tamaño, inmenso, posiblemente infinito en el tiempo y en el espacio, compuesto por un sinfín de partículas en equilibrio térmico. Era un estado precósmico previo a la eclosión del universo, sin definición precisa. Su visión, además, era pesimista. De acuerdo con su punto de vista, el universo se encuentra habitualmente en un caos total, es decir, sin ninguna clase de organización estructural. No obstante, de vez en cuando, entre intervalos de una duración de tiempo inimaginablemente larga, se dan unos pocos miles de millones de años de ordenación accidental. Y la explicación de que nosotros estemos aquí para contarlo, es que esa ordenación de la materia incluye la remotísima probabilidad, convertida en real, del surgimiento de la vida y, por ende, de seres humanos que son testigos de tal suceso. Dado que la vida tiene en la entropía negativa su sustento, los observadores conscientes de tan rarísimo fenómeno sólo pueden existir durante los cortos períodos de fluctuaciones estadísticas que se producen en el recipiente cósmico.
                   En resumen, la visión de Boltzmann implicaba un grado de contingencia inimaginable para explicar el mundo. Pensemos que las fluctuaciones estadísticas, a las que él tanta importancia daba, sólo adquieren verdadera relevancia cuando se trata de poblaciones poco importantes. Las desviaciones originadas adquieren significación física o biológica cuando hay una fórmula de aprovechamiento establecido. Tampoco consideró el factor gravitacional como coadyuvante en la generación y acreción de estructuras astronómicas, aunque es de todo punto lógico, dadas las características del modelo propuesto y en el momento histórico en que se realizó. Creemos que nuestro mundo es de una existencia menos improbable, si se considera su origen explosivo pues a la noción central de que la entropía es el principal fundamento de la flecha del tiempo, hay que añadir la nada despreciable cualidad de la dirección impuesta por la expansión cósmica.
                   No obstante, a pesar de la notable complejidad revelada, presente en el marco de los sucesos generales, al suponer que la entropía creciente es una ley estadística, habría que esperar que existieran fluctuaciones y que en casos aislados durante un breve período de tiempo se invirtiera el aumento de entropía. Eso es lo que suponía Boltzmann y lo que señalan las leyes de la probabilidad. Tarde o temprano, por poco frecuentes que sean los acontecimientos muy poco probables, han de suceder. Si siguiéramos inspeccionando un recipiente ideal o imaginario, como el de Boltzmann, cabe suponer que acabaríamos presenciando, por larga que fuera la espera, una fluctuación estadística o incluso un acontecimiento que retrograde cronológicamente (es decir, fluyendo invertidamente en el tiempo). Ninguna ley física se violaría; únicamente presenciaríamos un hecho improbable, pero no imposible. En toda una eternidad, sólo lo imposible no tendrá nunca lugar.
                   Una fluctuación estadística importante, por ejemplo, estaría constituida por la formación de un reducto dentro del recipiente en el que todo el gas se condensase en uno de sus lados. Contemplar esa agrupación momentánea de unas pocas moléculas -pongamos mil- nos supondría la friolera de 10³(diez elevado a treinta) años de espera. Si consideramos, además, que un recipiente no muy grande puede tener unas 10²(diez elevado a venticinco) moléculas, la probabilidad de que todas ellas constituyan un reducto de orden es increíblemente pequeña, casi despreciable. Un universo formado de esa manera, requeriría un mareante número de (uno seguido de ceros) años, increíblemente superior a los que comprende la edad que tiene en realidad el nuestro. Claro que eso no supondría ningún inconveniente, teniendo en cuenta que se dispone de toda una eternidad para que esas condensaciones pudieran realizarse. Sin embargo, todo indica que no son así los hechos.
                   En definitiva, lo que se pone de manifiesto es que la práctica irreversibilidad de los sucesos estadísticos termodinámicos traduce exclusivamente los cambios de distribución de las moléculas en el orden en el que se distribuyen en el recipiente. La termodinámica nos da, pues, una visión más correcta cuando la distribución depende únicamente de procesos aleatorios independientes unos de otros; por eso, de lo que se trata es de establecer qué aspectos de un sistema (o mejor, que magnitudes físicas) son los que deben considerarse en interés de que esa distribución esté determinada por sucesos fortuitos. La dificultad de delimitar rigurosamente un ámbito de vigencia de la segunda ley de la termodinámica no nos impide intuir que, en su conjunto, el universo es un sistema que tiende del orden al desorden. Pero eso no supone cortapisa alguna (sino, al revés, un acicate) para que sigan sucediéndose estructuraciones en la práctica de forma ilimitada.
                   Aunque no sabemos cuán lejos se halla de su equilibrio final, sospechamos por el estado relativamente primitivo de las estructuras existentes y por el gran vigor cosmogónico que exhibe en su conjunto que aún hay cuerda termodinámica por mucho tiempo.

No hay comentarios:

Publicar un comentario