martes, 10 de enero de 2012

4- Resumen y consideraciones sobre la naturaleza de las fuerzas





4-RESUMEN Y CONSIDERACIONES SOBRE LA NATURALEZA DE LAS FUERZAS-

                           õ

"....el descubrimiento de una teoría unificada completa puede no ayudar a la  supervivencia de nuestra especie. Puede incluso no afectar a nuestro modo de vida. Pero siempre, desde el origen de la civilización, la gente no se ha contentado con ver los acontecimientos como desconectados e inexplicables. Ha buscado incesantemente un conocimiento del orden subyacente del mundo."


Stephen W. Hawking


                   En la actualidad, se considera que las cuatro fuerzas fundamentales  descritas son el resultado del intercambio de partículas elementales que interaccionan. Las fuerzas de gravedad y electromagnetismo son familiares en la vida cotidiana, mientras que las dos restantes operan a nivel subatómico y no son perceptibles por nuestros sentidos. La universalidad de las mismas parece la característica más común a todas ellas. Así, Newton, por ejemplo, demostró que la fuerza de gravedad que se manifiesta en la Tierra y la que rige el movimiento de los planetas es de idéntica naturaleza. Esta identificación le permitió la posibilidad de unificarlas en la llamada, teoría unificada de la gravedad. De la misma forma, se observa que la electricidad y el magnetismo están tan íntimamente relacionados, que en realidad resultan inseparables. En cualquier lugar donde haya un fenómeno magnético, tiene que haber un fenómeno eléctrico, y viceversa. De hecho, ya no se habla casi del magnetismo o la electricidad por separado, sino de fenómenos o sucesos electromagnéticos. Así, no solamente se pudo precisar que la luz es una radiación electromagnética, sino que también la interacción electromagnética es una de las cuatro interacciones fundamentales de la naturaleza. La verificación de tales conexiones dio lugar a la unión de la electricidad y el magnetismo en la década de 1850 por Maxwell, en una única teoría unificada del electromagnetismo.
                   El hecho de que en el pasado se hayan conseguido unificaciones, no significa, naturalmente, que las de las cuatro fuerzas sea fácil, ni siquiera que sea posible. Einstein, por ejemplo, pensaba que las masas en aceleración emitirían ondas de gravedad, lo mismo que los sucesos electromagnéticos oscilantes emiten ondas de luz y otras radiaciones de parecidas características. Esa similitud, le llevó en la década de 1920 a comenzar por el camino más complicado y de ahí su fracaso, pues empezó por la gravedad y trató de unificar el electromagnetismo con ella. Enseguida se vio superado por los acontecimientos. Se descubrieron las fuerzas nucleares, débil y fuerte, hasta entonces, solo intuidas, y a partir de ahí cualquier intento de unificar las fuerzas de la naturaleza, debía tener en cuenta cuatro fuerzas, no dos como hasta entonces. En ese sentido, las fuerzas débil, electromagnética y fuerte son, por lo menos de una manera aparente, de una conexión más clara. No obstante, los científicos siguen en su lucha por lograr la articulación de las cuatro en una "superfuerza" que se supone gobierna el universo.
                   Hay que precisar que el concepto de fuerzas no está absolutamente definido, ya que como tales elementos básicos en la conformación del universo no pueden ser observadas en un sentido exacto del término. En realidad son inferidas, pues, como dice Bertrand Russell, "el concepto de fuerza no es de origen físico, sino de origen fisiológico". Para entendernos, al estudiar los cuerpos esféricos celestes o las partículas atómicas y subatómicas los concebimos como si estuvieran constituidos y se influyesen entre sí mediante la acción de una o varias fuerzas.
                 En un intento de explicarnos el funcionamiento del universo, recurrimos a este artificio racionalizador de los procesos naturales, que se ha revelado como útil. Psicológicamente, sin embargo, siempre estamos dispuestos a asimilar fuerza a presión o esfuerzo, y eso condiciona la experimentación física. Creemos en la pureza de la experiencia, cuando un concepto tan importante como es el de fuerza, está basado desde el principio en un convenio. La validez del mismo, a pesar de todo, no se discute y los físicos y los astrónomos, no se dejan amilanar por las dificultades de su aplicación. La luz, la electricidad y el magnetismo, eran susceptibles de ser considerados como un fenómeno describible por una sola serie de relaciones matemáticas y al desaparecer el antiguo concepto de éter (sustancia sutil e indetectable que hipotéticamente llenaba el espacio, y se creía servia de soporte a las ondas electromagnéticas) la acción a distancia, empezó a denominarse "campo". Hay campos gravitatorios y campos electromagnéticos, que consisten en ambos casos en una fuente y una radiación que se expanden desde sus fuentes respectivas, moviéndose de dentro a fuera a la velocidad de la luz.
                   Describir acontecimientos gravitatorios, por ejemplo, desarrollados en el interior de un núcleo atómico tal vez exigiera un retoque de las circunstancias del convenio aludido, puesto que lo que se quiere es combinar  la relatividad general que trata de la gravedad y el macrocosmos con la mecánica cuántica, que trata de los campos electromagnéticos débil y fuerte y el microcosmos. Trabajando en estos temas, en los años setenta del pasado siglo el físico estadounidense Steven Weinberg y el físico británico de origen pakistaní Abdus Salam, elaboraron por separado un trata- miento matemático muy preciso que mostraba, que tanto los campos electromagnéticos como los nucleares débiles eran sólo aspectos parciales y diferentes de un único campo, siendo bastante probable que se pueda lograr extender y abarcar también, mediante ese tratamiento matemático, al campo nuclear fuerte. Sin embargo, en el caso de la gravitación, nadie sabe como podría elaborarse semejante teoría, aunque los físicos, en un alarde de optimismo, ya han elegido hasta el nombre de la misma: gravedad cuántica. Ahora sólo falta llenarla de contenido..., si es posible. No obstante, dejando a un lado la gravedad (que, como hemos dicho, plantea dificultades especiales) existe un número considerable de "teorías generales unificadas" (GUT) que tratan de explicar las propiedades de la materia en condiciones hiperenergéticas que fueron las que existieron durante la primera milésima de segundo después del origen del universo. El más conspicuo de los representantes de esta idea es posiblemente Alan Guth, del Instituto de Tecnología de Massachussets (MIT). Según él, hay que formarse una imagen partiendo de un estado del universo recién nacido en extremo caliente y denso en el que todas las interacciones que participaban en la física (excepto la gravedad, que exigiría para la explicación de su presencia, de simetría extra) estaban unidas en una interacción simétrica. En el proceso de enfriamiento del universo, la simetría se fragmentó y las fuerzas básicas de la naturaleza (nuestras conocidas: electromagnética, nuclear fuerte y nuclear débil) tomaron caminos separados. Esto quiere decir, que las dos fases del universo, la anterior y la posterior a la rotura de la simetría, son muy diferentes entre sí. Vendría a ser un cambio parecido a una transición de fase, análogo al paso del agua líquida a sólida cuando se congela, o también del agua líquida a vapor cuando hierve. No obstante, se distinguiría de estas transiciones de fase ordinarias, en que, de acuerdo con la teoría, la rotura de la simetría en el universo inicial habría originado "ex novo" una fuerza gravitacional repulsiva extremadamente grande que sería capaz de separar todos los componentes en una fracción de segundo.
                   Al difundirse ampliamente las teorías de gran unificación a finales de la década de 1970, la gravedad quedó excluida, convirtiéndose en la única fuerza que no podía explicarse jugando con los esquemas del mundo cuántico. Pero en cambio, en la ley de la pregeometría que Wheeler imaginó como una "gran Ley  de leyes" y que fue concebida como el principio que hacía expandirse el universo, ya no se consideraba tan improbable. Quizás podía confiarse en que en algún momento una simetría general y muy potente incluyera a la gravedad en el compendio matemático de las teorías unificadas. Incluso llegó a llamarse, un tanto pretenciosamente, la "teoría del Todo". El universo debió empezar, según eso, en un momento de abrumadora simetría, y desde allí comenzó su historia. La relatividad y la teoría cuántica que pudieron estar muy relacionadas antes del tiempo de Planck (cuando se estableció la unidad básica de acción en la naturaleza), se desgajaron después siguiendo caminos diferentes.
                   Lo que es seguro es que las leyes de la física se fueron construyendo por etapas a medida que el universo se expandía, se enfriaba y la densidad de las radiaciones y partículas iba en disminución. Es muy probable, por tanto, que la gravedad se separase de la unidad primordial cuando el universo tenía 10- ³ (diez elevado a menos cuarenta y tres) segundos de edad y su temperatura era todavía de 10³(diez elevado a treinta) grados Kelvin. Esa fue la primera separación que dejó el cosmos a merced de dos reglas: las teorías de la gran unificación y la gravedad. Luego vinieron nuevas fisiones: la de la interacción fuerte y la de las fuerzas débil y electromagnética. Cuando el universo tenía una milmillonésima de segundo de edad había en aquél cosmos plenamente expansivo, cuatro fuerzas identificables y una pléyade de partículas elementales que bullían en discordancia.
                   De momento, la elaboración de un modelo estándar capaz de ser coherente con observaciones sistemáticas, ha resultado bastante decepcionante. El tener que tratar precisamente con docenas de partículas elementales, utilizar más de una docena de constantes de difícil calculo, además de la grave desarmonía provocada por no poder incluir la gravitación y vernos obligados a hacerlo al margen de los demás campos, de modo unificado, provoca desconcierto y ambigüedad.
                   Podemos decir que en muchos aspectos, somos tributarios de las ideas desarrolladas a mediados de los años treinta del siglo XX, en los que comenzaron a "convertirse" las fuerzas en una o varias partículas pero evitando las incompatibilidades de la física corpuscular, mediante un principio de complementariedad, que considera dichas partículas como ondas y nubes de probabilidad. Ya previamente, en 1923, De Broglie expuso su idea de que si el comportamiento de la luz es tan parecido al de las ondas, como el de las partículas, la materia también debería participar de esa naturaleza aparentemente dual, es decir, que los electrones y los protones deben asemejarse a las partículas, en unos aspectos, y también a ondas, en otros. Esto permitió a Feynman formular la teoría cuántica en términos de una suma de sucesos. Desde el punto de vista de la teoría clásica, una partícula tiene una historia única, pero en la nueva visión o nuevo enfoque una partícula sigue todos los caminos posibles en el espacio-tiempo y cada uno de esos sucesos lleva asociado una pareja de números, que representan respectivamente el tamaño de una onda y su posición en el ciclo de la misma. La probabilidad de que la partícula en su trayectoria, pase por un punto particular se puede calcular sumando las ondas asociadas con cada camino posible que pasa por ese punto. Esta revolucionaria concepción fue desarrollada por Heisenberg con su mecánica de matrices y el enunciado del principio de incertidumbre, y Erwin Schrödinger con el desarrollo de su mecánica ondulatoria y la ecuación de ondas. La aplicación de estos postulados a los campos electromagnéticos y su ampliación con los principios relativistas del campo gravitatorio, culminó en la elaboración de la teoría del campo unificado de Einstein y Heisenberg, y en la polémica "ecuación total" de Heisenberg, sometida en la actualidad a dudas discursivas.
                   Una vez admitido que las partículas, como por ejemplo, los electrones, tienen en parte una naturaleza ondulatoria distribuida en el espacio, en vez de concentrarse en un punto de la órbita como en el modelo atómico clásico de Bohr, la teoría atómica orbital, fue desplazada por la idea de que, en el espacio en torno al núcleo atómico, existen siempre regiones en las que es "más probable" que se encuentren los electrones. A partir de ese principio demáxima probabilidad” se desarrolla la mecánica ondulatoria, de consecuencias de mayor trascendencia que las previstas en la teoría de Bohr, porque al mismo tiempo que se conserva la validez del concepto de estado energético, se revela como capaz de asignar niveles energéticos a los átomos de mayor complicación estructural. Por su parte, la ecuación diferencial de Schrödinger que da fundamento a la mecánica ondulatoria facilita la comprensión del peculiar estado cuántico de los átomos, constituyendo una prolongación lógica de los primeros postulados de la teoría cuántica y asienta los pilares para el progreso en el estudio de la física atómica y molecular en sus relaciones o implicaciones cosmológicas.
                   Como resultado de todo lo expuesto hasta aquí se produjo un hecho de capital importancia en la historia de la atomística: la observación de que algunos aspectos esenciales del modelo atómico nunca se habían medido directamente, y que tal vez no podrían ser mensurables directamente con ninguna clase de instrumento. Esa circunstancia animó a Heisenberg a enunciar a ese respecto su "doble incertidumbre". El principio que este físico alemán formuló en 1927 en su obra "Principios físicos de la Mecánica Ondulatoria", fue consecuencia de la asociación de los contenidos de la mecánica cuántica y la ondulatoria. Deriva por un lado de la teoría de Schrödinger en la medida en que ésta no admite para las partículas la posibilidad de una determinación del lugar y la energía que poseen superior en precisión al margen de probabilidad que resulta de las longitudes del “paquete de ondas” correspondiente; siendo, no obstante, el verdadero fundamento del principio, el cuanto (porción mínima e indivisible de la energía) de acción de Planck, que fue definido bastante antes de que se comenzase a hablar de la mecánica ondulatoria. El enunciado del principio, como decimos, implica una situación de “doble incertidumbre": primera, es radicalmente imposible evitar en las mediciones físicas que se realizan imprecisiones del orden de magnitud del "cuanto de acción" descubierto por Planck. Y segunda, el mismo procedimiento que sirve para determinar la posición de la partícula, hace que ésta cambie de sitio.
                   Imaginemos que queremos medir la posición y la velocidad de una partícula; por ejemplo un electrón en movimiento. Pues bien, hagamos lo que hagamos, la posición de la partícula no es precisable, porque ésta, si por las características del experimento llega a ser visible, lo será muy borrosamente, o al revés, si se registra la nitidez existencial del electrón, quedará su verdadera posición en extremo imprecisa para el observador. Se trata de un dilema entre dos clases de incertidumbre. La posición y el movimiento de una partícula adoptan un comportamiento que los matemáticos denominan como "conjugado".Si se quiere aumentar la exactitud o ganar precisión respecto a uno de ellos hay que renunciar a otro tanto en el otro. Ocurre que la observación a una escala material tan ínfima viene condicionada por los comportamientos de los fotones que le dan un tinte de imprevisibilidad ineludible.
                   Precisamente, la principal dificultad para encontrar una teoría que sea capaz de unificar la gravedad con las otras fuerzas estriba en que la relatividad general, de Einstein, es una teoría clásica, lo que significa que no incorpora el “principio de incertidumbre” de la mecánica cuántica. En cambio, las otras teorías parciales sí que dependen esencialmente para su elaboración de la mecánica cuántica. Por eso, parece aconsejable combinar la relatividad general con el principio de incertidumbre. Ahora bien, encontrar una teoría "completa" para las cuatro fuerzas presenta un serio inconveniente, como es el de que los valores reales de las masas y las intensidades de las fuerzas han de ser elegidos en función de su adecuación o ajuste a las observaciones y no pueden ser deducidos como exigiría un buen desarrollo lógico de la teoría. Se sospechó durante cierto tiempo de la existencia de esa dificultad, pero fue en 1972, cuando finalmente  se confirmó el problema de combinar el principio de incertidumbre y la teoría de la relatividad. Su posible solución fue sugerida en 1976 con la llamada <<supergravedad>>.
                   El nuevo marco para la unificación total, permite compaginar la idea de que el control que ejerce una única fuerza maestra sobre la totalidad del universo, se adecua perfectamente con su desdoblamiento a través de diversas facetas, como pueden ser, el electromagnetismo mediante los denominados fotones mensajeros, la fuerza nuclear mediante algunas raras partículas como los gluones, u otras manifestaciones de diversa naturaleza. En cualquier caso, todas ellas estarían conectadas a través de la supersimetría. De hecho, la supergravedad ofrece una descripción unificada de la fuerza y la materia, tomando como base que ambas tienen su origen en diversas clases de partículas cuánticas. A decir verdad, si se desarrollan las matemáticas adecuadas, nos encontramos con nuevos modos de describir supersimetrías que existieron durante los primeros momentos del universo, pero que seguidamente se rompieron de tal manera, que las partículas habituales en nuestra física conocida adquirieron sus ordinarias masas pequeñas mientras que las superlativamente homólogas se materializaron en masas muy grandes. Las superpartículas al ser de vida muy efímera, se transformaron en un verdadero diluvio de partículas de una masa muy inferior, pero también, de mucha mayor estabilidad. Volver a crear hoy esas superpartículas, requeriría de unas condiciones análogas a aquellas mencionadas, que son de un extraordinariamente alto nivel energético, lo que constituye un desafío para los aceleradores de partículas.
                   Ciertamente, la supersimetría aún no es la respuesta final. Aunque diversas teorías, permiten dar cuenta de diferentes aspectos de nuestro mundo físico, ninguna supersimetría ha permitido explicar por si sola el mundo real. Sin embargo, disponemos por el momento de una teoría que contempla la existencia de una supersimetría particular que merece especial atención. A ese respecto, la teoría de la supergravedad N = 8 (que así se llama) es considerada por Stepen Hawking como la culminación de la física teórica. Esta supergravedad se fundamenta en una hipotética partícula, denominada gravitón, que es portadora del campo gravitatorio. Junto a ella hay otras ocho partículas más (de esa peculiaridad nace el nombre de la teoría) llamadas gravitinos, además de 56 partículas reales tales como quarks y electrones y otras 98 partículas diversas, que son mediadores de interacciones. Aunque los problemas son grandes, puesto que hay que apoyarse en partículas, en la mayoría de los casos hipotéticas, ésta teoría resulta bastante consistente, finita y no necesita renormalización, punto este último muy importante, ya que los valores reales de las masas y las intensidades de las fuerzas se deducen directamente de la teoría y no hay que escogerlos ex profeso para ajustarlos a las observaciones. A medida que mejoren los modelos, también conseguiremos mejorar el conocimiento sobre la realidad, lo cual es muy posible que nos esté indicando la existencia de un perfecto acuerdo matemático de fondo entre la teoría supergravitatoria y la realidad física del universo.







No hay comentarios:

Publicar un comentario