4-RESUMEN Y
CONSIDERACIONES SOBRE LA NATURALEZA DE LAS FUERZAS-
õ
"....el descubrimiento de una
teoría unificada completa puede no ayudar a la supervivencia de nuestra especie. Puede
incluso no afectar a nuestro modo de vida. Pero siempre, desde el origen de la civilización,
la gente no se ha contentado con ver los acontecimientos como desconectados e
inexplicables. Ha buscado incesantemente un conocimiento del orden subyacente
del mundo."
Stephen
W. Hawking
En la actualidad, se considera que las cuatro fuerzas fundamentales descritas son el resultado del intercambio de partículas
elementales que interaccionan. Las
fuerzas de gravedad y
electromagnetismo son familiares en la vida cotidiana,
mientras que las
dos restantes operan a nivel subatómico y no son perceptibles
por nuestros sentidos. La universalidad de las
mismas parece la
característica más común a todas ellas. Así, Newton, por
ejemplo, demostró que la fuerza de gravedad que se manifiesta en la Tierra y la que rige el movimiento de los
planetas es de idéntica naturaleza. Esta identificación le
permitió la
posibilidad de unificarlas en la llamada, teoría unificada de la gravedad. De la misma forma, se observa que la electricidad y el magnetismo están tan íntimamente relacionados, que en
realidad resultan inseparables. En cualquier
lugar donde haya un fenómeno magnético, tiene que haber un fenómeno eléctrico, y viceversa. De hecho, ya no se habla casi del magnetismo o la electricidad por
separado, sino de fenómenos o sucesos electromagnéticos.
Así, no solamente se pudo precisar que la luz es una radiación
electromagnética, sino que también la interacción electromagnética es una de las cuatro
interacciones fundamentales de la naturaleza. La verificación de tales
conexiones dio lugar a la unión de la electricidad y el magnetismo en la década de 1850 por Maxwell, en una única teoría unificada del electromagnetismo.
El hecho de que en
el pasado se hayan
conseguido unificaciones, no significa, naturalmente, que las de las cuatro fuerzas
sea fácil, ni siquiera que sea posible. Einstein,
por ejemplo, pensaba
que las
masas en aceleración emitirían ondas de gravedad, lo mismo que los sucesos
electromagnéticos oscilantes emiten ondas de luz
y otras radiaciones de parecidas características. Esa similitud, le llevó en la década de 1920 a comenzar por el camino más complicado
y de ahí su fracaso, pues
empezó por la gravedad y trató de unificar el electromagnetismo con ella. Enseguida se
vio superado por los acontecimientos. Se descubrieron las fuerzas nucleares, débil y
fuerte, hasta entonces,
solo intuidas, y a partir de ahí cualquier intento de unificar las fuerzas de la naturaleza, debía
tener en cuenta cuatro fuerzas, no dos como hasta entonces. En
ese sentido, las fuerzas débil, electromagnética y fuerte son, por
lo menos de
una manera
aparente, de una conexión más clara. No
obstante, los
científicos siguen en su lucha por lograr la articulación de las cuatro en una
"superfuerza" que se supone gobierna el
universo.
Hay que precisar que el concepto de fuerzas no está
absolutamente definido, ya que como tales elementos básicos en la conformación del universo no pueden ser
observadas en un sentido
exacto del término.
En realidad son inferidas, pues, como dice Bertrand Russell, "el concepto de
fuerza no es de origen físico, sino de origen fisiológico". Para entendernos, al estudiar los cuerpos esféricos
celestes o las partículas atómicas y subatómicas los concebimos como si
estuvieran constituidos y se influyesen entre sí mediante la acción de una o varias fuerzas.
En un intento de explicarnos el funcionamiento del universo, recurrimos a este artificio racionalizador de los procesos naturales,
que se ha revelado como útil. Psicológicamente,
sin embargo, siempre
estamos dispuestos a asimilar fuerza a presión o esfuerzo, y eso condiciona la experimentación física.
Creemos en la pureza de la experiencia, cuando un concepto tan importante como es el de fuerza, está basado
desde el
principio en un
convenio. La validez
del mismo, a pesar de
todo, no se discute y los físicos y los astrónomos, no se dejan
amilanar por las dificultades de su aplicación. La luz, la electricidad y el magnetismo, eran susceptibles de ser
considerados como un fenómeno describible
por una sola serie de
relaciones matemáticas y al desaparecer el antiguo concepto de éter
(sustancia sutil e indetectable que hipotéticamente llenaba el espacio, y se creía servia de
soporte a las
ondas electromagnéticas) la acción a distancia,
empezó a denominarse "campo". Hay campos gravitatorios y
campos electromagnéticos, que consisten en ambos casos en una fuente y una radiación que se expanden
desde sus fuentes respectivas, moviéndose de dentro a fuera a la velocidad de la luz.
Describir
acontecimientos gravitatorios, por ejemplo, desarrollados en
el interior de
un núcleo atómico tal
vez exigiera un retoque
de las circunstancias
del convenio
aludido, puesto que lo que se quiere es
combinar la relatividad
general que trata de la gravedad y el macrocosmos con la mecánica cuántica, que trata de los campos electromagnéticos débil y fuerte y el microcosmos. Trabajando en estos temas, en los años setenta del pasado siglo el físico estadounidense
Steven Weinberg y el físico británico de
origen pakistaní Abdus Salam, elaboraron por
separado un trata-
miento matemático muy preciso que mostraba, que tanto los campos
electromagnéticos como los nucleares débiles eran sólo aspectos parciales y diferentes de un único campo, siendo bastante probable que se pueda lograr extender y abarcar también,
mediante ese tratamiento matemático, al campo nuclear fuerte. Sin
embargo, en el caso de la gravitación, nadie
sabe como podría elaborarse semejante teoría, aunque los físicos, en un alarde de optimismo, ya han elegido hasta el nombre de la misma: gravedad cuántica. Ahora sólo falta llenarla de contenido..., si es
posible. No obstante, dejando a un lado la gravedad (que, como hemos dicho, plantea dificultades
especiales) existe un número considerable de
"teorías generales unificadas" (GUT) que tratan de explicar las propiedades de la materia en condiciones
hiperenergéticas que fueron las que existieron durante la primera milésima de segundo después del origen del universo. El más conspicuo de los representantes de esta
idea es posiblemente Alan Guth, del Instituto de Tecnología de Massachussets (MIT). Según él, hay que formarse una imagen partiendo de un estado del universo recién nacido en extremo caliente y denso en el que todas las interacciones que
participaban en la física (excepto la gravedad, que exigiría para la explicación de su
presencia, de simetría extra) estaban unidas en una interacción
simétrica. En el proceso de enfriamiento del universo, la simetría
se fragmentó y las fuerzas básicas de la naturaleza (nuestras conocidas: electromagnética, nuclear fuerte y nuclear débil) tomaron caminos
separados. Esto
quiere decir, que las dos fases del universo, la anterior y la posterior a la rotura de la simetría, son muy
diferentes entre sí. Vendría a ser un cambio parecido a una transición de
fase, análogo al
paso del agua líquida a sólida
cuando se congela, o también del agua líquida a vapor cuando hierve. No obstante, se distinguiría de estas transiciones de fase ordinarias,
en que, de acuerdo con la teoría, la rotura de la simetría en el universo inicial habría
originado "ex novo" una fuerza gravitacional repulsiva extremadamente grande que
sería capaz de separar todos los componentes en una fracción de segundo.
Al difundirse ampliamente las teorías de gran unificación
a finales de la década de
1970, la gravedad quedó
excluida, convirtiéndose en la única fuerza que no podía
explicarse jugando con los esquemas del mundo cuántico. Pero en cambio, en la ley de la pregeometría que Wheeler imaginó como una "gran Ley de
leyes" y que fue concebida
como el principio que hacía expandirse el universo, ya no se
consideraba tan improbable. Quizás podía confiarse en que en algún momento
una simetría
general y muy
potente incluyera a la gravedad en el compendio matemático de las
teorías unificadas. Incluso llegó a llamarse, un
tanto pretenciosamente, la "teoría del Todo". El universo debió empezar, según
eso, en un momento
de abrumadora simetría, y desde allí comenzó su historia. La relatividad y la teoría cuántica que
pudieron estar muy relacionadas antes del
tiempo de
Planck (cuando se estableció la unidad básica de acción en la naturaleza), se desgajaron después siguiendo caminos diferentes.
Lo que es seguro es que las leyes de la física se fueron construyendo por etapas a medida que el universo se expandía, se
enfriaba y la densidad de las radiaciones y partículas iba en
disminución. Es muy probable, por tanto, que la gravedad se
separase de la unidad primordial cuando el universo tenía 10- ⁴³
(diez elevado a menos cuarenta y tres) segundos de edad y su temperatura era todavía de 10³⁰(diez elevado a treinta)
grados Kelvin. Esa fue la primera separación que dejó el cosmos a merced de dos reglas:
las teorías de la gran unificación y la gravedad. Luego vinieron nuevas
fisiones: la de la interacción fuerte y la de las fuerzas débil y electromagnética.
Cuando el universo tenía una milmillonésima de segundo de edad había en aquél cosmos
plenamente expansivo, cuatro fuerzas identificables y una pléyade de
partículas elementales que bullían en discordancia.
De momento, la elaboración de un modelo estándar capaz de ser coherente con observaciones
sistemáticas, ha resultado bastante decepcionante. El tener que tratar
precisamente con docenas de partículas elementales, utilizar más de una docena de
constantes de difícil calculo, además de la grave desarmonía provocada por no poder incluir la gravitación y vernos obligados a
hacerlo al margen de los demás campos, de modo
unificado, provoca desconcierto y ambigüedad.
Podemos decir que en muchos aspectos, somos tributarios de las
ideas desarrolladas a mediados de los años treinta del siglo XX, en los que comenzaron a
"convertirse" las fuerzas en una o varias partículas pero evitando las incompatibilidades
de la física
corpuscular, mediante un principio de complementariedad, que considera dichas
partículas como ondas y nubes de probabilidad. Ya previamente, en 1923,
De Broglie expuso su idea de que si el comportamiento de la luz es tan parecido
al de las ondas, como el de las partículas, la materia también debería
participar de esa naturaleza aparentemente dual, es decir, que los electrones y los protones deben asemejarse a las
partículas, en unos aspectos, y también a ondas, en otros.
Esto permitió a Feynman formular la teoría cuántica en
términos de una suma de sucesos. Desde el punto de vista de la teoría clásica,
una partícula
tiene una
historia única, pero
en la
nueva visión o nuevo enfoque una partícula sigue todos
los caminos
posibles en el espacio-tiempo y cada uno de esos sucesos lleva
asociado una
pareja de números, que representan
respectivamente el tamaño de una onda y su posición en el ciclo de la misma. La probabilidad de que la partícula en su trayectoria, pase por un punto particular se puede calcular sumando las ondas asociadas con cada camino posible
que pasa por ese punto. Esta revolucionaria
concepción fue desarrollada por Heisenberg con
su mecánica de
matrices y el enunciado del principio de incertidumbre, y Erwin Schrödinger con el desarrollo de su mecánica
ondulatoria y la ecuación de ondas. La aplicación de estos postulados a los campos
electromagnéticos y su ampliación con los principios
relativistas del
campo gravitatorio, culminó en la elaboración de la teoría del campo unificado de Einstein y Heisenberg, y en la polémica "ecuación
total" de Heisenberg, sometida en la actualidad a dudas discursivas.
Una vez
admitido que las partículas, como por ejemplo, los electrones, tienen en parte una naturaleza ondulatoria
distribuida en el espacio, en vez de concentrarse en un punto de la órbita como en el modelo atómico clásico de Bohr, la teoría atómica orbital, fue desplazada por la idea de que, en el espacio en torno al
núcleo atómico, existen siempre regiones en las que es "más probable" que se encuentren los electrones. A partir
de ese principio de “máxima probabilidad” se desarrolla la mecánica
ondulatoria, de consecuencias de mayor
trascendencia que las previstas en la teoría de Bohr,
porque al mismo
tiempo que se conserva la validez del concepto de estado energético, se revela como capaz de
asignar niveles energéticos a los átomos de mayor complicación estructural. Por su parte, la ecuación diferencial de Schrödinger que da fundamento a la mecánica ondulatoria facilita la comprensión del peculiar estado cuántico de los átomos, constituyendo una prolongación lógica de los primeros postulados de la teoría cuántica y asienta los pilares para el progreso en el estudio de la física atómica y molecular en sus relaciones o implicaciones cosmológicas.
Como resultado de todo lo expuesto hasta aquí se produjo un hecho de capital
importancia en la historia de la atomística: la observación de que algunos
aspectos esenciales del modelo atómico nunca se habían medido directamente, y que tal vez no podrían ser mensurables directamente con ninguna clase de
instrumento. Esa circunstancia animó a Heisenberg a
enunciar a ese respecto su "doble incertidumbre". El principio que este físico
alemán formuló en 1927 en su obra "Principios físicos de la Mecánica
Ondulatoria", fue consecuencia de la asociación de los contenidos de la mecánica cuántica y la ondulatoria. Deriva por un lado de la teoría de Schrödinger
en la medida en que ésta no
admite para las partículas la posibilidad de una determinación del lugar y la energía que poseen superior en precisión al margen de
probabilidad que resulta de las longitudes del “paquete de ondas” correspondiente; siendo,
no obstante, el verdadero fundamento del principio, el cuanto (porción mínima e indivisible de la energía) de acción de
Planck, que
fue definido bastante antes de que se comenzase a hablar de la mecánica ondulatoria. El enunciado del principio, como decimos, implica una situación de “doble
incertidumbre": primera, es radicalmente imposible evitar en las mediciones físicas que se realizan imprecisiones del orden de magnitud del "cuanto de acción" descubierto por Planck. Y segunda, el mismo procedimiento que sirve para determinar la posición de la partícula, hace que ésta
cambie de sitio.
Imaginemos que queremos medir la posición y la velocidad de una partícula; por ejemplo un electrón en movimiento. Pues
bien, hagamos lo que hagamos, la posición de la partícula no es precisable, porque ésta, si por las características del experimento llega a
ser visible, lo será muy borrosamente, o al revés, si se registra la nitidez existencial del electrón, quedará su verdadera posición en extremo
imprecisa para el observador. Se trata de un dilema entre dos clases de incertidumbre. La posición y el movimiento de una partícula adoptan un comportamiento que los matemáticos denominan como "conjugado".Si se quiere aumentar la exactitud o ganar precisión respecto a uno de ellos hay que renunciar a otro tanto en el otro. Ocurre que la observación a una escala material tan ínfima viene condicionada por los comportamientos de los fotones que le dan un tinte de
imprevisibilidad ineludible.
Precisamente,
la principal dificultad para encontrar una teoría que sea capaz de
unificar la gravedad con las otras fuerzas estriba en que
la relatividad general, de Einstein, es una teoría clásica, lo que significa que no incorpora el “principio de
incertidumbre” de la mecánica cuántica. En cambio, las otras teorías parciales sí que dependen esencialmente
para su elaboración de la mecánica cuántica. Por
eso, parece aconsejable combinar la relatividad general con el principio de incertidumbre. Ahora bien, encontrar una teoría "completa" para las cuatro fuerzas presenta un serio inconveniente, como es el de que los valores reales de las masas y las intensidades de las fuerzas han de ser elegidos en función de su adecuación o ajuste a las observaciones y no pueden ser deducidos como exigiría un buen desarrollo lógico de la teoría. Se sospechó durante cierto tiempo de la existencia de esa
dificultad, pero fue en 1972, cuando
finalmente se confirmó el problema de combinar el principio de incertidumbre
y la teoría de la relatividad. Su
posible solución fue sugerida en 1976 con la llamada <<supergravedad>>.
El nuevo marco para la unificación total, permite
compaginar la idea de que el control que ejerce una única fuerza maestra sobre la totalidad del universo, se adecua perfectamente con su desdoblamiento a través
de diversas facetas, como pueden ser, el electromagnetismo mediante los denominados fotones mensajeros, la fuerza nuclear mediante algunas raras partículas como los gluones, u otras manifestaciones de diversa naturaleza.
En cualquier caso, todas ellas estarían conectadas
a través de la supersimetría. De hecho, la supergravedad ofrece una descripción unificada de la fuerza y la materia, tomando como base que ambas tienen su origen en
diversas clases de partículas cuánticas. A decir verdad, si se desarrollan las matemáticas
adecuadas, nos encontramos con nuevos modos de describir supersimetrías que existieron
durante los
primeros momentos del universo, pero que seguidamente se
rompieron de tal manera, que las partículas habituales en nuestra física conocida adquirieron
sus ordinarias masas pequeñas mientras que las superlativamente
homólogas se materializaron en masas muy grandes. Las superpartículas al ser de vida muy
efímera, se transformaron en un verdadero diluvio de
partículas de una masa muy inferior, pero
también, de mucha mayor estabilidad. Volver
a crear hoy esas superpartículas, requeriría de
unas condiciones análogas a aquellas mencionadas, que son de un extraordinariamente alto nivel energético, lo que constituye un desafío para los aceleradores de
partículas.
Ciertamente, la supersimetría aún no es la respuesta final. Aunque diversas teorías, permiten
dar cuenta de diferentes aspectos de nuestro mundo físico, ninguna supersimetría ha
permitido explicar por si sola el mundo real. Sin
embargo, disponemos por el momento de una teoría que contempla la existencia de una supersimetría particular que merece especial atención. A ese
respecto, la teoría de la supergravedad N = 8 (que así
se llama) es considerada por Stepen Hawking como la culminación de la física teórica. Esta
supergravedad se fundamenta en una hipotética partícula, denominada gravitón, que es
portadora del campo gravitatorio. Junto a ella hay otras ocho
partículas más (de esa peculiaridad nace el nombre de la teoría) llamadas gravitinos, además de 56 partículas reales tales como quarks y electrones y otras 98 partículas
diversas, que son mediadores de interacciones. Aunque los problemas son grandes,
puesto que hay que apoyarse en partículas, en la mayoría de los casos hipotéticas, ésta teoría resulta bastante consistente, finita y no necesita
renormalización, punto este último muy importante, ya que los valores reales de las masas y las intensidades de las fuerzas se deducen
directamente de la teoría y no hay que escogerlos ex profeso para ajustarlos a las observaciones. A medida que mejoren los modelos, también conseguiremos mejorar el conocimiento sobre la realidad, lo cual es muy posible que nos esté indicando la existencia de un perfecto acuerdo matemático de fondo entre la teoría supergravitatoria y la realidad física del universo.
No hay comentarios:
Publicar un comentario