51-CUESTIONES SOBRE DETERMINISMO E INCERTIDUMBRE-
õ
"El mundo material está lleno de
analogías con el inmaterial, y esto es lo que da cierto tono de verdad a ese
dogma retórico de que una metáfora o una comparación pueden fortalecer un
argumento e igualmente embellecer una descripción. El principio de la vis inertiae o fuerza de la inercia,
por ejemplo, parece idéntico en lo físico y en lo metafísico. No es menos
cierto, en cuanto a lo primero, que un cuerpo
voluminoso se pone en movimiento más difícilmente que uno pequeño, y, en
consecuencia, su momentum o cantidad de movimiento esta en proporción con esa dificultad, y
que, en cuanto a lo segundo, los intelectos de alta capacidad son al mismo
tiempo más impetuosos, más constantes y más accidentados en sus movimientos que
los de un grado inferior; son los que se mueven con menor facilidad, los más cohibidos
y vacilantes al iniciar su avance."
Edgar
Allan Poe (escritor estadounidense 1809-1849)
“Dos partículas que tienen
un origen común nunca serán totalmente independientes”
Nicolas Gisin (físico austriaco)
Los antiguos filósofos
griegos
El concepto tradicional de determinismo en un sentido amplio, incluía la convicción de que
todos los fenómenos
están relacionados necesariamente según leyes rigurosas; o lo que es lo mismo, que todo efecto debe estar determinado unívocamente en su causa.
Ya en el mundo clásico, el determinismo tuvo una brillante representación en Demócrito
quien concibió la naturaleza como el resultado de una perfecta regulación del movimiento de los átomos en el espacio vacío. Sin
embargo, su rígido materialismo determinista al
que estaban sometidas todas las cosas y, por supuesto, el hombre, se vio parcialmente mitigado en
Epicuro, y más
tarde en Lucrecio, quienes dado su interés por
encontrar una
explicación física a la supuesta existencia del libre albedrío en los individuos y los hechos azarosos de la naturaleza, introdujeron el concepto de clinamen (o desviación). La observación de que
muchas veces hay un
hallazgo, algo nuevo, en la concatenación de las series causales de los sucesos, lo atribuyeron a una mutación espontánea
en la propia dirección de los átomos, que ejercía una influencia sobre
aquellos desviándolos de su camino natural. Pero
el clinamen no suponía un cambio de dirección en el movimiento del átomo o una indeterminación reflejo
de una libertad de tipo
físico, sino
que era la
determinación original del movimiento, una verdadera fusión del movimiento y su dirección, que relacionaba un átomo con otro.
Por eso, descontada esta pequeña incertidumbre, el determinismo no tuvo
muchos problemas para afianzarse a lo largo de los siglos y encontró su más firme expresión en las primeras décadas del siglo XIX en los escritos de Laplace,
quien sostenía que si pudieran conocerse en un momento dado todas las fuerzas que actúan en
la naturaleza y las posiciones que ocupan
todos los cuerpos, sería
factible prever los estados subsiguientes del universo. Es conocida una famosa frase de su
obra Teoría analítica de las probabilidades: "Para una tal inteligencia todo
sería claro y
cierto y tanto el futuro como el pasado estarían
presentes."
Sin embargo, el combatido determinismo no es hoy en día, sinónimo de
reacción contra ninguna doctrina
indeterminista, como si libertad equivaliera
a indeterminación. Aunque la desigual valoración
que se hace del determinismo
es, por regla general, la de los grados en que se puede
presentar, el hecho cierto es que materialistas, monistas, positivistas,
empiristas, biologistas, etc., han vuelto la
espalda todos ellos al mecanicismo determinista animados, sin duda, por la
obsolescencia en algunos aspectos de la física newtoniana.
Desde un punto de vista
rigurosamente científico, se produjo el abandono en la física del modelo mecanicista universal con la teoría cuántica, al observar que las condiciones iniciales y necesarias de la hipótesis determinista
no se podían realizar determinando unívocamente en cada instante el estado del sistema físico, es
decir, precisando las posiciones y los momentos absolutos de todos los puntos materiales que componen el sistema investigado. No
obstante, las previsiones de Werner Heisenberg, después de la euforia desatada por el
triunfo de su principio de incertidumbre en
el ámbito de la microfísica, le llevaron a
considerar como muy posible la defección del concepto
mismo de antecedencia. En cierto modo, se
sumaba a la
crítica de Peirce (uno de los fundadores del pragmatismo) quien ya había
señalado cómo el supuesto teórico e inconsciente de todo determinismo de origen clásico es
metafísico, pues presupone que la naturaleza constituye un sistema cerrado absolutamente en sí
mismo. Pero tan radical postura no pudo
consolidarse, y el concepto
de antecedencia sigue estando plenamente vigente. En ese contexto se ha desarrollado una corriente de determinismo
desprovista de contenido ideológico y que se adhiere a la revisión formal del concepto de causalidad
necesaria, con
la consiguiente eliminación de las causas finales de la naturaleza, tal como la
concebían clásicamente Descartes, Leibniz y Kant y el excluyente materialismo determinista que estuvo en su pleno apogeo a finales del siglo XIX.
En la actualidad, y después de una revisión formal del concepto de causalidad necesaria, hecha
por el positivismo científico durante el siglo XX, nos hemos vuelto más escépticos.
Ahora somos más modestos y tenemos un concepto más restringido de determinismo: entendemos que es una forma de producción de sucesos condicionados, aunque no
siempre deban hacerlo de una manera causal. Acogiéndonos
a un principio
de determinación, podríamos decir que la
realidad no es un mero agregado de sucesos
aislados e
individuales sino que se condicionan en formas definidas, en las que no caben ni la arbitrariedad ni la incondicionalidad.
Podríamos invocar incluso un principio de causalidad de manera legítima, pero
teniendo en cuenta que éste refleja o reconstruye sólo algunos aspecto parciales de la determinación. Se
mantiene así intacto el ideal de deducir o explicar los efectos observados, a
partir de sus supuestas causas eficientes pero sin pasar por alto la siguiente
advertencia: no siempre el vínculo entre causas y efectos tiene por qué
ser causal. Tal circunstancia no debería ser un desencadenante de zozobras científicas o filosóficas, pues basta para
considerar que haya determinismo, el que podamos reconocer el carácter regular, productivo y genético de la vinculación entre
acontecimientos. A ese respecto, es más censurable que los conceptos que implican
decisiones propias, como los de responsabilidad y libertad, se manejen habitualmente con
cierto desparpajo tratando de soslayar el consabido problema de nuestros
condicionantes físicos, biológicos y ambientales.
Cuanta más libertad, espontaneidad o autodeterminación rijan
nuestras tomas de decisiones, más podemos
sentirnos tentados a creer que la base de esa "libertad moral" es la indeterminación
física (y
consiguientemente biológica). Pero, como
cualquier objeto concreto existente, sólo podemos tener cierto grado de
espontaneidad. Ésta tiene sus limitaciones,
tanto las intrínsecas como las derivadas de nuestra vinculación con el ambiente e infinidad de otros
existentes. Precisamente eso es lo que nos permite decir que nadie es absolutamente libre ni absolutamente
responsable. Es ese margen de lo condicional, que no entra en los dominios de nuestro
control consciente a lo que llamamos determinismo mental (que sería el resultado de un determinismo de más
amplio espectro y ligado a los sucesos del mundo). Aunque los grados de libertad más
elevados aparecen en los seres humanos por su autoafirmación activa y consciente es
imposible eliminar la vinculación que existe con los sucesos cósmicos. Únicamente se puede aspirar a una regulación
consciente de la determinación teniendo como guía la laxitud de los nexos entre causas y efectos. Al haber desaparecido la seguridad de poder
realizar un
seguimiento riguroso del curso de los hechos, no se acepta que éstos se rijan exclusivamente
por la
existencia de leyes necesarias. Un determinismo
sutil (pero no débil o inconsecuente) que tiene cabida muchas veces en el campo de lo probable, es el camino
de acceso a la realidad, es decir, de nuestra realidad mental.
A tenor de lo dicho y ciñéndonos concretamente a los aspectos deterministas que condicionan esa realidad, se puede
observar que ésta no se sitúa meramente en un lugar de confluencia virtual de fuerzas de distinta índole, sino que pasa a ocupar su
propio espacio. La existencia de mentes se ha convertido en una verdad axiomática, y si no admitimos que
haya intervención de factores y elementos que permitan explicar el origen determinista de su comportamiento, se
haría muy difícil encajar lo que todas tienen de común (la consciencia) con lo que podríamos denominar una eidética reciente de lo cósmicamente probable.
No
se concibe tal cosa en cierta clase de pensamiento indeterminista contemporáneo.
La aceptación del "eidos"
platónico (especie inteligible e incorpórea, eterna y separada de los seres sensibles pero informada por ellos) se transforma, por ejemplo, en un término técnico de la fenomenología de Husserl que es identificada con la "esencia"
y se
refiere al
resultado de la reducción eidética de la
conciencia individual y de su flujo de
experiencias vividas. Pero para nosotros, el
eidetismo,
en tanto en cuanto no se limite a ser una aplicación
reduccionista de imágenes y amplíe su campo de acción a las impresiones (en el sentido que les dio Hume) o ideas, (en sentido
cartesiano) no tiene por qué quedarse en un método que dé como
resultado una conciencia pura que sea calificada (a pesar de la renuncia a la aceptación
incondicional de todos los influjos que actúan libremente sobre ella) de
trascendental. Tampoco ha de limitarse a ser
una mera
proyección visual del mundo en el que se desenvuelve la mente, sino que puede y debe ser una proyección inductora y global del mundo que posibilite su interiorización mediante los datos sensoriales, aunque
no por los datos
sensoriales brutos (los fenómenos) solamente. También
son importantes los conceptos elaborados por el intelecto que es influido por
los influjos histórico-culturales del momento.
Si imaginásemos por un instante que lo probable (lo
improbable no cuenta, pues éste es un caso
particular de la probabilidad que tiene un carácter más remoto) nos indetermina física y mentalmente, ¿querría
decirse con
eso, que estamos determinados como un espejismo? Aun así,
no hay físico que no pueda dar una explicación física de un espejismo.
Entonces, ¿por qué no podemos definir las realidades mentales
como frutos determinados en el seno de lo probable omnipresente? Causas
próximas o remotas, probabilismo determinista o determinismo colectivo
(impropiamente llamado estadístico) y estructural son, si bien se mira, distinciones de matiz. Un determinismo se supone
rige nuestras vidas. Lo que ocurre es que las distintas categorías de determinación están relacionadas
de modo que no siempre es perceptible. De ahí el
pase sin transición por parte de algunos estudiosos de la
naturaleza, del mecanicismo más cerrado al acausalismo más radical. El
resultado es que las causas o bien se inventan o
se cree encontrar en los fenómenos una facultad
autodeterminativa libre de presupuestos condicionantes. En realidad se abraza el indeterminismo, cuando hay una cierta renuncia de
antemano a entender o explicar la "complicatio" en términos reconocibles, o en otras palabras, basándose generalmente en una
información oculta o esotérica a la que no se tiene capacidad de acceso.
Pero, con seguridad, debe haber grados o niveles de determinación siempre y en todo el universo, porque incluso cuando
se observan procesos de autodeterminación cuantitativa (de eso tenemos ejemplos en los sistemas inanimados,
objetos de estudio por parte de Prigogine) puede apreciarse que ésta surge de procesos caracterizados
por otras categorías de determinación, sin excluir la causativa.
El "puzzle"
cuántico
Sin embargo, la irrupción de la teoría cuántica en el panorama de la física del primer
cuarto del siglo XX pareció
conmover los cimientos del determinismo al constatarse que la materia no está
constituida por partículas últimas, determinables en su disposición espacial,
en sus movimientos y sus medidas. Hasta entonces, había una física clásica que
de acuerdo con el sentido común presuponía un mundo objetivo que evolucionaba de un modo claro y determinista,
gobernado por ecuaciones matemáticas exactamente formuladas. Se consideraba que
nuestras mentes y nuestros cuerpos, al formar parte de este mismo mundo, evolucionaban de
acuerdo con
las
mismas ecuaciones de la física clásica y determinista, y eso independientemente de las sensaciones que pudiéramos
tener de que somos nosotros, los que nos gobernamos gracias a nuestras voluntades
conscientes.
Pero la teoría clásica
tropieza con
una serie de dificultades, que fueron pasadas por alto en el pasado. La principal de
ellas radica en el hecho de que las partículas no son piezas sueltas
que se aglomeran sin más, sino que coexisten
con otro
tipo de objetos físicos. Las mismas partículas necesitan describirse mediante un número finito de parámetros
compuesto por tres posiciones y tres momentos, pero además, están acompañadas por los campos, otro
tipo de objetos físicos que requieren para su descripción un número infinito de parámetros.
Esta diferenciación, con la que tenía que vérselas la nueva física cuántica es puramente nominal y en la realidad no es
físicamente consistente. Lo cierto es que un sistema completamente asentado, en el que las partículas y los campos están en
equilibrio, es aquél en el que las partículas tienen cedida toda su energía a los campos. En situación de equilibrio se produce el fenómeno de la equipartición de la energía, es decir, la energía se reparte por todos los grados de libertad del sistema; pero como los campos tienen
infinitos grados de libertad absorben toda la energía disponible dejando a las partículas
absolutamente desprovistas de ella.
La primera consecuencia, es que los primitivos modelos de sistemas atómicos
elaborados a modo de sistemas solares en miniatura no podían ser estables, pues
todo el movimiento de las partículas se
transferiría a los modos ondulatorios de los campos. El inconveniente principal en un modelo así concebido
es que cuando un
electrón orbital se moviera alrededor del núcleo debería emitir, sobre la base de la teoría clásica y siguiendo las ecuaciones de
Maxwell, ondas electromagnéticas de intensidad creciente hasta infinito en una ínfima fracción de segundo,
al tiempo que se
precipitaría hacia el
núcleo penetrando en él.
La realidad desaprueba de forma contundente esta interpretación y lo que ocurre no tiene congruencia con la teoría clásica. Sí, los átomos pueden emitir ondas electromagnéticas en forma de
luz pero únicamente en destellos de características específicas y frecuencias
discretas. Cada clase de átomo que componga un material calentado, emite su propia luz que contiene
frecuencias muy particulares. Dichas frecuencias pueden ser separadas mediante el uso de un prisma que proporciona las líneas espectrales
características del átomo de que se trate. Cada átomo tiene su propia huella luminosa, pero las frecuencias a que dan origen a esa huella obedecen a
reglas descriptibles que carecen de fundamento desde el punto de vista de la teoría clásica.
También hay otra inesperada muestra de la inestabilidad en
la coexistencia de campos y partículas en el fenómeno conocido como radiación del cuerpo negro. Recordemos que el cuerpo negro absorbe toda la
radiación que le
llega; precisamente su nombre proviene de que, al ser nula la reflexión, no ha lugar para
distinguir colores por este procedimiento. Además, como ha de mantener su temperatura
constante, debe emitir la misma energía que absorbe. Éste puede ser el caso de cualquier
objeto que se encuentre en alguna temperatura definida y con la radiación
electromagnética en equilibrio con las partículas, siendo capaz de absorber completamente las
radiaciones que incidan sobre él, cualquiera que sea la índole o radiación de las mismas. Con sentido común, aunque no con todas las variantes de él, los físicos John W. Rayleigh
y James Jeans
calcularon que toda la energía sería absorbida por el campo sin límite alguno. Es decir, la energía seguiría
fluyendo con frecuencias cada vez mayores
y sin cesar, hacia el campo y culminando en la catástrofe
ultravioleta. Pero una vez más, la naturaleza no estaba de acuerdo con los métodos de la física clásica. En el caso de las
frecuencias bajas en las oscilaciones del campo, la energía se distribuía como habían
predicho ambos físicos, pero en el grado extremo de frecuencias altas, las observaciones
demostraron que no solo no hay catástrofe, sino que la distribución no
crece sin límite y llega a caer a cero conforme crece la frecuencia.
Los dos casos descritos
presuponen la
observación,
y ésta, a
su vez, presupone que entre los fenómenos a observar y las percepciones
sensoriales que finalmente entran en nuestra conciencia existe una relación unívoca y conocida. El tema es que de esa relación sólo podríamos estar seguros si
conociésemos las leyes de la naturaleza que la determinan. Ahora bien, cuando es preciso poner en duda esas leyes el concepto de observación se altera y cambia de significado.
Es entonces cuando la teoría determina lo que puede y cómo puede observarse. Así, el esquema de partículas
materiales original de la física de Newton necesitaba para ser coherente, complementarlo con el campo electromagnético que también era materia. Hecha esa aclaración, solo cabe decir, que si ambas cosas eran materia, no se ve que haya dificultad lógica alguna que nos impida
sugerir que
las
partículas podrían considerarse unos campos sui géneris que han de precisar de algún
elemento o
componente natural que haga posible que los campos normales adopten características discretas.
En el año 1900 (el mismo en el que Rayleigh y Jeans ensayaron su
hipótesis de trabajo de la catástrofe ultravioleta) el físico alemán Max Planck sugirió una solución verdaderamente
original para suprimir los extraños modos de alta frecuencia del cuerpo negro: para ello propuso que las oscilaciones electromagnéticas deberían suceder en
cuantos o pequeñísimos paquetes cuya energía E
mantendría una relación definida con la frecuencia v, del
siguiente modo E = ℎv siendo ℎ una constante de acción fundamental de la naturaleza, que más tarde
se llamó constante de Planck (es tan pequeña como 6,62559 x 10-³⁴ julios
por segundo). Quizás en un primer momento nadie lo supo, pero acababa de
anunciarse al mundo los primeros y geniales esbozos de lo que luego sería la revolucionaria y fertilísima teoría cuántica.
Al mismo Planck le desagradaba profundamente la idea del intercambio energético en porciones discontinuas y realizó muchos esfuerzos
para desestimar su propia hipótesis y, a ser posible, olvidarse de ella.
La idea del continuum había
ganado mucha fuerza en los siglos precedentes, y a ella se le había añadido el descubrimiento por parte del inglés Thomas Young de que la luz consiste en ondas. Sin
embargo, la
atención para la propuesta de Planck, resurgió
cuando Einstein planteó una audaz teoría. Como Maxwell y Hertz habían
demostrado hacía tiempo que la luz consiste en
oscilaciones del campo
electromagnético, y el mismo Newton había
sugerido dos siglos antes que, la luz, después de todo, debía estar compuesta de
partículas; solo habría que asociar los hechos probados con la idea, para llegar a esta conclusión: los campos
electromagnéticos solo pueden manifestarse en ese tipo de unidades
discretas. Que la luz consistiera en partículas y en oscilaciones del campo al mismo tiempo, era
verdaderamente algo muy nuevo y chocante, puesto que suponía la armonización de dos
concepciones, en principio, irrevocablemente opuestas.
Pero en 1923 el físico francés Louis de Broglie proporcionó otra ℏ (constante) más ajustada a la realidad en esta aparente confusión entre
partícula y onda. La propuesta
de De Broglie contemplaba que las propias
partículas de materia habrían de comportarse a
veces como ondas. Es más, eso implicaba que la clásica dicotomía tradicional
entre partículas y campos era una disquisición mental pero no una característica
imputable a la realidad de la naturaleza física del mundo. La frecuencia de la onda de De Broglie v para una partícula de masa m,
cumple perfectamente con la relación de Planck y si se combina con la famosa relación de Einstein E =m.c² sucede
que v está relacionada con m mediante las igualdades: ℎv = E = m. c²
Durante poco tiempo, pareció observarse como si la naturaleza diera lugar a un mundo físico consistente, en
el que partículas y oscilaciones de campo fueran casi la misma cosa.
No obstante, se echaba de menos algún componente
más apropiado y sutil, que confiriera a las
expresiones
partículas
y ondas una imagen más fidedigna a lo que en realidad debían representar. Un cuarto de siglo después
de la
solución provisional y no deseada de Planck, los inventores de la mecánica ondulatoria
creyeron temporalmente que preparaban la vía a la descripción clásica continua y determinista, pero vieron
frustradas sus esperanzas. La naturaleza, no solo
parecía rechazar la descripción continua, sino que la teoría cuántica
remitía a los
físicos, nada menos, que a las elucubraciones mentales que veinticinco siglos antes
habían tenido Leucipo y Demócrito, que fueron los visionarios que, a
pesar de su contrastado determinismo, concibieron la primera
discontinuidad, es decir, los átomos esparcidos y flotando en el espacio vacío.
La teoría cuántica tal como la conocemos hoy, surgió de un planteamiento un poco posterior y debido a autores independientes entre sí. Éstos fueron: el físico alemán Werner Heisenberg
y el también físico austriaco Erwin Schrödinger.
En un primer momento los dos esquemas presentados casi simultáneamente, parecían muy distintos,
puesto que Heisenberg descartó deliberadamente toda imagen del átomo y se basó únicamente en
magnitudes que podían medirse en los experimentos, (en lo profundo de su teoría, yacía la idea de que los electrones eran partículas) mientras que Schrödinger partió de una imagen física del átomo postulando que se trataba de una entidad real (su
teoría, de acuerdo con sus inclinaciones deterministas, presuponía la idea de que los electrones eran ondas). Pero
enseguida se observó la estrecha equivalencia de ambos esquemas, al comprobarse que daban
lugar a ecuaciones que describían exactamente el
comportamiento de propiedades que se podían
medir en el
extraño mundo cuántico. Es por eso que se pudieron agrupar fácilmente dentro de
un ámbito más
general e
inteligible, gracias sobre todo a la labor del físico teórico Paul Dirac. La versión de este último
es la más
completa porque el desarrollo de su álgebra cuántica comprende tanto la mecánica matricial como la mecánica ondulatoria,
incluidas ambas en casos especiales.
Heisenberg comenzó por tratar como asunto de interés prioritario el
esclarecimiento de la significación de las ondas de De Broglie, que guían a las partículas materiales en su movimiento. Porque en un principio no se
sabía si eran ondas reales como las ondas de la luz, o hábiles ficciones matemáticas introducidas por su utilidad para
describir los fenómenos físicos del microcosmos. Enseguida se dio cuenta que la raíz de la dificultad
estribaba en el
intento de aplicar los métodos de observación ordinarios a fenómenos que tienen
lugar a escala atómica o subatómica. En el mundo habitual de la experiencia
cotidiana podemos observar cualquier fenómeno y medir sus propiedades sin importarnos las consecuencias
ulteriores de tal decisión, pues estimamos que no hay influencias perturbadoras
significativas que alteren la naturaleza misma del fenómeno. Pero en la escala microcósmica
en la que
experimentamos, no se puede pasar por alto la perturbación producida por la introducción de los aparatos de medición. Las energías puestas
en juego son tan pequeñas, que incluso la medición realizada con mayor cuidado puede originar perturbaciones muy
sustanciales y no puede garantizarse que los resultados obtenidos en dicha medición, describan
correctamente lo que habría ocurrido en ausencia de los aparatos de medida.
En el
mundo macroscópico podemos seguir la trayectoria de una pelota de tenis, de
ping-pong o de fútbol sin que se
afecte esa trayectoria para nada. Es cierto que la luz ejerce una cierta presión sobre la superficie de
cualquiera de las pelotas de que se trate, pero es demasiado pequeña para
afectar a la trayectoria de las mismas, y despreciable si se trata de medir sus efectos.
Pero la cosa cambia, y mucho, si reemplazamos la pelota por un objeto físico tan pequeño como un electrón.
A tal efecto, y a modo de experimentación Heisenberg imaginó un cañón electrónico
especial que era capaz de disparar un solo electrón horizontalmente en una cámara vacía, a la que se le había extraído hasta la última molécula de aire. La luz provenía de una fuente ideal, que podía emitir
diversos electrones seleccionando a discreción su número y longitud de onda. A través de
un microscopio también ideal, capaz de sintonizarse a voluntad, se podía observar el movimiento
del electrón en la cámara a lo largo de todo el espectro, es decir, desde los más cortos rayos
gamma hasta las ondas de radio más
largas.
Si hubiera que atenerse a los textos clásicos de mecánica, el electrón al ser disparado en la cámara debería seguir una trayectoria
previsible y conocida como
parábola. Pero en realidad, en el momento en que un
fotón colisiona con él, el electrón retrocede y cambia de velocidad. Al observar la partícula en puntos sucesivos de su movimiento, se
comprueba que sigue un curso zigzagueante a causa de los impactos del fotón. Como disponemos
de un
instrumento ideal muy flexible, podemos reducir la importancia de los impactos disminuyendo la energía de los fotones, algo que es factible utilizando luz de menor
frecuencia. Podemos, incluso, conseguir que la
perturbación del movimiento del electrón sea tan pequeña como queramos. De hecho,
nuestro aparato nos permite llegar al límite de una frecuencia infinitamente baja. Pero entonces sí que
surgen nuevas e importantes dificultades epistemológicas. Cuanto más larga
dispongamos que sea la onda de luz, menos seremos capaces de determinar el objeto a causa del efecto de difracción.
Hilvanando esas peculiaridades del movimiento
electrónico, Heisenberg consiguió demostrar que el
producto de las incertidumbres sobre
la posición y
la velocidad nunca puede ser menor que la constante de Planck dividida por la
masa de la partícula.
La cuestión es que si
experimentamos con ondas muy largas podemos determinar la velocidad de la partícula porque está imperturbada, pero estaremos en un alto grado
de incertidumbre acerca de su posición. Mientras que si experimentamos con ondas muy cortas podemos
definir claramente la posición de la partícula en movimiento, pero entonces interferimos en gran medida
su velocidad. Puede escogerse un camino intermedio
entre ambas incertidumbres pero nunca eliminarlas absolutamente. Si,
por ejemplo, utilizamos una longitud intermedia de onda luminosa conseguiremos
perturbar no excesivamente la trayectoria de la partícula, y a cambio, lograremos determinar su trayectoria con bastante
aproximación. Es decir, podemos representar
de una manera medianamente satisfactoria la trayectoria observada de un electrón, expresándola
en términos clásicos, aunque eso sí, no se verá reproducida en una línea fina,
precisa y
afilada (que significaría la ausencia de indeterminación) propia de una,
claramente determinable, sino más
bien como una banda ligeramente borrosa y de difuminados límites, que es la sinopsis de dos clases
irreductibles de incertidumbre.
Heinsenberg concluyó pensando después de todo esto, que a un nivel microfísico debemos rechazar la idea de que la trayectoria de un objeto es una línea matemática ideal, es decir, infinitamente delgada.
Cuando observamos fenómenos en el mundo en grande de la
experiencia corriente, podemos pensar que un objeto se mueve manteniendo una cierta ruta por
una especie de vía determinada de antemano. Pero las pequeñas partículas materiales, tales como protones o
electrones, carecen, en cierto modo, de movimiento
individual y se mueven dentro de un margen, guiados por ondas, que pueden asimilarse bastante bien con las trayectorias de línea ancha de la mecánica clásica. Esto tiene su importancia,
porque si bien podemos representar la
trayectoria de un
electrón satisfactoriamente por una línea, la cosa cambia si nos
proponemos describir la órbita de un electrón dentro de un átomo en los mismos términos. En ese caso, la banda de incertidumbre es tan ancha como la distancia a la órbita desde el núcleo. La guía de las partículas por las ondas se realiza
de una
manera estocástica y no por un riguroso orden
determinista. En otras palabras, hay incertidumbre
porque solo podemos calcular la probabilidad de que una partícula material
pueda ser encontrada en un cierto sitio por un instrumento apropiado o de que un electrón colisione con un punto dado de una pantalla de
detección, pero no podemos asegurar de ninguna
manera la ruta que seguirá en un campo de fuerzas dado.
Lo cierto es que las descripciones cuánticas son
muy precisas, aunque completamente diferentes de las familiares descripciones clásicas. Las probabilidades, en
realidad, no surgen en el ínfimo nivel cuántico de las partículas (las cuales evolucionan de una forma determinista) sino que, se conjetura que puedan
hacerlo por vía de acción a una mayor escala, seguramente ligada con la emergencia de las propiedades del mundo macroscópico que nos
es tan habitual. De hecho la expresión probabilidad en física cuántica se utiliza en un sentido bastante diferente al que se le suele dar en la física clásica y la vida cotidiana. La física clásica presupone que su ámbito de aplicación se
extiende a un
problema tal como el del comportamiento de las moléculas de un gas. Éste se describe
sobre la
base de la
probabilidad estadística a causa del conocimiento deficiente o incompleto que tenemos. Pero
si se diera el
caso de que conociéramos las velocidades y posiciones de todas las partículas del gas, sería factible predecir con gran exactitud todos los sucesos dentro de la masa de gas. Sin embargo, el principio de incertidumbre
elimina de un
plumazo toda esperanza de poder predecir los movimientos de las partículas individuales, pues nunca conocemos (ni podemos conocer) con precisión las condiciones
esenciales en el
primer lugar que ocupan. Las partículas no son susceptibles de hacer descripciones
individuales para cada una de ellas, sino que deben
considerarse como complejas superposiciones de configuraciones alternativas de
todas ellas en
conjunto.
En una imagen clásica, un electrón
podría ser localizado en la posición A o tal vez en la posición B. Sin embargo, en la descripción de la mecánica cuántica, las posibilidades del electrón son mucho más amplias de lo que imaginamos. El electrón, además de poder ocupar una cualquiera de las dos posiciones mencionadas,
alternativamente, podría ocupar uno cualquiera de otros muchos números de estados posibles, con lo que de algún modo no evidente, ocupa ambas posiciones simultáneamente.
Si empleamos la notación ∣A |para significar el estado en el que el electrón está en la posición A,
y la notación ∣B | para significar el estado en el que el
electrón está en la posición B, según la teoría cuántica, existen
además otros estados posibles abiertos al electrón, que se pueden representar así:
w│A∣+ z│B∣, donde los llamados
factores de peso w y z que aparecen son números complejos (de los que al menos uno debe ser no nulo). Es
decir, en mecánica cuántica cada posición simple que la partícula pudiera
tener es una
alternativa disponible para ella. No podemos asegurar en términos clásicos y familiares lo que significa que un electrón esté en un estado de superposición
de dos sitios al
mismo tiempo, con factores de peso complejos. Pero si sabemos que esta colección de pesos estadísticos
complejos, describe el estado cuántico de la partícula. Es
completamente normal que encontremos que el mundo en el nivel cuántico se comporte realmente de
este modo tan inhabitual para nosotros. Las superposiciones
constituyen una parte muy considerable de la
construcción real del mundo microscópico. Habitualmente
se utiliza la
letra griega ψ (psi) para esa colección de pesos estadísticos, que es considerada una función compleja de la posición (llamada la función
de onda de la partícula). Con cada posición x la función
de onda toma un valor específico, que se denota como (x) e indica cual es la amplitud asociada a la partícula que esté en x. Lo que se sugiere es la idea de que hay una realidad física de la localización de una partícula, que en realidad
es su estado cuántico. Simplificando, podemos utilizar la letraψ para consolidar el estado cuántico como un todo. Las descripciones a que da lugar
son muy claras, matemáticamente precisas y absolutamente deterministas. Su evolución unitaria se
describe mediante lo que se denomina la ecuación de Schrödinger que proporciona la tasa de cambio con respecto al tiempo de la función de onda o estado cuántico. La luminosa imagen nos dice que el estado cuántico que podemos
representar por ∣ψ|, expresa, con factores de peso complejos, la suma global ponderada de
todas las posibles alternativas
abiertas al sistema. Así, el estado cuántico (o │ψ|) para el caso particular que hemos mencionado antes, incluiría una combinación compleja en donde las alternativas abiertas al electrón, (recordemos), eran
que podría estar en una posición convencional (clásica) A o en otra posición convencional (clásica) B. Su representación cuántica sería la siguiente:
│ψ∣= w│A∣+ z│B∣, donde w
y z son números complejos (uno de los cuales, al menos, no puede ser nulo). De este modo, llamaremos superposición
lineal de los dos estados │A∣y │B∣a la combinación w│A∣+ z│B∣, entendiéndose también como vector
de estado esa cantidad (o │ψ∣). Normalmente comprende estados
cuánticos más generales tales como la suma:
Vector de estado = u│A∣+ v│B∣+ w│C∣+........+z│F∣=│ψ| donde, una vez más u, v, w,....z son
números complejos (no todos nulos).
La evolución se produce siempre
como si cada componente de una superposición fuera ajeno a la presencia de los otros. Cada realidad
descrita por esos estados componentes evoluciona de forma dependiente, de
acuerdo con la misma ecuación
determinista que los demás, y conforme procede la evolución se mantienen los valores de peso complejos asociados a la superposición lineal
concreta que
describe el
estado global.
No obstante, esas informaciones empíricas que se resumen en la función de acuerdo con la postura adoptada por el positivismo científico, sólo tienen un significado de probabilidad. Es decir, la interpretación usual, de la teoría cuántica implica una indeterminación empírica,
por más que se señale que las probabilidades evolucionan de modo estrictamente prescrito y unívoco de acuerdo con la famosa ecuación de
Schrödinger, que se trata precisamente de una ecuación diferencial en la que el
tiempo desempeña un papel de variable independiente. El mismo Schrödinger a quien repugnaba la idea de abandonar la seguridad epistémica de la física clásica, creyó por poco tiempo (los primeros meses de 1926) que su teoría ondulatoria haría posible
un retorno a la física clásica determinista. Propuso abandonar por completo el modelo de partículas y considerar los electrones como una distribución continua de densidades ψψ= │ψ|² (o de densidad eléctrica e│ψ│² ). Pronto se dio cuenta que no es fácil ligar el problema del determinismo con el problema de la realidad. Como dice Max Born, "casi la totalidad de los experimentos conducen a predicciones sobre frecuencia de
sucesos, aun cuando surjan bajo el seudónimo de sección eficaz y otros análogos".
Ψ( Psi ) describe,
es cierto, la realidad del mundo en tanto que
está gobernada por una ecuación determinista y no se manifiesta nada en ella de ese indeterminismo que se supone es la característica inherente a la teoría cuántica. Ahora bien,
eso es cuando nos referimos a un proceso de evolución unitario. Pero
cuando "hacemos una medida" tratando de amplificar los efectos cuánticos hasta el nivel de la física clásica (o de los procesos macroscópicos), cambiamos ostensiblemente las reglas. En ese momento dejamos de
utilizar un procedimiento unitario (regla determinista) y adoptamos un procedimiento completamente diferente que podemos
llamar probabilista,
que consiste en
elevar los
cuadrados de los
módulos de las amplitudes cuánticas con el propósito de conseguir probabilidades
clásicas que también se puedan considerar deterministas.
Pero entonces, es
cuando al introducir
el procedimiento
de la regla determinista, se introducen a su vez probabilidades e incertidumbre en la teoría cuántica. Así pues, lo que nos asegura la ecuación es que si
suponemos que se parte de un estado de posición ╽A∣muy próximo a un estado de posición ╽B∣, éste se dispersará rápidamente. Ese comportamiento no es
ni indeterminado ni probabilista, dado que es un modo completa y monótonamente fijado por la ecuación. Pero si decidimos "medir" el momento, entonces se
produce una
gama de amplitudes conforme con todos los diferentes valores posibles del momento que tienen
iguales módulos al cuadrado. De tal acción, y de acuerdo con el principio de
Heisenberg, se deriva una completa incertidumbre sobre el resultado del experimento.
El formalismo cuántico resulta ser demasiado extraño para
lo que es la lógica ordinaria. Porque
cuando tenemos un vector de estado │ψ∣que evoluciona unitariamente
(mientras permanece el
sistema en el nivel
cuántico) y
amplificamos sus efectos de tal modo que influyan en las cosas en el nivel clásico, se producen los consabidos y molestos "saltos cuánticos" en │ψ∣. La única explicación plausible a la que se le atribuye tal brecha entre ambos mundos, es que hay un tipo de coexistencia establecido entre la evolución determinista y unitaria de la física
cuántica y la regla (o el procedimiento de registro
reglado) que, además de ser perturbadoramente
discontinua y probabilista, es epistemológicamente inaccesible. Es solo cuando se hacen las
medidas, cuando intervienen la incertidumbre y las probabilidades.
Por eso el registro de un simple suceso cuántico, produce
eventualmente una perturbación en el nivel clásico. Así
sucede, por ejemplo, cuando una célula fotoeléctrica detecta un fotón en forma de
chasquido audible, o cuando queda registrada la
llegada de otro fotón en forma de marca
visible, en una placa fotográfica. En ambos casos, el aparato de medida consiste en un sistema de registro preparado con todo detalle para
aprovechar un ínfimo suceso cuántico y
desencadenar un efecto observable en una escala de la física clásica. Es justamente en ese paso problemático
desde el nivel
cuántico al nivel clásico, cuando los números complejos
implicados en |ψ∣elevan los
módulos de las amplitudes cuánticas al cuadrado, hasta convertirse en unas desconcertantes probabilidades clásicas.
Así pues, cuando decimos en términos cuánticos, que un electrón está en un estado de superposición de dos lugares al mismo tiempo con factores de peso complejos (w│A∣+ z│B∣) debemos aceptar sin reservas
que este es realmente el tipo
de descripción que nos conviene (o mejor, que necesitamos) adoptar para sistemas de nivel
cuántico. Tales superposiciones son el modo en el que la construcción del mundo microscópico se presenta
como un hecho cierto. La descripción es precisa y completamente determinista a su nivel: en ella subyace una misteriosa teoría de los números complejos, que permite
excluir la opinión común de que el mundo
cuántico es un mundo plagado de indeterminación.
La cuestión más importante, una vez conocido el modo de construcción del mundo cuántico, es saber si
podemos calcular realmente las diferentes probabilidades referidas a los resultados alternativos de una medida sobre un estado superpuesto. Y, efectivamente,
disponemos de una regla adecuada para calcular dichas probabilidades.
La regla
establece que si tenemos una medida que resuelve entre estados alternativos, digamos │A∣y │B∣, utilizando en la situación inicial sendos detectores en │A ∣ y │B∣, ocurre
que los detectores se encuentran con el estado superpuesto w│A∣ + z│B∣, y la razón entre la probabilidad de que un detector registre en A y la probabilidad de que el otro detector registre en B viene
dada por el cociente de los módulos al cuadrado│w│² : │z│²
. Es decir, el estado cuántico parece saltar misteriosamente desde un estado que implica la superposición w |A| + z | B| a otro en el que solamente está implicado |A| o solamente lo está |B|. Este salto de la descripción del estado de un sistema desde el estado superpuesto en que se encuentra a nivel cuántico
a otra descripción en la que tiene lugar una de las dos alternativas del nivel clásico, se
denomina colapso
de la función de onda o reducción del vector de estado.
Aclaremos que la
regla de la medición probabilista con su adecuado, aunque modesto, grado de incertidumbre se
manifiesta cuando aparecen los mencionados módulos al cuadrado de los números complejos w y z. Pero el módulo al cuadrado de un número complejo es la suma de los cuadrados de sus dos partes componentes: una real y otra imaginaria; así tenemos, que: z = x + iy, siendo x e y números reales. Por consiguiente, el módulo al cuadrado es │z│² = x² + y² lo que es = (x + iy) (x -iy) y asimismo = z z'; siendo z' (= x-iy)
el complejo
conjugado de z. Y de manera análoga se procedería en el caso w' con relación a w.
Como vemos, en el mundo cuántico, los pesos complejos no desempeñan de por si un papel como probabilidades relativas, dado que
por su propia naturaleza no podrían hacerlo. El mismo sistema de los números complejos tiene su propia realidad intrínseca e intemporal que desborda las construcciones mentales que
pueda realizar cualquier matemático por el interés general. Solo cuando las llamadas probabilidades de Cardano (descubridor del útil artificio matemático
de introducir la raíz cuadrada de un número negativo en la resolución de determinadas ecuaciones cúbicas y cuyo trabajo pudo
extenderse con
provecho hasta el álgebra actual de los números complejos) entran en escena se produce un cambio sutil en las reglas reales de la teoría cuántica. Es
decir, cuando se elevan los módulos al cuadrado de
dichos números
complejos (que
son números reales) y se realizan las medidas sobre estados
normalizados (esta condición se cumple cuando la suma de los módulos al cuadrado sea la unidad: │w│² + │z│² = 1) a fin de
proporcionar las verdaderas
amplitudes de probabilidad nos encontramos con que aparecen la incertidumbre y las probabilidades.
Según la noción elaborada por David Bohm tenemos que: dado que ψ es la función propia del operador en cuestión correspondiente al n-ésimo valor
propio, en ningún modo describe un estado que pudiera ser el de un sistema único; en realidad se refiere a muchos sistemas, a un conjunto de sistemas propios de la mecánica estadística. Si
(como también dice Einstein) con excepción de ciertos casos especiales, la función ψprovee tan sólo datos estadísticos de magnitudes
mensurables, el motivo está no sólo
en el hecho de que la operación de medición
introduce elementos desconocidos, sino también en el hecho de que la función ψ, en ningún sentido,
describe el estado de un sistema único.
Y como no pueden existir funciones de onda que sean al mismo tiempo funciones
propias de todos los operadores significativos (pues no siempre son conmutables)
para un problema físico
dado, Bohm extrae dos conclusiones: 1) no todos los observables físicamente significativos pueden ser
determinados a la vez. Y 2) quizá haya que
presuponer un
reconocimiento de que en la mecánica cuántica subyace la acción colectiva de ingredientes o partes más pequeñas del sistema de las que no tenemos
conocimiento directo, porque sino nos vemos obligados
a admitir de una manera forzada que aquellos que no sean determinados,
fluctuarán desordenadamente para una serie de mediciones de un conjunto representado por la misma función de onda.
En consecuencia, la teoría estándar es suficiente si nos conformamos con un grado muy notable de objetividad física, pero nos
vemos obligados a prescindir de cualquier indicio de determinismo.
El vector de
estado por el mero hecho de evolucionar normalmente, proporciona
"realidad" al acogernos al procedimiento determinista de la regla continua unitaria. Pero
es inevitable que, "de cuando en cuando", y de forma extraña se
produzcan saltos (según la regla probabilista) al amplificar un efecto hasta el nivel clásico. Tal comportamiento
significa que nos encontramos ante el problema de la no localidad y aparentes dificultades con la teoría de la relatividad.
Así pues, la identificación del principio de incertidumbre pone
de relieve que, de acuerdo con la ecuación fundamental de la mecánica cuántica, no existen cosas tales como un electrón poseyendo simultáneamente una posición precisa y un momento preciso. Y eso es un hecho muy destacable. Tanto, que en la primera exposición de lo que se dio en llamar la interpretación de Copenhague, a finales de la década de los años treinta del siglo pasado, Bohr señaló
el contraste
entre las
descripciones del
mundo en términos clásicos, de coordinación absoluta del espacio, el tiempo y una cuestionable
causalidad, y la representación cuántica, en la que el observador interfiere con el sistema debido a que es
una parte
inseparable del
mismo. La
posición puede ser representada por las coordenadas en el diagrama espacio-tiempo, y la causalidad se basa en un conocimiento preciso de las cosas que están
ocurriendo, fundado esencialmente en el conocimiento de sus momentos. La
teoría clásica tradicional, presupone que ambas
cosas se pueden conocer a la vez; la mecánica cuántica
sirve para demostrar que la precisión en la coordinación del espacio-tiempo se obtiene a costa de la incertidumbre, la aparición de probabilidades y la esfumación (al menos aparente) de la causalidad o del determinismo.
Si el tema es que no vemos superposiciones lineales de objetos
a escala clásica, a modo de bolas de billar (asemejándose
a electrones) en dos lugares a la vez, ¿que podemos hacer al efecto para conseguir restablecer "la
visión" de nuestras apreciadas evoluciones
deterministas
"perdidas"?.....En fin, dejémoslo
así por el momento.
Experimentos no del todo concluyentes
Cualquier
parte o pieza que compone la estructura de un aparato de medida forma parte del mundo físico
y se ha
construido a partir de aquellos constituyentes con
propiedades mecánico-cuánticas para cuya observación del comportamiento ha sido diseñada ex profeso. Para medir coordenadas espaciales y tiempos se necesitan
reglas rígidas y relojes, y eso no crea problemas. Por el
contrario, para medir energías e impulsos hacen falta
dispositivos con partes móviles que reciban y acusen el impacto del objeto a medir. Si se
tiene en cuenta que la mecánica cuántica es la
responsable de la interacción entre el objeto y el aparato, se entiende que no puede haber ningún
dispositivo que satisfaga al mismo tiempo ambas condiciones. Hay un circulo nada virtuoso, (desde el punto de vista de la observación) implícito
en el hecho
de que el mundo
macroscópico (el de
nuestra experiencia habitual) origina la realidad microscópica de la cual a su vez está compuesto. Nos enfrentamos a esta
paradoja cuando nos interrogamos sobre lo que sucede realmente al hacer una medición cuántica. "El problema de la medición cuántica
constituye en realidad una variante del problema de la distinción mente-cuerpo (Penrose) o de la distinción software-hardware (prosiguiendo con la analogía de los ordenadores). La
consciencia (o alguna parte de ella) de un individuo debe considerarse, en realidad, como un elemento de software y su manifestación particular en un ser humano concreto debe
considerarse como la ejecución de ese software
por el hardware de su
cuerpo (especialmente de su cerebro y seguramente de alguna parte de su propia consciencia).
Si consideramos la partícula como el hardware que se describe por una onda en la que esta codificada la información (software) relativa a "lo que el observador es capaz de
saber" acerca del comportamiento de
dicha partícula cuando se la observa, esto se
traduce en que: al hacer la observación, la onda se presenta en un estado particular que confiere un valor definido a lo que ha sido observado.
La paradoja se
presenta en toda su crudeza cuando se trata de realizar el acto de medición
exclusivamente en el plano observador del hardware.
Si por ejemplo,
disponemos de un electrón dispersado por un blanco, de modo que pueda ir hacia la derecha o hacia la izquierda, es posible realizar cálculos con la onda y descubrir hacia dónde se dirige.
Debido al impacto con el blanco, la onda se divide expandiéndose
parcialmente hacia la derecha y, con igual intensidad, también parcialmente hacia la izquierda. De esta
circunstancia se deriva, que para una observación dada, hay la misma probabilidad de encontrar situado el electrón tanto a la derecha como a la izquierda. Pero el electrón se reserva en su opción hasta que decidimos mirarlo. Es
decir, hasta que no realizamos la observación no es posible asegurar de ninguna manera a qué lado de la misma se encuentra localizada la partícula. Hasta entonces, ambos micromundos
posibles coexisten en una superposición difusa y fantasmal.
En principio se pensó que tal vez, si se tratase el aparato de medida como un sistema cuántico combinado con el sistema físico a
examinar, se lograra el doble objetivo de que
ninguna medida "externa" estuviera involucrada, y que en el sistema combinado se
observase una evolución que se produjera según el modelo de una regla
determinista. Siguiendo esa línea,
supongamos, por ejemplo, que el aparato utilizado para la
medida está equipado con un indicador que puede
adoptar dos posiciones, una para señalar que el electrón está a la derecha y otra para indicar que está en la izquierda. Entonces, al contemplar el sistema total "electrón y aparato" como un gran sistema combinado
cuántico, podríamos llegar a la conclusión de
que la naturaleza híbrida y fantasmal del electrón no se había transferido... al indicador. Quizá consiguiéramos incluso que no hubiera lugar para las incertidumbres
probabilistas implicadas en la observación o medida, que el sistema combinado realizase sobre si mismo. Todo sería cuestión de probar...
En el año 1935, Schrödinger publicó un experimento imaginario con estas características paradójicas, que debería poner de manifiesto que existe realmente una grieta irreparable en la estricta interpretación de Copenhague. El mismo año se publico también un artículo sobre la paradoja EPR (otro experimento
teórico en la misma línea, del que también hablaremos)
por parte de Einstein. Precisamente,
éste último calificó la propuesta de Schrödinger, de la forma más bella y elegante de mostrar el carácter incompleto
de la representación ondulatoria de la materia como fiel
reflejo de la
realidad. Tanto la
paradoja del gato de Schrödinger como la paradoja EPR aun se discuten en
mecánica cuántica, pero mientras que la última ha sido
resuelta de manera más o menos satisfactoria según el lenguaje que se use, la del gato presenta el inconveniente de la imposibilidad práctica de un completo aislamiento efectivo del contenido del mundo del observador externo con relación al interior de un recinto cerrado donde se realiza el experimento.
La paradoja
del gato de Schrödinger permite destacar las consecuencias singulares de un experimento físico con importantes implicaciones epistemológicas (y también psicológicas)
para el observador. La dicotomía que antes utilizábamos entre indicador a la derecha e indicador a la izquierda, ahora se convierte en una angustiosa incertidumbre sobre una eventual acción
deletérea ejercida sobre un ser vivo, es
decir: nos encontramos ante el dilema de dirimir entre un cincuenta por cien de
probabilidades de estar un "gato vivo" o un cincuenta por cien de probabilidades de estar (el mismo) un "gato muerto". La idea sugerida
consiste en partir de un objeto experimental constituido por: una caja que contiene una fuente radiactiva, un detector que registra la presencia de partículas radiactivas (por ejemplo, un
contador Geiger) una ampolla de vidrio conteniendo cianuro y un gato vivo (al que describimos como si
se tratara de un
sistema cuántico). En efecto, el experimento se diseña
de tal modo, que el detector esté conectado el tiempo suficiente como para que exista 1/2 de
probabilidad de que uno de los átomos del material radiactivo se desintegre y el detector registre una partícula. Si el detector registra un suceso de este tipo, el recipiente de vidrio se rompe, se libera el veneno y el gato muere, sino sigue vivo. Pues bien, no
hay forma de conocer el resultado del experimento hasta que se abre la caja y se mira en su interior;
la
desintegración radiactiva es un fenómeno aleatorio y su acción sobre el gato como sistema cuántico, es impredecible, excepto en un sentido probabilista.
La
teoría nos dice que el sistema se encontrará en una fantasmagórica situación de estado de "gato (vivo) y gato (muerto)" (el gato está en una superposición lineal de estar vivo y estar muerto) hasta que se haga la observación, en cuyo caso le obligamos a
convertirse en una cosa u otra, con una probabilidad al cincuenta por cien de descubrir un gato vivo o un gato muerto. Dado que todo el contenido esta siendo
tratado como un
solo sistema cuántico por el hipotético observador
exterior, la
superposición lineal de alternativas debe
mantenerse incluso hasta la escala del gato. Eso quiere
decir, que hay una amplitud de 1/√2 de que el detector registre la "ocurrencia" del suceso y una amplitud de 1/√2 de que no registre la "no ocurrencia" del mismo. Como parte de una superposición lineal
cuántica ambas alternativas deben estar presentes con el mismo peso.
Pero
¿es de creer que realmente sería así? ¿El gato puede encontrarse en una
superposición lineal de estar muerto y estar vivo? Esta paradoja fue investigada por el matemático John Von Neumann quién demostró mediante un modelo matemático sencillo
que el efecto de asociar la partícula radiactiva a
un detector, "estimula"
al primero a optar por
el gato vivo o el gato muerto, aunque al precio de transferir la híbrida irrealidad al detector de la partícula. La situación epistémica es tan ineludible que Von Neumann
demostró también que incluso si se conecta a su vez a otro instrumento
intermedio que lea los registros del primero, entonces el primer detector se verá forzado
también a
tomar una opción. De este modo, el segundo aparato entra
también en la
fantasmal situación cuántica de gato vivo-gato muerto. Podrían ensamblarse una cadena entera de máquinas tales que cada una de ellas "observase" a la anterior
registrando precisos resultados de gato A (vivo)-gato B (muerto), aunque el último gato de la cadena de Von
Neumann siempre permanecerá en un estado de fantasmal irrealidad.
Por otra parte, el mismo Schrödinger se sintió obligado a concluir que la regla determinista
no podía ser aplicada a algo tan grande como un gato. Si aceptásemos
eso, parecería como si estuviéramos condenados a obtener una visión muy subjetiva de la llamada realidad física. Para el observador exterior, el gato está realmente en
una combinación lineal de estar vivo y estar muerto, y sólo cuando se abre la tapa de la caja de paredes opacas colapsará el vector de estado del gato en uno u otro. Por el contrario, para un observador
adecuadamente protegido dentro de la caja a la manera de Eugene Winger (físico que sustituyó en el experimento, el gato por una persona), dentro de la
caja, el vector
de estado del gato habría colapsado mucho antes, y la combinación lineal del observador exterior
carecería de importancia psicológica. Porque, ciertamente,
el
experimento es dramático (desde nuestro punto de vista de observadores físicos y psicológicos
externos) para el porvenir del gato, pero él no es consciente de la
artera combinación lineal │ψ│= 1/√2 [│A (vivo) │ + │B(muerto)│] que rige su destino. Pero si nosotros no nos volvemos excesivamente melindrosos
psicológicamente nos daremos cuenta que el factor dramático que introduce la mente por su cuenta, ante la
suerte del desdichado animal, es
reducible a una combinación lineal nada dramática y adecuada a la falta de
moralidad de la naturaleza, tal que así:- │ψ│= 1/√2 ( │A∣ + │ B∣)
donde las notaciones │A∣y │B∣pueden referirse a gato "vivo" y gato "no vivo", que carecen de adherencias psíquicas y
retornan a su auténtica representatividad factual, pues la dicotomía vida-muerte articula los estados de la naturaleza en una taxativa biniariedad psicológica, inconveniente
desde un punto de vista exclusivamente
físico.
Sin
querer minimizar la propuesta experimental
de Schrödinger, en realidad, el gato podría ser
considerado desde otra perspectiva como un "qualium" (valga la
expresión) biológico sobre el que es importante
destacar antes de realizar nuestro experimento, que
su composición vital duradera queda delimitada por la expresión "vida Ⓨmuerte", siendo esta última el desenlace
natural de aquella. Tan determinada esta una
cosa como la
otra, pero siempre en ese orden: primero "vida" y
después "muerte". Evidentemente no es lo mismo que se descubra
que el gato
esté vivo o esté muerto en un momento dado (en eso
consiste la
esencia del experimento: la presencia de incertidumbre
e indeterminación) pero
debemos de tener en cuenta que el cien por cien de los gatos que han estado
vivos en el
pasado, están vivos en el presente, o estarán vivos en el futuro, han muerto ya o lo harán tarde o temprano. Sin embargo, en el
experimento se parte de la superposición lineal "estar
vivo Ⓨestar muerto" (Aion) pero acto seguido plantea la disyuntiva practica y
clásica entre "vida ⓞ muerte" (Cronos) como si no hubiera decalaje temporal entre la una y la otra y hubiera una equivalencia con la disyuntiva "muerte ⓞ vida" (esto no es así: no podemos utilizar un gato muerto y que tenga la posibilidad de ser puesto
en vida de nuevo por un veneno resucitador). Podemos considerar tal y
como dice Deleuze que:”Aion
es el
pasado-futuro en una subdivisión infinita del momento abstracto, que se descompone sin cesar en los dos sentidos a la vez; esquivando
siempre cualquier presente”. Mientras que tenemos una nueva expresión acerca de la libertad de indiferencia del pasado-futuro
manifestada en Cronos: “Cronos es el presente que sólo existe, y que hace del pasado y del futuro sus dos dimensiones dirigidas, de modo que se va
siempre del
pasado al futuro,
pero a medida que los presentes se suceden en los mundos o en los sistemas parciales” ...
“El Aion forma vacía y desenrollada del tiempo, subdivide hasta el infinito lo que le acecha sin habitarlo jamás, Acontecimiento para todos los acontecimientos; por ello, la unidad de los acontecimientos o de los efectos entre sí es de un tipo completamente distinto
que la
unidad de las
causas corporales entre sí.”
Así pues, tenemos una incertidumbre
física sobre lo que ha de
sobrevenir en el interior de la caja del experimento hasta
que no la destapemos, pero no deja de haber una manifestación de determinación biológica (el gato morirá tarde o temprano ) aplicable al qualium
antes, durante y después de la realización del proceso, puesto que si el felino es afectado por el veneno, su adecuada
composición vital queda destruida y ciertamente acotada en
una
plasmación temporal cualquiera, (eso no es
relevante para la integridad conceptual del qualium). Por el
contrario, si sigue vivo después del experimento, siempre
queda salvaguardada la relación transitivo-cualitativa vida/muerte que indefectiblemente ha
de traducirse en la muerte del animal con otra plasmación postexperimental y temporalmente cuantitativa
del cese de su composición vital adecuada
sin que en ningún momento (ni antes, ni durante, ni después del experimento) la expresión cualitativa
"vida Ⓨmuerte" deje de tener sentidos físico, biológico y psicológico.
La cuestión es que (el excelente científico y no menor filósofo, que apreciamos sobremanera) Schrödinger, dio
una excesiva importancia a la incertidumbre (desde el punto de vista del observador) y a cierto grado de indeterminabilidad instrumental en el transito de la superposición
lineal a cualesquiera que sean los hechos especificados en el mundo clásico (es decir A o B) que no son radicalmente
opuestos, sino perfectamente complementarios. Ambos quedan definidos pues, en el ámbito de la física clásica que se resuelve en ese (singular) experimento. Al no asignar ningún papel a la determinación colectiva
(mal llamada estadística), en su ánimo pesó mucho la atracción que sentía por el
sistema boltzmanniano, en el que Ludwig Eduard (su compatriota)
relacionaba directamente la complejidad biológica con el concepto de orden termodinámico.
Acotaciones al margen,
el experimento cuántico
combinado no da el
resultado apetecido (a Schrödinger tampoco, pues le confirmó sus pesimistas previsiones) porque los físicos se enzarzan en
discusiones sobre electrones en movimiento, (lo que, pongamos, constituye el funcionamiento del hardware)
recurriendo a la mente (en su papel de software)
cuando ella está incapacitada para integrar esa dualidad.
Porque la situación es tremendamente sutil: pensemos que la dualidad hardware-software esta profundamente
entrelazada cuánticamente hablando; sin ir más lejos, en la dualidad
onda-partícula.
Para la física clásica, el gato está vivo
o está muerto.
La incertidumbre
implica aquí que no conocemos su estado hasta que no
levantamos la
tapa y observamos lo que ha ocurrido. Pero
para la
mecánica cuántica, en cambio, el gato no está ni vivo ni muerto; al mirar dentro de la caja lo obligamos a convertirse en una cosa u otra con una probabilidad de 1/2
para cada una. A Einstein eso le pareció una interpretación arbitraría. Solo las variables ocultas podrían eliminar esa arbitrariedad. Por si fuera poco, la teoría cuántica tal como es concebida, no exige con un criterio claro el hacer la distinción tajante, entre medidas que son posibles y medidas que no son
posibles. Tal vez, porque también habría que
precisar qué es un "criterio claro" y una "distinción tajante", a ese respecto...y así sucesivamente. En
realidad, hay una imposibilidad teórica y practica de aislar efectivamente (volvemos a lo mismo, ¿qué es, aislar
efectivamente, a nivel conceptual?) el contenido del mundo externo. En cuanto
el interior de la caja del experimento "mezcla"
su estado con el medio externo, el observador que está fuera
no puede considerar los contenidos como dados simplemente por un solo vector de estado. Incluso
el entorno
está correlacionado con su propio estado, de una forma complicada.
En definitiva, el propio gato incluye un gran número de partículas y eso tiene como consecuencia que la combinación lineal compleja de un gato vivo y uno muerto debe ser tratada como si fuera simplemente una mezcla de probabilidades.
Esta perspectiva, según parece, no es nada
satisfactoria para una mentalidad física determinista. Schrödinger fue el primero en lamentar semejante hallazgo, pues ateniéndose
a una
rígida interpretación de la misma, desbarataba en parte sus expectativas filosóficas
en torno a la notación (ψ). Tampoco era aceptable para Einstein, quien luchó toda su vida
por encontrar una solución que "conjurase" el supuesto indeterminismo
físico en el transito entre las dos clases de física. En sus discusiones con Bohr argumentaba que debe haber un mundo físico objetivo, inclusive en las escalas microcósmicas de los fenómenos cuánticos.
Para Bohr el mundo en el nivel clásico tenía una realidad objetiva y
el mundo cuántico es (¡déjalo estar!) un conjunto de estados que carecen de realidad:
"No existe un mundo cuántico. Hay solo una descripción cuántica abstracta. Es equivocado
pensar que la tarea de la física consiste en descubrir como es la Naturaleza. La física se ocupa de lo que podemos decir
acerca de la
Naturaleza".
Pero el animoso Einstein objetaba y replicaba que había contradicciones lógicas asociadas a la imagen cuántica de las cosas, y que debía haber una estructura subcuántica aún más
profunda que permitiera restablecer una concordancia entre los distintos niveles de la física, no reñida con la imagen que nos había presentado
la física clásica. La cuestión es que nadie quiere prescindir del determinismo, salvo los que piensan que la objetividad física de la teoría cuántica estándar es lo suficientemente
satisfactoria como para que quede a salvo su libre albedrío. Todo rasgo de
incertidumbre que exhiba o parezca exhibir la teoría es saludado alborozadamente por los (por otro lado)
circunspectos indeterministas quienes, conforme a lo dicho, tienen declarados
otros intereses filosóficos muy diferentes.
Certidumbre versus incertidumbre. Determinación versus
indeterminación
En un
determinado momento, los físicos que realizaron la hazaña intelectual de enfrentarse a la extraña realidad del mundo cuántico, pareció como si, después del
susto, quisieran olvidarse un poco de lo que habían descubierto y buscaron refugio de nuevo en la seguridad epistémica que proporciona la macrovisión del mundo que pisamos de continuo.
Así, Werner Heisenberg, que en 1927 enunció su principio de incertidumbre, más tarde, manifestó
la opinión de que "en los procesos en grande este
elemento estadístico <<es obvio que se refiere al tratamiento de las probabilidades>> de la física atómica no desempeña, por lo general, ningún papel, ya que las
leyes estadísticas aplicadas a tales procesos
proporcionan una probabilidad tan alta
que en la práctica puede decirse
que el proceso queda determinado", aunque luego matiza su razonamiento para algunos casos especiales
en el ámbito de la biología:
"Es verosímil que en biología se den procesos
cuyo desarrollo en grande siga a remolque del comportamiento de átomos individuales; así, en particular,
puede ocurrir en las mutaciones de los genes en el proceso hereditario".
Esas consideraciones
coinciden prácticamente con las de Erwin Schrödinger: "Los acontecimientos
espacio-temporales del cuerpo de un ser
vivo que corresponden a la actividad de su mente, a su autoconciencia y otras acciones, son, si no
estrictamente deterministas,
en todo caso estadístico-terministas.
Frente al físico deseo resaltar que, en mi
opinión, y contrariamente a lo defendido en algunos círculos, la indeterminación cuántica
no desempeña en esos acontecimientos un papel biológicamente importante, excepto tal vez el de
que acentúa su carácter puramente accidental en fenómenos como la meiosis, la mutación
natural y la
inducida por rayos X, etc."
La física del siglo XX, que abandonó el mecanicismo newtoniano por su inconsecuencia epistemológica,
no ha llegado tan lejos como para hacerse absolutamente indeterminista. El mismo Heisenberg manifiesta lo siguiente, casi al final de su
opúsculo titulado La teoría de la relatividad y
el fin del
determinismo: "No se alcanzará una respuesta definitiva
a las
cuestiones planteadas en tanto no se consiga determinar matemáticamente las leyes naturales que
gobiernan a las partículas elementales; es decir, en tanto no sepamos, por
ejemplo, por qué el protón es precisamente 1.836 veces más pesado que el electrón." A esa exigencia de clarificación nosotros podemos añadir:
¿Qué determina que el protón pese 1.836 veces más que el electrón?
Los astrónomos británicos Martin Rees y Bernard Carr han llegado a la conclusión de que la existencia de estructuras
complejas depende en forma muy sensible de los valores numéricos que la naturaleza confiere o asigna a determinadas constantes
fundamentales. Esas constantes tan variadas pueden ir desde la velocidad de la luz hasta las masas de distintas
partículas subatómicas, pasando por constantes de conjunción o acoplamiento,
como la unidad elemental de
carga, que determina la intensidad con que distintos campos de fuerza actúan sobre la materia.
Los valores numéricos
reales de esas constantes determinan con precisión muy variados rasgos del universo: el tamaño de los átomos, la constitución de los núcleos de los planetas, los procesos evolutivos
estelares, la
densidad de la materia, el "estiramiento" del cuello de la jirafa, la altura máxima de los seres humanos, etc. Es decir, se observa claramente que los valores numéricos
impregnan las
leyes de determinismo, pero aun así hay una fuerte oposición a considerar éstas como leyes naturales,
tal vez porque, a pesar de ser profundamente
explicativas en muchos casos, no permiten una explicación causal de los fenómenos.
Pero resultaría precipitado aventurar el fracaso del determinismo
sólo porque no es posible hacer acopio de la información necesaria para probar el principio causal dentro de un
aspecto particular de la física cuántica, máxime cuando el mismo Heisenberg, en su rigurosa formulación de la ley causal, parte de la condición inicial con resonancias laplacianas,
de: "si conocemos el presente con exactitud
podemos conocer el futuro" que queda fuera del juego pragmático de la física, pues como nos
recordaba Poincaré, nadie conoce el presente con "exactitud". También
inicialmente Schrödinger pensaba que ψproporcionaba una descripción directa de la realidad. En sus
reflexiones en torno a una partícula, estimaba que ψ era una función de onda con la cual intentaba identificar la partícula; así, si la onda estaba localizada en una región del espacio lo suficientemente pequeña, podríamos tomarla por una partícula puntual. Porque la función de onda es muy real, tan real como (Frank
Lalöe dixit) una vibración acústica, por ejemplo. Pero desde otro punto de vista que no es posible obviar, ψ es también una descripción no del sistema en sí,
sino de los datos que disponemos (no todos: de ahí, su
incierto presente) acerca del mismo.
Por desgracia, los intentos iniciales destinados a probar que la mecánica
cuántica no constituía una descripción completa de la naturaleza en su nivel microscópico, no
habían sido concluyentes, o al menos no se les había podido dar un significado claro. A ese
respecto, es conocido el experimento realizable idealmente (cuando se concibió) propuesto
por Einstein y sus amigos Boris
Podolsky y Nathan Rose en 1935,
con el fin de comprobar la existencia de un posible mecanismo (restaurador
del
determinismo aparentemente perdido) dentro de un par de partículas "correlacionadas", de tal modo, que éstas siguieran estándolo independientemente de la distancia que les separase. En
efecto, la paradoja EPR (así llamada por las iniciales unidas de los apellidos de las personas que elaboraron el experimento) implica tomar en consideración la existencia de pares de
partículas correlacionadas. El esquema teórico del experimento sería así:
si enfrentamos un electrón y un positrón (antielectrón) haciéndolos
chocar, ambos se destruyen, al mismo tiempo que dos fotones A y B parten en direcciones
opuestas. Pues bien, éstos deben seguir
correlacionados independientemente de la distancia que les separe, en el sentido de que ciertas propiedades deben tener
siempre valores opuestos. Al medir A para una propiedad (llamémosle
X), su paquete de ondas se colapsa y la propiedad X adquiere un valor que llamamos + 1. En cuanto al fotón B, sin haberlo medido, ya podremos saber inmediatamente (de acuerdo con las previsiones de que ha de seguir correlacionado) que el valor de “su” propiedad es
- 1. Siempre siguiendo la previsión, parecería como si al
medir A se solapase de alguna forma el paquete de ondas de B, sin guardar ninguna
relación abiertamente causal.
El experimento preveía que la paradoja fuera resuelta por una teoría
de variables ocultas en las partículas o en
sus proximidades, suponiendo la existencia de un mecanismo "responsable" (en
el sentido de determinante)
del mantenimiento en
correlación de ambas partículas, de modo similar a como dos peonzas lanzadas simultáneamente
a izquierda y derecha con ambas manos, se ven
obligadas a girar en sentidos opuestos. Al ver un individuo una peonza girar en el sentido de las agujas del reloj, instantáneamente sabría que la otra peonza giraba en el sentido inverso aunque no la viese.
Para los físicos que propusieron la paradoja EPR la teoría cuántica se había
situado en un profundo dilema:
¿cómo una partícula separada de su gemela
iba a poder "saber" que en ésta se había operado un cambio? ¿Cual era la naturaleza
del mecanismo que "determinaba" que
cada una supiera lo
que hacía la otra? En
1935 la teoría
de la relatividad restringida de Einstein estaba tan sólidamente establecida, que nadie se
atrevía a desestimar uno de sus postulados (la consideración de la velocidad de la luz como velocidad límite en el universo) aunque fuera para consolidar la teoría cuántica. Por si
fuera poco, cada vez que la teoría de la relatividad restringida había sido sometida a verificación experimental, se había
comprobado su plena validez.
Sin embargo, otros físicos estaban convencidos de que la paradoja EPR sugería la ambiciosa idea de que la información cuántica se puede
transmitir instantáneamente desde un punto del universo a cualquier otro. Ello no implicaría que se violase la teoría de la relatividad restringida; simplemente, no habría transferencia energética, sino
exclusivamente de información mediante
alguna especie de señal.
Pero lo cierto es que esto supone un forzamiento de la mecánica cuántica, pues ésta con el formalismo de sus enunciados impide siquiera esa posibilidad.
No es ya que la conciencia observadora humana en un acto de medida, en el terreno de la mecánica cuántica, interfiera en el experimento a realizar, sino que muchos físicos (Wheeler y Bohr, entre ellos) están de acuerdo en excluir actos de medida en los que intervenga cualquier tipo
de aparatos que puedan ser controlados por ordenador, ya que, como anticipó Von
Neumann y reiteró Wheeler: "no es la conciencia, sino la distinción entre el aparato de investigación y lo investigado el elemento crucial para el acto cuántico elemental de observación".
Sí, por ejemplo, dos partículas correlacionadas tienen espines opuestos (por así decirlo: propiedades de giro opuestas), no podemos decir que la partícula A tenga uno u otro tipo de spin (del inglés "giro" o
"peonza"), mientras no se efectúe la medición. Sólo en el instante de la medida, la naturaleza le adjudica el spin correspondiente.
No obstante, durante el tiempo que la paradoja EPR era tan sólo un experimento ideal, la idea de los supuestos cambios simultáneos
adquirió otra orientación con el psiquiatra suizo Carl Gustav Jung y el físico estadounidense de origen austriaco Wolfgang
Pauli, quienes elaboraron conjuntamente una teoría sobre el significativo paralelismo de ciertas clases de acontecimientos.
En efecto, el término sincronicidad creado por Jung, designa
la relación inteligente, pero "no causal" (o sea, declaradamente indeterminista), de acontecimientos; la "coincidencia conforma el sentido" de dos o más hechos. "Los acontecimientos paralelos" no permitirían reconocer, en principio, una mutua relación causal, por lo que, según los ilustres científicos, les sería inherente un carácter fortuito. La única unión
reconocible y
"rebrote" de la antigua doctrina de la correspondencia que se basa en la experiencia de tales relaciones y que alcanzó su punto culminante (y al mismo tiempo su final provisional, pues no tuvo
continuadores inmediatos) es la idea de la armonía preestablecida de Leibniz, siendo sustituida luego por la causalidad. La expresión sincronicidad trata de significar la moderna diferenciación de los conceptos físicamente
inservibles, de
correspondencia, simpatía, empatía y armonía. De hecho, no se
basa en una hipótesis
filosófica, sino en la observación y la experiencia. Los fenómenos sincronicistas vendrían
a constituir una prueba de la presencia simultánea
de uniformidad manifiesta en procesos considerados heterogéneos o sin relación causal. En otras palabras, demostraría el hecho de que un contenido percibido por un observador puede ser representado al mismo tiempo (sin relación causal) por
un acontecimiento
externo.
Sin embargo, la
supuesta vinculación
"acausal" entre el "estado de las cosas
macroscópicas" y la mecánica cuántica
bien puede tratarse de la ilusión basada en la observancia de
ilusiones. La
armonía preestablecida nos retrotrae a la idea de Leibniz de las "mónadas sin ventanas al exterior", algo que, además de ser
una forma candorosa de concebir el mundo, nos lleva a estimar la existencia de una conexión del microcosmos con el macrocosmos bastante confusa, relativista y esotérica, cuando no incoherente. Tenemos
que indagar sobre la posible existencia de otras formas de vinculación entre el mundo cuántico y el mundo de nuestros sentidos ordinarios. Ambos se pueden tratar
como independientes para, a continuación, "ver" que cada uno es el principio de las acciones del otro.
Un primer paso podría ser la verificación efectiva en el laboratorio de las correlaciones EPR entre partículas. A tal efecto, en 1965, (es decir, treinta años después de la proposición de la paradoja) J. S. Bell propuso una ingeniosa prueba conocida como Teorema de Bell por medio de la cual llegó a demostrar que ninguna
variable oculta en la propia partícula o en su proximidad podía
explicar las correlaciones EPR. Sus famosas "desigualdades" plantean un conflicto numérico que pone en evidencia la no coincidencia de las predicciones de la mecánica cuántica con las de las teorías de las variables ocultas. Casi todas las pruebas llevadas a cabo confirman la paradoja y los físicos que se interesan por la interpretación teórica de la mecánica cuántica se manifiestan con una gran incertidumbre en torno a como entender los resultados. El teorema deja abierta la posibilidad de que las partículas permanezcan conectadas (incluso estando separadas por
años-luz de distancia), por un nivel subcuántico desconocido, pero conjeturable.
El desencanto fue grande pues las pruebas llevadas a
cabo por el físico experimental
Alain Aspect echan por tierra la posibilidad de tener una teoría de variables ocultas basada
en las ideas de Einstein, y los resultados están perfectamente de acuerdo con las predicciones de la mecánica cuántica. Hagamos notar, sin
embargo, que Einstein no pretendía en modo alguno demostrar que la mecánica cuántica
ofreciera una
interpretación errónea, sino solamente
incompleta, y
aunque todos los
experimentos llevados a cabo hasta ahora poniendo a prueba la desigualdad de Bell,
refuerzan la
mecánica cuántica y violan la desigualdad de Bell de la manera prevista por la mecánica cuántica,
no por eso estamos en condiciones de interpretar las predicciones de la mecánica cuántica. El test experimental de la desigualdad de Bell, según el cual es preciso medir
la polarización de los fotones cambiando rápidamente alguna característica de los conjuntos de los aparatos de medida, tratando de evitar las interacciones
misteriosas, no demuestran la existencia de
las "terribles" (?) correlaciones, como las califica John Bell. Entre tanto, y mientras se procura
diseñar experimentos más concluyentes el mismo
John Bell aseguró que le gustaría formular una teoría más limpia, ya que la mecánica cuántica vigente
es una teoría sucia, al
comportar una
división del mundo entre observador y observado y no se dice donde empieza esa división ("a que lado de mis gafas está, por ejemplo o a qué extremo del nervio óptico"). Es decir, la ambigüedad se halla a un nivel de precisión mucho más allá de la capacidad humana de
observación.
Para salvar el abismo existente entre el mundo macroscópico de la física clásica y el aparentemente extraño mundo cuántico, Bohr llegó a afirmar que existe un "parecido" matemáticamente
demostrable entre las leyes mecánicas clásicas y las de la mecánica cuántica. Según él, lo muy pequeño
y lo muy grande deben
describirse de muy diferentes maneras,
es decir, con arreglo a los mundos a
que pertenecen: en términos cuánticos y clásicos
respectivamente. Insistió mucho en que la
mayor parte del
mundo debía mantenerse fuera del sistema y describirse en términos clásicos. Enfatizó en que al nivel clásico estamos
interesados directamente, en lo que hace referencia al presente y al pasado y en sucesos definidos antes que en avatares de
potencialidades ondulatorias. A nuestro
nivel físico y
mental, el
lenguaje y
la lógica ordinarios resultan adecuados. Y, lo más importante, que es a este lenguaje y lógica ordinarios a lo que debe llevar la mecánica cuántica, sin
que nos desalentemos demasiado por lo esotérico de la formulación para producir las
mencionadas afirmaciones. Realmente Bohr se mostró muy conformista y lo que sugirió es que ψ "evoluciona solamente"
siguiendo la ecuación de
Schrödinger, porque si hay un parecido matemático entre los dos mundos, es como si el proceso de medida no existiera y todos los resultados se pudieran producir simultáneamente. Esa
interpretación da pie a otra particularmente audaz y casi fantástica atribuible
a Everett, frecuentemente conocida como de los mundos múltiples y que el denomina de forma más apropiada: "formulación de la mecánica cuántica del estado relativo" que está plagada de dificultades conceptuales que no vamos a
describir.
A pesar de las incertidumbres, los deterministas no se dan por vencidos
Sin
embargo, muchos científicos creen que ha de haber un nivel de descripción más
fino de la realidad. La mecánica cuántica, según ellos, debería completarse por una teoría microscópica más
poderosa, aún por descubrir, al igual que la termodinámica lo fue por la mecánica estadística (teoría cinética de los gases, etc.) En ese sentido,
la conclusión del argumento EPR proporciona un claro estímulo a los partidarios del determinismo. Aunque los términos dentro y fuera son un tanto ambiguos al utilizarlos en relación con la mente puesto que ésta no ocupa ningún lugar en el espacio, podemos decir convencionalmente que en el interior de la misma la paradoja EPR satisface las aspiraciones de Einstein, pero fuera de ella habría que hacer una redefinición de lo que entendemos por sucesos instantáneos
y sucesos simultáneos. A esos efectos, podríamos servirnos a
modo de ejemplo, de sencillos jeroglíficos:
En qué medida los
átomos formados por partículas del cuerpo humano, una vez estuvieron
ligados a otros en la bola de fuego original, que ahora componen la estructura física
de una
estrella lejana. Y en qué medida, esos mismos átomos están ligados con partículas que
constituyen el
cuerpo de algún organismo vivo de algún planeta lejano aún por descubrir. Tal vez, la forma de realizar esos planteamientos sea errónea puesto que
hacer medidas, es sinónimo de hacer observaciones y esto último, es otro
suceso físico separativo de suma importancia. Seguramente que si solo nos refiriéramos a magnitudes
físicas (en general) haríamos mucho mejor para no dividir el mundo en "momentos de observación". Al fin y al cabo, también las partículas que
constituyen el
cuerpo humano estuvieron alguna vez muy próximas e interaccionaron con las que ahora constituyen o constituyeron otros cuerpos humanos y eso fue un hecho unitivo. Como cualquier otro
suceso físico, todos nosotros formamos parte de un sistema único, al igual que los dos fotones viajeros del experimento de Aspect.
Algunos teóricos como David Bohm y Bernard d'Espagnat sugieren que hay que
aceptar que, cada cosa está conectada con todo lo demás, y sólo un tratamiento "no separado" del universo resultan apropiados para explicar fenómenos tales como la
consciencia humana. A ese respecto el físico teórico Jean-Marc Lèvy-Leblond nos señala que el comportamiento
colectivo cuántico nos obliga no solamente a desechar el concepto que nos formamos
de los objetos individuales, o elementales,
sino que también altera profundamente nuestro concepto de los comportamientos
colectivos y
nos obliga a modificar nuestra comprensión de los sistemas compuestos por un gran número de constituyentes idénticos. Así, los electrones y los fotones no pueden ser
considerados como pequeños "perdigones"
(partículas) o
"pequeñas olas" (ondas) formadas
en un
estanque y han
de concebirse como objetos absolutamente nuevos,
los quantones. Sería mejor, por tanto, que la ambigua onda-partícula se
abandonase y diéramos a los objetos cuánticos el nombre que merecen: quantones. Al perder su significado
en teoría cuántica el mismo concepto de trayectoria y de localización
espacial, ya no es posible, en un conjunto de quantones
idénticos, seguirlos individualmente y no queda más remedio
que considerar el
sistema como una forma colectiva de comportamiento.
Pero no es suficiente con introducir términos nuevos que sirvan para invocar la restauración determinista en un plano teórico circunstancial. Es necesario que, aún contando con que no disponemos de
ninguna evidencia física que permita ratificar un grado de vinculación ostensible entre nivel clásico y nivel cuántico, podamos recurrir a
algún tipo de analogía (las analogías satisfacían mucho a Poincaré por su valor ilustrativo)
equiparable a hipotéticas interacciones (o vinculaciones no ostensibles ) entre ambos clases de
mundos, además de allanarnos el camino, para elaborar teorías más efectivas de contenidos,
asimismo, más específicos.
En ese sentido, la analogía que proponemos por parecernos la más adecuada es la siguiente: El físico ruso-alemán
Friedrich Lenz, estudiando las interacciones entre los imanes y los circuitos eléctricos, descubrió en 1833 la ley que establece el sentido de las corrientes inducidas. En efecto, cuando un imán se mueve respecto a
un circuito se
origina en éste una corriente de "inducción". Por el contrario, toda
corriente que circula por un conductor arrollado en espiral lo convierte en un imán, lo que quiere
decir que la
misma corriente forma en el bucle una "hoja magnética". El fenómeno aquí observable depende tan solo del movimiento
relativo del conductor y del imán, mientras que la
forma habitual de ver las cosas traza una neta distinción entre los dos casos, según cual
sea el cuerpo
que de los
dos esté en movimiento. Surge así el interrogante
de saber cómo actúan ambas fuerzas magnéticas, la de
la espira convertida en hoja magnética y la del imán que engendra la
corriente. ¿Lo hacen
atrayéndose o repeliéndose?
Al acercar el imán a la espira, ¿podría ser atraído aquél por
el nuevo imán
"creado" por la corriente? A poco que meditemos sobre ello se llegará a la conclusión de que
no puede ser así; el bucle tendería a moverse cada vez más deprisa, en virtud
de su propio movimiento y se produciría energía de la nada. Es decir, dejaría de estar en vigor el principio de conservación de la energía. Justamente ha
de suceder al
revés. Si el polo magnético lo acercamos a la espira, el campo magnético de la corriente inducida
es tal que lo repele, y viceversa: cuando el polo del imán lo alejamos del campo magnético de la espira, ésta lo atrae propiciando su aproximación.
La ley de Lenz responde a un principio de validez universal en todo el mundo material. Podemos
considerarlo como una generalización electromagnética del principio de acción y reacción: “Los efectos obran sobre sus causas”, es decir, se producen fenómenos de causalidad recíproca. Pero, en ese caso ¿quién desempeña el papel de efecto y quién el de causa? Tenemos una clara distinción nominal entre los fenómenos eléctricos y los fenómenos magnéticos, como la tenemos entre los niveles clásicos y cuánticos en la física general: eso
significa que ambas "parejas" de sucesos se determinan mutuamente, pero el hecho concreto de fijar de
algún modo la determinación se
esfuma si pretendemos detallarlo porque la observación es "separativa" y suprime la neutralidad técnica de la interacción. De alguna manera, la unificación de los "fragmentos"
(eléctrico y
magnético) en un
todo fue realizada en primer lugar por J. C. Maxwell gracias a su teoría del campo electromagnético,
formulada en la década de los sesenta del siglo XIX. Sin
embargo, fue
Einstein con su teoría especial de la relatividad (1905) quién mostró cómo puede conseguirse una “perfecta simetría” acudiendo a la siguiente metáfora: "la electricidad es
magnetismo y
el magnetismo es electricidad".
Concedamos, pues, a
regañadientes, que estamos en presencia de una analogía "transformada" en metáfora,
y que naturalmente hay una distancia (de lo singular -electro/magnetismo- a lo general -mundo
clásico/mundo cuántico-) conceptual muy considerable entre
ambas "parejas" de sucesos, pero lo que si queda claro es
que entre el mundo clásico y el mundo cuántico,
no nos es posible hacer una
distinción pragmática precisa y sobre todo desplazable. Seguramente
requeriría de una matemática que fuera
capaz de explicar por qué los electrones se aparecen con una nebulosidad
ondulatoria y las mesas, los árboles y, en fin, todo lo que nos rodea (incluso nosotros mismos) ocupan un lugar definido y se describen en términos clásicos. Como el cerebro está hecho de átomos, de protones, de electrones y de núcleos, en
principio, no habría por qué dudar en aplicar la
mecánica cuántica, al menos si fuéramos lo suficientemente
sagaces para realizar los cálculos para un complejo conjunto de átomos.
Pero el cerebro no es...la mente. ¿Se puede considerar a ésta inmaterial?
¿Nos las tenemos que haber con algo que es diferente de nuestros instrumentos
de análisis? Es aquí dónde hemos de esperar, que se elabore una matemática diferente...si es posible.
Mientras tanto, debemos tener también en cuenta que para cada
crítica del uso que habitualmente se hace de la palabra "determinismo" disponemos de una réplica latente a la que siempre podemos
recurrir. Parafraseando a Alfred Jules Ayer diríamos que: El hecho es sencillamente que cuando ocurre un suceso cuántico (o clásico) de un tipo, ocurre también un suceso clásico (o cuántico) de otro tipo, que está en una determinada relación
espaciotemporal con el primero. Y ahora, no jugamos con metáforas-
Si nos referimos
estrictamente a la mecánica cuántica, vemos que no hay indicios de indeterminismo,
dado que las ecuaciones son deterministas.
El supuesto indeterminismo
aparece en el
proceso de medida, es decir, cuando
añadimos creencias (postulamos que tal medición...equivale... o debería equivaler a... tal cosa) a las ecuaciones.
Ahora es cuando
aparecen las
situaciones
paradójicas.
Así tenemos, que si un sistema que evoluciona sin ser observado, lo hace de una manera completamente determinista, y si por el contrario al ser observado, deja de hacerlo en forma determinista (debido a
que se produce la reducción del paquete de ondas)
puede deducirse en buena lógica, que al unificar el sistema con el observador, este nuevo sistema obedece a la ecuación de
Schrödinger, y
se puede considerar a su vez totalmente determinista. Además si examinamos la mecánica cuántica de
dos partículas con más cuidado vemos que no estamos
ante un espacio
tridimensional, sino ante uno de seis dimensiones. Dicho de otro modo, dado que todo orden tridimensional está ordenado a su vez
en las
tres dimensiones de la otra partícula disponemos de un orden de órdenes.
Es por eso (nos recuerda David Bohm) que debe
tratarse como de seis dimensiones una partícula común. Un objeto corriente de unas "pocas" partículas pongamos 10²⁰(10 elevado a 26) partículas
de energía, debería considerarse como si tuviera 3 x10²⁰ (3 x 10 elevado a 26)
dimensiones. Estaríamos en presencia de un espacio de configuración, que visto desde la mecánica clásica se dice que es una abstracción pero que en la mecánica cuántica no lo es. Pensemos que este
espacio de 3n dimensiones de la mecánica cuántica es tan elemental como el espacio tridimensional común
de la mecánica clásica, y que son precisamente las leyes de la mecánica cuántica las que proporcionan
fundamentalmente una relación entre los diversos espacios tridimensionales de cada partícula y el espacio 3n dimensional de la materia.
Pues ésta es la problemática del experimento de Einstein, Podolsky y Rosen, que no se
puede reducir ese espacio de seis (para dos partículas) dimensiones a uno tridimensional. Sobre el papel solo podemos entender
algunas cosas si se conservan las seis dimensiones. Ocurre que la que se denomina función de
onda la tenemos en un espacio tridimensional y propiedades suyas se refieren a todo el sistema,
mientras que otros operadores más pequeños solo se refieren a
algunas partes del sistema. De ese modo no
podemos reducir el todo a sus partes eliminando imprecisiones.
Es verdad que puede
decirse que el indeterminismo cuántico pareció corroborarse en un famoso artículo de Heisenberg que escribió en 1927 sobre las relaciones de imprecisión.
Esas relaciones surgen de un estudio de las medidas experimentales lo más atinadas posibles y proporcionan un margen inferior cuántico al que da el
producto de los errores
experimentales estimados con que se miden los emparejamientos de magnitudes denominadas conjugadas-canónicas.
En ese contexto, Heisenberg se preguntaba si tal supuesto indeterminismo
es epistemológico o de raíz óntica, pues en este segundo caso nada podría hacerse
para detectar un determinismo
estrictamente verificable por posibles experiencias futuras.
Pero en realidad, en un caso más práctico, ocurre que las formas matemáticas no dicen
nada por si mismas de la realidad material; seguramente por ello se utilizan en combinación con otras reglas semánticas para poder decir cosas acerca del mundo exterior. Así
sucede que los valores de verdad de las dos proposiciones (la de Schrödinger para la mecánica
cuántica y la clásica <<tradicional>>) no están simultáneamente
determinados para ambas. Porque como dice Emilio
Santos: "En clásica aunque no se dé, pensamos, por lo menos que puede darse, es
decir, quizá no sepamos el valor
de <<verdad>> de dicha proposición, pero no
porque no esté definida intrínsecamente. En cambio, la cuántica es incompatible con el hecho de que las propiedades de los sistemas estén definidas en sí. Se definen en conexión con un
determinado experimento." Eso es tan
cierto, como que, de acuerdo con dicha interpretación la teoría a pesar de renunciar
al determinismo en lo
que concierne a las cosas mismas (en concreto, a los sistemas atómicos) lo retiene en lo que se refiere a la evolución de la información disponible, dado que las
probabilidades mismas (o siendo más precisos, las amplitudes de probabilidad) evolucionan de acuerdo con una ley que siempre se ha estimado determinista, como es, la ecuación de Schrödinger.
Y es que no es fácil escapar al determinismo. Cualquier observación de un fenómeno
cuántico se realiza mediante
instrumentos hechos de material "clásico" por observadores que están
construidos de material "clásico". Aún más, cuando un aparato entra en un experimento, se tiene un sistema compuesto de "muchísimos" cuerpos, con lo que
necesariamente se da una compleja relación
termodinámica. Es decir, no puede saberse dónde están todas las partículas del aparato. En el proceso de medida hay que preparar un sistema que en un momento dado crea una situación de ambigüedad a causa de su naturaleza termodinámica. Nosotros somos sistemas termodinámicos y nuestros aparatos también lo
son, por lo que no se puede esperar lograr verificar ningún hecho con precisión
absoluta.
Todo esto quiere
decir, que si tenemos en cuenta que hemos aceptado como básico el lenguaje de los "datos
sensoriales", los observadores como otras cosas que están a un nivel físico (clásico) tienen que ser considerados
también como situados en el
"campo de los datos sensoriales" (o sea, reducibles a él) ya que si les concedemos la posibilidad de que no estén dentro, (no implicados)
experimentando los datos sensoriales "por su cuenta", desviaríamos la cuestión de los mismos datos sensoriales
hacia un nivel físico restringido y desvirtuaríamos el programa perceptivo interior, confiriéndole una exclusiva representatividad
macroscópica. En el concepto del cuanto viene exigido, pues, implícitamente que el "objeto
observado" no puede separarse del "instrumento de observación", ya que la forma de las condiciones del experimento y el propio significado de los
resultados experimentales forman una "realidad
conjunta" en la que no es relevante el análisis en elementos que existen autónomamente.
En el fondo, y como dice el profesor Bohm, "aunque la teoría cuántica es muy
diferente de la teoría de la relatividad ambas tienen de común una implicación de una totalidad no dividida. En la paradoja EPR contemplamos un fenómeno que tiene unas características, pero al mismo tiempo esa realidad contempla la existencia de subfenómenos con otras características, que
más en el fondo todavía incluyen los hechos en sus auténticas
propiedades. Al realizar mediciones, intentamos suponer que la medida misma tiene entidad
propia y es "en cierto modo",
preexistente al hombre; esa supuesta
independencia con respecto a él, puede llevar a una precipitada objetivación de
conceptos, con lo que éstos se tomarían
(impropiamente) por inmutables. Así se tiende más y más a considerar la medida como un método de expresión del carácter colectivo (algo que, en principio, no tiene porqué ser nada malo) de los objetos en cuestión. Sin embargo, para efectuar mediciones se
necesitan "cerebros", cuando ellos mismos son el producto de una colección de sucesos físico-químicos determinada. Los cerebros humanos intervienen muchas
veces en este proceso, unas veces como pensador y otras como objeto de la medida; unas veces como interpretador de la medida y otras como interprete de
la misma. Siempre son sujeto y objeto a la vez, sin que se puedan
desligar totalmente de uno de los papeles. La situación se "complica" además si consideramos que la medida se expresa en ratios,
que no son meras proporciones numéricas (aunque es normal que las incluya), sino que más bien
son, en general, una especie de proporciones o relaciones universales cualitativas. Con razón Mario Bunge señala
que el colapso de las funciones de onda no
desempeña ningún papel fundamental en la ciencia. Si existe un problema es el de la medida: "No hay una teoría de la medida en cuántica, ni siquiera una teoría del aparato de medida."
Los aparatos de medida deben adaptarse a la estructura granulosa del universo y eso crea sus problemas. La incertidumbre brota del hecho de que la energía y la masa se presentan en
individualidades de cuantía fija, determinada en última instancia por la constante h
de Planck. Como dice Asimov, si dicha constante
fuese nula, no habría ninguna incertidumbre (sería muy fácil diseñar un aparato de medida), y si fuese muy grande,
todo sería tan incierto que el universo parecería caótico (sería imposible diseñar un aparato de medida).
Cierto que la granulosidad del universo es muy fina (representada, como decimos, por la constante de Planck)
y que por
eso, antes del siglo
XX no había sido notada. Siempre se había
creído que todas las medidas podían afinarse cuanto lo permitiese nuestra
paciencia, llegando a conseguirse una precisión de ilimitada proximidad a la incertidumbre nula. Ahora somos más
incrédulos. Aún suponiendo que un tipo de incertidumbre
pudiera ser eliminado, es seguro que existen
otras que ni siquiera imaginamos. Como mínimo, podemos apuntar la existencia de otra, que
nos señala Fritjof Capra: es una forma (muy importante) que adopta el principio de incertidumbre y hace referencia a la desconocida cantidad de energía que hay implicada en el
tiempo que consume un suceso atómico, lo cual tiene consecuencias sobre la incertidumbre de la localización de un acontecimiento en el tiempo, (al estar relacionado de este modo con la incertidumbre
de la
energía), del
mismo modo que la incertidumbre de la localización de la partícula en el espacio corresponde a una incertidumbre en la determinación del momento.
La misma incertidumbre cuántica era la "barrera" hasta
dónde podíamos acercarnos al inicio hipotético de la singularidad explosiva que dio origen al universo. A una
diezmillonésima de billonésima de otra billonésima de segundo después de la Gran
Explosión, en la llamada era del tiempo de Planck, las incertidumbres cuánticas en
la geometría
espaciotemporal se identificaban con el
tamaño del propio universo, lo que significaba que no
podían concebirse mayores fragmentaciones en el espacio-tiempo que la granulosidad conferida por dicha constante. Trozos más pequeños eran, sencillamente, incomprensibles. Sus
mediciones estaban en el
mismo borde nebuloso de imprecisión que el electrón antes de que se midiera su posición o su movimiento.
Un autor tan ajeno a la física
moderna del siglo XX y
tan alejado en el tiempo como para imaginar tal problemática,
es Montaigne, el
cual decía que: "Para
aquilatar las
apariencias de las cosas precisaríamos un instrumento que las midiera; para comprobar los resultados de ese instrumento sería necesaria una demostración,
y para convencernos
de si ésta es exacta necesitaríamos un instrumento, encontrándonos en consecuencia en un círculo vicioso".
Todas estas circunstancias especiales relacionadas con el problema de la medida nos hacen ver que no estamos capacitados para calificar a las partículas de "elementales", ya que
pueden ser creadas, aniquiladas e incluso transformadas, y esto indica que tampoco éstas pueden ser las sustancias últimas, sino
que son formas constantes, abstraídas de algún nivel dimensional más interno o profundo. A su vez, las partículas más
"finas" pueden ser divisibles en otras más fraccionables todavía,
constituyendo las auténticas sustancias últimas o finales. Puede haber una especie de "flujo" entre los distintos movimientos:
clásico, cuántico y subcuántico, en los que el desorden del comportamiento individual en el contexto de una ley estadística dada, sea, en general, compatible con una noción de leyes
individuales, por así decirlo, sumamente detalladas y aplicables a un ámbito amplio. Este aspecto oculto de la naturaleza puede ser análogo a la
teoría atómica (antes de que se confirmase experimentalmente) o a la del movimiento browniano, antes de
que al botánico Brown se le ocurriera preguntarse por qué se agitan de forma
tan aparentemente desordenada los pequeños granos de polen suspendidos en un recipiente con agua.
Está claro que si los datos experimentales pueden cuestionar cualquier teoría,
también seleccionados y combinados de otro modo, pueden apuntalarla, y éste es el caso que nos ocupa. Como dice el profesor Bohm, "no existen argumentos válidos que justifiquen la conclusión de Bohr de que el concepto de comportamiento detallado de la materia como un proceso
único y autodeterminativo deba limitarse solamente al nivel clásico (en donde pueden
observarse bastante directamente el comportamiento de los fenómenos a gran escala).
Ciertamente, también podemos aplicar estas nociones a un nivel subcuántico cuyas
relaciones con el nivel clásico son relativamente
indirectas, pero todavía capaces, en principio de revelar la existencia y las propiedades de su nivel
inferior por medio de sus efectos en el nivel clásico".
Bohm aplicándose a esa expectativa desarrolló una descripción muy interesante
para muchas partículas en lugar de una sola. En su caso, no hay necesidad alguna de dividir el mundo en partes clásica y cuántica, pues términos denominados clásicos que se consideran necesarios están
disponibles (la nueva física cuántica, no los ha
hecho inútiles) para las partículas individuales en sus posiciones reales y también para conjuntos de
partículas contemplados desde el punto de vista macroscópico. En particular, la síntesis de partícula y onda siguiendo la metodología de De Broglie-Bohm podría interpretarse como una ilustración detallada de la complementariedad. La descripción es completamente
determinista, combina sin esfuerzo matemático el aspecto ondulatorio de la difracción de electrones, los patrones de interferencia y los efímeros y minúsculos destellos
individuales, o por decirlo de otro modo, la naturaleza claramente definida de los sucesos a gran escala.
Podría decirse, que la teoría se fundamenta en que el nivel subcuántico se manifiesta en efectos deterministas
o propiedades
cualitativas del nivel clásico, en la medida en que el mundo tiene "características". Ahora bien, el que no se pueda predecir dónde ha de producirse un impacto o el
destello de un electrón se debe a que no
podemos saberlo y controlarlo todo. Si la incertidumbre en el nivel cuántico se conjuga con un
tipo de determinismo cualitativo en el nivel subcuántico, es algo que por el momento sólo se sospecha, aunque muy
"fundadamente". No se debe
descartar ni mucho menos el que pueda llegarse a tener constancia de una limitación real y objetiva en el grado de
"autodeterminación" en un cierto nivel, que junta a (o
con) una "función" de
probabilidad representante del carácter de las fluctuaciones estadísticas
vendrían a incidir sobre los límites impuestos a otra "autodeterminación" (en
otro nivel), que fuera, eso sí, claramente susceptible de ser descrita. De
acuerdo con
ese punto de vista existe una realidad objetiva, un mundo de partículas, que
si bien no pueden ser definidas con un momento y una posición simultáneas (lo que supondría una reconstrucción de la teoría clásica de la causalidad) es solamente porque son observables.
Sabemos que en la base de la interpretación convencional de la mecánica cuántica, no tiene sentido decir que el electrón tiene posición y momento bien definidos, simultáneamente,
pero no es irrazonable pensar que ambos puedan
tenerlos en la práctica. La dificultad en el enfoque usual es que sólo se puede hablar de observaciones y medidas y no puede decirse lo
que ocurre en medio. La nueva ontología que propone el físico Basil Hiley
tendría en cuenta la atribución de un momento y una posición, aunque para el observador éstos fuesen
desconocidos. En tal sentido, la idea del potencial cuántico desarrollada
por Bohm y Hiley parte de esa premisa fundamental, es decir, de que existe
realmente una
partícula que posee a la vez posición y momento bien definidos. Consecuentemente, en
vez de tomar su función de ondas como un medio para calcular inciertas probabilidades,
es tratada como un campo real, algo así parecido al campo electromagnético
que hemos mencionado. Ese sería el origen de la influencia sobre el comportamiento de la propia partícula y de otras partículas.
El potencial
cuántico sugiere que hay una fuerza directriz con energía proveniente de la "autoactividad" de la propia partícula. En cierto modo, el potencial cuántico de
la
partícula "dictaría" a ésta como
debe zigzaguear por lo que no estaría
sujeta al influjo
de fuerzas aleatorias que la forzasen a un zigzagueo, a su vez, de carácter aleatorio. El resultado es que, partiendo de la "onda piloto" del príncipe De Broglie (1956) tenemos una teoría no local según la cual existe algo
equivalente a una función de onda │ψ| y un sistema de partículas de tipo clásico, que proporcionan (según Bohm y Hiley ) imágenes de realidad.
Característica importante del potencial cuántico es que propicia una descripción uniforme de las partículas, en el sentido de que no hay diferencias en el comportamiento de los electrones, neutrones o protones, lo que sugiere que dicho
potencial surge de un campo que no es como el electromagnético, sino de un fondo de punto "cero" o estado vacío que está realmente lleno de energía.
Buscando una analogía, B. Hiley recupera la idea de Richard
Feynman de considerar un punto en el espacio-tiempo como un ordenador con una entrada y una salida conectado con puntos cercanos. Existe, por eso, la posibilidad de que una partícula pueda actuar como un ordenador diminuto que
actúa en conexión con su entorno. Del enfoque que se da al potencial cuántico parece deducirse, que si no somos capaces de separar las partículas y tratarlas como
independientes, al menos podemos considerarlas aspectos
particulares de la "situación total". Desde ese punto de vista, el potencial cuántico reproduce muy
fielmente los
resultados de la mecánica cuántica a los niveles actuales de experimentación. Por el momento no provoca ninguna ruptura epistémica, salvo que
demuestra sin ambigüedad (lo que ya es bastante) que hay una conexión no local
en las partículas
correlacionadas a distancia en el experimento de Aspect.
La idea Bohm-Hiley no deja de
ser interesante, puesto que la teoría de variables ocultas
a que da lugar muestra su consistencia con todos los hechos observables de la física cuántica pero se suele hacer la objeción de que ciertas características de la interpretación no son "estéticamente"
satisfactorias. A ese respecto, debemos de
precisar que es cierto que, según el axioma fundamental de la teoría cuántica ningún
fenómeno elemental es un verdadero "fenómeno"
si no es un fenómeno detectado. Pero que dispongamos de una teoría satisfactoria de las partículas como la que ahora conocemos, no
nos garantiza que no haya otras manifestaciones fenoménicas no descubiertas
todavía. Esto no es hacer
"metafísica" de las partículas.
Desde
otro punto de vista, vale la objeción de que no
parece "correcto" que el potencial cuántico no afecte a las partículas y éstas si le afecten a
él. También es
admisible la
postura de Einstein y otros físicos de que la noción de no localidad es fundamentalmente
inaceptable, puesto que es una opción que implica la existencia de parámetros ocultos que deben poder afectar
instantáneamente (¡!) a regiones del espacio arbitrariamente lejanas y además
es incongruente con la relatividad especial. Pero
si lo que
se sugiere es que la única posibilidad de hacer ciencia es que "debe"
mantenerse la localidad en todos sus conceptos fundamentales porque así lo "exigen" los hechos propios de la
observación, entonces se estará permitiendo una grave intromisión de los prejuicios en ciencia.
Porque un fenómeno detectado nos da sólo una idea (si tenemos por
universalmente válidas las leyes generales de la teoría cuántica ) de las relaciones externas que se establecen entre una partícula (por
ejemplo) con
un aparato de medida, pero no nos dice nada
de las características internas de la partícula misma (en esa consideración ya
somos reiterativos) y esto último es necesario investigarlo desde todos los ángulos si queremos
reducir nuestro nivel de incertidumbre haciendo aflorar el oculto determinismo allí donde pueda encontrarse.
Otros puntos de vista...en torno al mismo tema
En el fondo, las discusiones sobre determinismo se reducen a si el significado de los conceptos fundamentales puede ser ambiguo (según Bohr, sí) o no (opción preferida de
Einstein). Bohr estimaba que no
había que preguntarse qué hacen los átomos cuando no se les está observando, aunque no deja de ser intrigante que cuando se diseñan
experimentos con el fin de detectar partículas, siempre se detectan
partículas, mientras que cuando se diseñan experimentos para detectar ondas,
siempre se detectan ondas. Ningún experimento nos muestra a los electrones comportándose simultáneamente como
ondas y como partículas. Los experimentos (y ese es el origen del problema) se basan en
la física clásica, incluso sabiendo que la física clásica no se puede
aplicar con
validez a la
descripción de procesos de partículas, porque los resultados, al ser
"implicantes", no "predictivos", desalientan
inevitablemente al investigador. Si bien los procesos predictivos
(muy comunes en la física clásica) se basan en una propiedad del orden manifiesto que con unos pocos elementos
determina el
orden total resultante, este mismo orden
"total" puede muy bien llegar a estar constituido o determinado por la existencia de otros
órdenes sutiles y complejos que imposibiliten predecir una de sus partes a partir
de la otra.
El físico británico Anthony Leggett
adopta una postura
radical sobre esto. Cree que muy
probablemente hay leyes de la naturaleza que emergen a un nivel por encima de los átomos pero que no conocemos aún. Duda que la mecánica cuántica
sea una mecánica general y estima que hay algo más que entra en juego entre el nivel atómico y nuestro nivel
macroscópico. En la materia a escalas de
dimensiones intermedias falta por encontrar una pieza que ligue la materia considerada a escalas de millonésimas de milímetro
en la que
rigen los
extraños fenómenos cuánticos, con nuestro nivel de vida cotidiana. Hemos de
darnos cuenta que, entre la distancia más pequeña susceptible de ser medida, es
decir, hasta donde la física se convierte en metafísica, (10-∝ cm.) y la distancia microcósmica en la que probablemente tienen
significado las nociones actuales de
espacio-tiempo (10-ψcm) hay una amplísima escala, en la que podrían estar incluidas
muchas estructuras no descubiertas todavía. Estas "implicaciones" teóricas resultan particularmente
significativas cuando la teoría se extiende a los dominios de la cosmología. La Gran Explosión que hubo en el origen del universo es, además de una colección de sucesos con muchas y variadas cuestiones asociadas que exigen un cuidadoso análisis retrospectivo, un problema en el que la cosmología y la mecánica cuántica están muy imbricadas. Dado que la energía y la materia han sido creadas a
partir de una singularidad, un evanescente "trozo" de espacio-tiempo,
entonces está claro que debe haber implicados procesos de mecánica cuántica en los que los aparatos de medición clásicos no deberían desempeñar ningún papel. Porque si nos imaginásemos por un momento como espectadores teóricos de una época cosmológica, en la que ni siquiera existían los átomos y las moléculas, los aparatos de medición clásicos estarían claramente fuera de toda lógica empírico-analítica, consiguientemente, ahora
deben seguir estándolo en muchos aspectos desconocidos,
aunque inmediatamente recobremos un punto de vista actual de observación retrospectiva.
Que el
mundo macroscópico venga determinado por los hechos es sólo una constatación de nuestros sentidos, algo que nos es "mostrado" (en palabras de Wittgenstein) y con el que nos sentimos
familiarizados. Sin embargo, el trasfondo normativo por el que los hechos se producen de
tal o cual manera, no se muestra, está implícito. El trasfondo normativo que debe existir en el mundo cuántico, por el que los hechos ni siquiera se
muestran, sino que implican al observador, nos sugiere que las partículas poseen
más propiedades que las que pueden describirse según los llamados
"observados" (lo que implica que tomamos conciencia de su mostración)
de la
teoría cuántica. Y uno de los hechos más mostrados
en la historia
de la
humanidad es la "acción gravitatoria", algo en lo que el hombre nunca había
reparado hasta que Newton demostró que era un hecho observable. La gravedad tiene su propio carácter singular, puesto que a
pesar de sernos mostrada, no es directamente discernible en el nivel de las fuerzas que son
importantes para las partículas fundamentales, pero que, de cualquier modo está
(implícita) siempre presente, impregnándolo todo. A muchos físicos no
les ha pasado desapercibido que los efectos detallados gravitacionales no pueden ser
simulados mediante ninguna combinación de campos o fuerzas, se realicen como se
realicen. Tampoco puede considerarse como una propiedad residual o, por el contrario, derivada de un comportamiento colectivo o gregario. En otras palabras,
no es una propiedad
emergente, sino más bien "elementalmente primaria".
Actualmente se describe de forma apropiada mediante la propia estructura del espacio-tiempo que
antes se había considerado como ámbito de juego de todas las demás actividades
físicas.
Por todas estas razones la teoría cuántica estándar no parece encajar perfectamente con las nociones de espacio curvo
que exige la teoría de la gravitación de Einstein.
Además, éste nos advierte de ciertas dificultades epistémicas que entroncan con su teoría de la relatividad: "La noción de patrón de medida, así como el concepto de reloj de medición, que en la teoría de la relatividad aparecen
coordinadas, no encuentran ningún
objeto de la realidad que cuadre con ellos. También está claro que el sólido rígido y el reloj no juegan el papel de elementos irreductibles en la estructuración de los conceptos de la física. Son ideas sintéticas que deben jugar un papel independiente en la estructuración de la física teórica. Sin embargo, según mi opinión, en el estado actual de desarrollo
de la física teórica es
necesario recurrir a estos conceptos como si fueran independientes; pues aún nos
encontramos lejos de un
conocimiento tan preciso de los fundamentos de la atomística que nos permitan una exacta estructuración teórica de dichas ideas."
En un
contexto gravitatorio completamente general, los conceptos de energía y de tiempo, (que son imprescindibles para seguir los propios procedimientos de la teoría cuántica), no se
pueden definir de forma precisa y coherente con los requisitos exigidos por dicha teoría.
A ese respecto, el punto de vista de Roger Penrose nos parece muy
esclarecedor. Según él, las deficiencias en la descripción pueden corregirse si admitimos que, tan pronto como
estemos en presencia de una cantidad
{{significativa}} de curvatura espacio-temporal,
las engorrosas reglas de la superposición lineal cuántica pueden fallar. En ese punto, las superposiciones de amplitudes complejas de los desconcertantes
estados alternativos quedan reemplazadas por alternativas reales con pesos probabilistas
que acaban por sustanciarse en una alternativa real y determinada.
En cuanto a, qué se entiende por una cantidad {{significativa}} de curvatura, Penrose la establece en el nivel en que la medida de la curvatura que entra en juego, tiene aproximadamente la escala de un gravitón o más.
Si hay cuantos de energía ¿por qué no va a
haber cuantos de curvatura del espacio-tiempo? Según las reglas de la propia teoría
cuántica, el
campo electromagnético está "empaquetado" en cuantos de
individualidades que llamamos fotones. Análogamente un gravitón sería la partícula más pequeña de curvatura (con masa en reposo,
carga eléctrica nula y spin 2) no solo responsable de las interacciones
gravitatorias, sino de una existencia permitida por la física cuántica.
Básicamente, lo que se nos plantea es recuperar un aspecto determinista
en la
física cuántica al modificar las reglas ordinarias
de superposición lineal (de acuerdo con el procedimiento unitario),
cuando se aplican a gravitones y hacer que se establezca algún tipo de
"inestabilidad no-lineal" con asimetría temporal. Lo importante es que el sistema, en lugar de
obedecer de forma permanente a que haya superposiciones lineales complejas de
alternativas coexistentes, se
"decide" por una de ellas y, en definitiva, se concreta en una u otra. El que la elección se haga
por azar, o
por que haya "algo más profundo" que subyace en la elección, no impide
que una
de ellas se convierta en realidad.
El inconveniente de esta teoría, es que todavía no hay unanimidad
entre los físicos, puesto que (por ejemplo) para Hawking esta física desconocida
debería ser una teoría de la gravitación cuántica con simetría temporal, mientras que para Penrose (que defiende la asimetría temporal) esa teoría no podría ser ajena,
en modo alguno, a la segunda ley de la termodinámica en la forma que la conocemos. Pero tiene una ventaja sobre la teoría de las variables
ocultas, de Bohm y Hiley, y es que como la gravedad nos es "mostrada" de antemano, aunque
lleve implícita una realidad estructural oculta del universo aún no encontrada (como en el caso de la otra teoría) reduce nuestro nivel de incertidumbre, pues no es
de creer que la gravedad sea una mera "convidada de piedra"
que no intervenga para nada en la composición de las estructuras fundamentales del universo.
Puede también que después de todo, una teoría sobre variables
ocultas esté relacionada con la gravedad. Desde hace unos años las variables ocultas han sido
traídas de nuevo al primer plano por Gerard 't Hooft de la universidad de Utrecht y premio Nobel. Según él, la diferencia más destacada
entre la mecánica clásica y la cuántica estriba en la perdida de información.
Dado que las variables de la física clásica pueden tomar cualquier valor, mientras que las cuánticas sólo determinados, discretos, nos vemos obligados a admitir que un sistema clásico contiene
más información que otro cuántico. Es decir, un sistema clásico da origen
a un sistema cuántico, al perder información. Tal cosa puede ocurrir mediante el rozamiento o la existencia de otras
fuerzas disipativas.
Si lanzamos dos monedas desde la torre Eiffel con velocidades diferentes, la fricción del aire provocará que ambas lleguen al suelo casi a la misma velocidad. Un observador situado cerca del lugar apenas podrá discernir con qué velocidades se arrojaron; esa información constituye una variable oculta. En
este ejemplo y en muchas otras
situaciones, un amplio espectro de
condiciones iniciales diferentes, desembocan a largo plazo, en las mismas o muy parecidas condiciones
finales. Si el universo experimenta
algún tipo desconocido de rozamiento, la mecánica cuántica podría reflejar el hecho de que los resultados de los acontecimientos colapsan en
valores discretos, en lugar de repartirse por todo un abanico de posibilidades. Las leyes a que se someten
derivan de las leyes de Newton,
aunque difieren de ellas en algunos aspectos. Gerard 't Hooft sostiene que no son otros
que los de la mecánica cuántica. Según
esta idea, la naturaleza sería
clásica en los microniveles de la física, aunque parezca
cuántica a causa de la disipación. Respecto al origen del rozamiento que torna en cuánticos los sistemas clásicos, Carsten van de Bruck, de la universidad de Sheffield, cree que podría tener que ver con la gravedad y que los campos gravitatorios intensos podrían cambiar las leyes de la mecánica cuántica.
De todas formas, mientras "llega" o "no llega" una teoría más consistente y definitiva sobre la gravedad cuántica,
imaginamos que probablemente los físicos no tendrían nada que objetar al determinismo dentro y fuera de su disciplina si
nos decidiéramos momentáneamente a sustituir ese
término comprometido por el de "inferencia" (en el sentido de "ocasionar" o conducir a un "resultado"), aunque no es de creer que
considerasen determinista "mendicante" al que se conforma con admitir que "hay una ley que establece con una probabilidad razonable que el fuego va a dar calor", ya que sospechamos que muchos
físicos quizá opinen como Eddington, ( "los empedernidos deterministas quieren ir mucho más allá") quien hacía hincapié en el señalamiento de los supuestos "vicios
inconfesables" de quienes buscan la parte inconsútil de la naturaleza que haga
posible, a sus ojos, el
aseguramiento epistemológico de su permanente inteligibilidad:
"El determinismo no postula simplemente causas, sino causas
preexistentes; significa predeterminación."...Y sin embargo, fue el propio Eddington, quien
(además de tratar de compatibilizar su racionalismo pitagórico con un indeterminismo, que se
nos antoja era más de origen ideológico que otra cosa), realizó su propia declaración de principios: "la nueva inteligencia prevé el futuro con diversos grados de probabilidad, que varían desde una
casi total certeza a una completa
incertidumbre, según el campo de que se
trate."
Bien, pues nosotros, entre el dilema certeza-incertidumbre podemos introducir una "cuña" o terciar con la "creencia" (a estas alturas, bastante justificada) en
la determinación, lo cual, como diría Peirce, no es
más que introducir un
postulado.
Hemos de aclarar que
una cosa es, sí
hay determinismo o indeterminismo en el mundo y otra muy distinta si hay incertidumbre (o certidumbre) en el conocimiento de si hay determinismo o indeterminismo del mundo, aunque en la teoría cuántica se suelen intercambiar de forma equívoca el término determinación con el de certidumbre, y el término indeterminación con el de incertidumbre.
Puede que la incertidumbre se derive o provenga del hecho de que
hay indeterminación (realmente) del mundo (como piensan que ocurre algunos científicos) o se derive de que no ha llegado a descubrirse todavía la determinación, que por permanecer oculta impide despejar las relaciones de incertidumbre (como
dice Paul Scheurer: "se trata en efecto de relaciones y no de principio, pues ellas son demostrables") del mundo, que es lo que argumentan otros científicos. Hemos visto que la postulación del determinismo del mundo esta fundamentada;
tiene cierto parecido con la inferencia deductiva. Por ejemplo, si
el mundo tiene
características, algo las determinará. O también, el
mundo es determinista porque las cosas ocurren (como
dice Landsberg). El postulado de la determinación del mundo es cuasievidente y es el siguiente que se le puede ocurrir a cualquiera que previamente admita el postulado de la existencia del mundo. Después de todo lo escrito, sería
gracioso que ahora nos replanteásemos si el mundo existe o no (aunque no es un absurdo lógico el pensar que pueda
tratarse de "solo" una representación); sin
embargo, se escriben cantidades enormes de
libros discutiendo sobre si hay determinismo o indeterminismo. Dado que el
mundo existe, ¿no sería más apropiado
discutir sobre las circunstancias de su determinación o sobre las de los procesos azarosos
acompañantes?
Por supuesto, nadie va a admitir que sus planteamientos son
irracionales de entrada, y entonces desviará su atención (y tratará de hacerlo con la nuestra) hacia los hechos "significativos" o
"autodeterminativos" del mundo. Pero para la ciencia no hay
hechos significativos (excepto de forma
auxiliar, en la simbolización de las representaciones)
reales, sino, sólo hechos. Tampoco hay hechos autodeterminativos sin contexto. Un hecho autodeterminativo
se produce en el
seno del mundo
y el mundo "produce contexto". Porque, incluso cuando se alega que el orden surge del caos (Prigogine lo
hace) se puede contraargumentar, que el hecho cierto es que surgen órdenes de grado bajo a partir
de órdenes caóticos o de grado infinito. Pero lo que se denomina habitualmente
caos (en el sentido
de Prigogine), tal como nos hace ver Bohm, no es un completo caos, sino más bien un orden aleatorio inicial sobre el que se superpone otro
orden inicial de grado bajo: "En términos más generales, en los sistemas físicos hay
todo un espectro,
con órdenes de grado bajo en un extremo y caos y azar en el otro. En medio hay más tipos de orden enormemente
sutiles, que no son de grado bajo ni caóticos.
Sin embargo, la ciencia todavía no ha estudiado estos órdenes intermedios de
manera significativa. Podrían ser muy importantes para distintas áreas, e incluso la vida misma podría depender
de ellos."
Además, todavía podemos ser mas sutiles y decir a posteriori que
el mundo existe, entre otras
cosas porque "existe" (y existió) la posibilidad de su existencia. Y si la posibilidad de su existencia determina (aunque no sepamos como) que el mundo exista realmente, ¿como va a estar
determinado éste fortuitamente? ¿Acaso los
hechos fortuitos carecen de la posibilidad
de producirse al azar? El azar solo prohíbe los hechos imposibles, es decir, los indeterminables. Todos los demás hechos del mundo, los que se han producido,
se producen y se
producirán es porque tienen la posibilidad de hacerlo, lo que supone la existencia de una capacidad de determinación ontológica previa a la de su determinación física. Es más, ni siquiera las causas pueden
calificarse de fortuitas; sólo pueden reconocerse la existencia de
efectos accidentales originados por una conjunción de causas inicialmente independientes y frecuentemente desconocidas.
Así, pues, las únicas indeterminaciones físicas, no son las de los hechos fortuitos
(puesto que, son fáctica u ontológicamente posibles) sino las de los hechos imposibles, como
por ejemplo, la producción de "fuego frío", pegasus, los otros seres imaginarios
de Borges o cualquier otra elucubración parecida.
Ahora bien, encontrar la determinación en los hechos concretos, a
veces es sumamente difícil, ya que las "ligaduras" entre los diversos niveles de la realidad son tan
sutiles que no somos capaces de localizarlas físicamente. Con razón, René Thom
llama determinismo a "cualquier
tipo de ligaduras que operan sobre el conjunto de las evoluciones virtuales, y no hay que confundir esa idea con alguna clase de
unicidad en las soluciones".... "Todo lo que elimina algo de
virtualidad es para mí una expresión del determinismo. Pero comprendo que quizá sea una idea demasiado
fuerte para algunos". Precisamente, lo endeble de la conexión entre la capacidad ontológica y la capacidad física en la generación de los cambios es aprovechado por el fenomenismo ontológico para
asegurar que los
fenómenos percibidos por el sujeto son no sólo los únicos datos cognoscibles, sino también las únicas cosas
existentes. Pero el fenomenismo ontológico presenta el doble inconveniente de
excluir (en forma radical) del conocimiento todo fenómeno no perceptible y negar la autonomía de la materia. En nuestra
opinión, Bertrand Russell ayuda a rescatar eficazmente los fenómenos no
percibidos para una epistemología consecuente, postulando la existencia de
entidades intermedias, los "perceptibles" (sensibilia), los cuales tienen el mismo estatuto ontológico que los datos percibidos sin ser
necesaria y estrictamente datos
para ninguna mente.
Así, el problema de si el objeto de percepción (por ejemplo, una partícula) es independiente de su percepción, es, o parece ser, su indeterminabilidad. El mismo se resolverá, según parece, en un sentido negativo
o afirmativo dependiendo de si estamos implicados o no en su observación.
Pero no es aceptable que se considere realista un análisis de nuestras
sensaciones, fragmentando los elementos que intervienen en la percepción en
términos como sujeto, acto y objeto, sin tener en cuenta las relaciones recíprocas de los contenidos sensoriales
que intervienen en dicha fragmentación. En
consecuencia, siempre hay que tener presente
que la
imposibilidad principal de un modelo determinista elaborado a posteriori es, en
todo caso, relativa a un conjunto definido a priori de evoluciones
virtuales (en mecánica cuántica, la imagen puntual de una partícula y su trayectoria). De
esta forma, nos hacemos cargo de que las debilidades del determinismo son, sobre todo, debilidades de nuestra imaginación. Pero nada nos obliga a admitir que estas debilidades sean
definitivas.
Sin embargo, si dejásemos las cosas de este modo
establecidas quedarían como un poco sueltas o como "prendidas con alfileres". Admitamos que hay determinismo en la configuración de la realidad, e incluso, en la de nuestra realidad
"mental", pero ¿de qué clase? Obviamente, esta pregunta no puede ser respondida más que de una manera general: la de que nada ocurre de manera
incondicional ni absolutamente irregular, es decir, de forma que se pudiese
calificar de arbitraria. En otras palabras, todas las cosas del mundo (incluso las representaciones) están
determinadas por algo, según leyes naturales. No se vea en esta exposición un rastro de causalismo, en el sentido de que un acontecimiento tenga que estar, de algún modo, dependiendo de otro, sino más bien en el sentido de que ambos pueden estar correlacionados (como los fotones de la paradoja EPR y el
experimento de Aspect) aunque la misma correlación no pueda ser a veces descrita, y mucho menos aún
evidenciada. Estamos hablando de lógica necesitante, según la cual los fenómenos se producen, no
de necesidad causante, por la que se inclinan algunos fisicalistas extremados. Aquélla
excluye que la causa deba contener
en cuanto tal, al
efecto, y sí considera digno de
relevancia, en cambio, que un acontecimiento dado cualquiera precisa de una relación íntima (correlación)
con otro. Otra problemática aparece cuando se evidencia que la causación se difumina en
"sólo" una correlación, y que hay correlaciones de simultaneidad y de sucesión. Entonces es cuando se hace
patente también que no hay una unidad en las series de antecedentes causalmente responsables (o no) de un acontecimiento dado. Por consiguiente, siempre que estemos ante una correlación de
simultaneidad, podremos sustituir una sucesión de antecedentes por otra más apropiada, a fin de obtener una nueva serie de
antecedentes causales más conveniente. Desde esa perspectiva, la expansión hacia otros dominios del campo de la causalidad es muy clara, aunque eso sí, no
se pueda ni se deba denominar como se venía haciendo tradicionalmente.
Ya sabemos que el lema fenomenalista según el cual nada más hay que saber acerca de las leyes de la naturaleza, que las leyes mismas, es una "barrera" protectora
que se intentó establecer frente a supuestos teóricos e inconscientemente "metafísicos" del determinismo clásico.
Según éste, la naturaleza constituye un sistema cerrado en sí mismo y para sí mismo.
Pero ésas no son las obsesiones de la ciencia moderna. La razón suficiente de una ley de la naturaleza se encuentra en ciertas leyes; la de éstas, a su vez, en
otras y así sucesivamente. En
apariencia, pues, nada debería justificar la creencia en primeros principios (que también son los últimos, según se mire)
ni en leyes
fundamentales. Sin embargo, el razonamiento inverso no es imposible de realizar. ¿Por qué
hemos de pensar que hay una apoyatura indefinida de unas leyes en otras para dar cuenta de todos los fenómenos del universo? ¿Acaso el catálogo registrado de
fenómenos posibles de éste recoge o compendia todos los que pueden producirse
en él? ¿No
quedarán por localizar algunos (o bastantes) fenómenos raros, escasos, aislados o
"no" producidos todavía? En todo caso, estimamos que ninguna ley de la naturaleza puede
violar las
leyes del
entendimiento (aquí sí somos antropocéntricos), y
es justamente por eso por lo que el principio de comprensibilidad
puede enunciarse. El entendimiento prima sobre las leyes que supuestamente rigen la existencia de
fenómenos hasta que no estén sólidamente establecidas. Es más, suponiendo que
esto último fuera así, tendría su fundamento en un previo y duro proceso de examen de la teoría proposicionalmente construida al efecto por el mismo entendimiento,
erigiéndose como principal protagonista esclarecedor.
Únicamente se puede ver defraudado con esa concepción
del mundo cierto
extremismo fatalista o mecanicista. También puede parecer que se dan excesivos
e infundados
alientos a un funcionalismo
exagerado. Pero es que la ciencia no puede
conocer hechos que estén libres de interpretación, precisamente porque debe
explicarlos, y
lo que es más difícil todavía, verosímilmente.
Eso puede implicar cualquier grado de incertidumbre
y, así mismo,
la
existencia de una fuerte dosis de determinismo mental que trata de
reducir aquél, porque (generalmente) sabe lo que le conviene.
En resumen, si queremos evitar confusiones, podemos decir que la forma newtoniana de
determinismo está desacreditada, pero el
determinismo (en su más amplio sentido) subsiste diseminado en un espectro de categorías
que, sin duda, han debido perfilar una configuración específica, tanto de la mente como de la razón humanas.
No hay comentarios:
Publicar un comentario