martes, 10 de enero de 2012

51- Cuestiones sobre determinismo e incertidumbre




51-CUESTIONES SOBRE DETERMINISMO E INCERTIDUMBRE-


                   õ
                             
               "El mundo material está lleno de analogías con el inmaterial, y esto es lo que da cierto tono de verdad a ese dogma retórico de que una metáfora o una comparación pueden fortalecer un argumento e igualmente embellecer una descripción. El principio de la vis inertiae o fuerza de la inercia, por ejemplo, parece idéntico en lo físico y en lo metafísico. No es menos cierto, en cuanto a lo primero, que un cuerpo  voluminoso se pone en movimiento más difícilmente que uno pequeño, y, en consecuencia, su momentum o cantidad de movimiento esta en proporción con esa dificultad, y que, en cuanto a lo segundo, los intelectos de alta capacidad son al mismo tiempo más impetuosos, más constantes y más accidentados en sus movimientos que los de un grado inferior; son los que se mueven con menor facilidad, los más cohibidos y vacilantes al iniciar su avance."

                                                                     Edgar Allan Poe (escritor estadounidense 1809-1849)

                               Dos partículas que tienen un origen común nunca serán totalmente independientes”
 
                                                                                           Nicolas Gisin (físico austriaco)

                       Los antiguos filósofos griegos


                   El concepto tradicional de determinismo en un sentido amplio, incluía la convicción de que todos los fenómenos están relacionados necesariamente según leyes rigurosas; o lo que es lo mismo, que todo efecto debe estar determinado unívocamente en su causa. 
                   Ya en el mundo clásico, el determinismo tuvo una brillante representación en Demócrito quien concibió la naturaleza como el resultado de una perfecta regulación del movimiento de los átomos en el espacio vacío. Sin embargo, su rígido materialismo determinista al que estaban sometidas todas las cosas y, por supuesto, el hombre, se vio parcialmente mitigado en Epicuro, y más tarde en Lucrecio, quienes dado su interés por encontrar una explicación física a la supuesta existencia del libre albedrío en los individuos y los hechos azarosos de la naturaleza, introdujeron el concepto de clinamen (o desviación). La observación de que muchas veces hay un hallazgo, algo nuevo, en la concatenación de las series causales de los sucesos, lo atribuyeron a una mutación espontánea en la propia dirección de los átomos, que ejercía una influencia sobre aquellos desviándolos de su camino natural. Pero el clinamen no suponía un cambio de dirección en el movimiento del átomo o una indeterminación reflejo de una libertad de tipo físico, sino que era la determinación original del movimiento, una verdadera fusión del movimiento y su dirección, que relacionaba un átomo con otro.
                   Por eso, descontada esta pequeña incertidumbre, el determinismo no tuvo muchos problemas para afianzarse a lo largo de los siglos y encontró su más firme expresión en las primeras décadas del siglo XIX en los escritos de Laplace, quien sostenía que si pudieran conocerse en un momento dado todas las fuerzas que actúan en la naturaleza y las posiciones que ocupan todos los cuerpos, sería factible prever los estados subsiguientes del universo. Es conocida una famosa frase de su obra Teoría analítica de las probabilidades: "Para una tal inteligencia todo sería claro y cierto y tanto el futuro como el pasado estarían presentes."
                    Sin embargo, el combatido determinismo no es hoy en día, sinónimo de reacción contra ninguna doctrina indeterminista, como si libertad equivaliera a indeterminación. Aunque la desigual valoración que se hace del determinismo es, por regla general, la de los grados en que se puede presentar, el hecho cierto es que materialistas, monistas, positivistas, empiristas, biologistas, etc., han vuelto la espalda todos ellos al mecanicismo determinista animados, sin duda, por la obsolescencia en algunos aspectos de la física newtoniana.
                   Desde un punto de vista rigurosamente científico, se produjo el abandono en la física  del modelo mecanicista universal con la teoría cuántica, al observar que las condiciones iniciales y necesarias de la hipótesis determinista no se podían realizar determinando unívocamente en cada instante el estado del sistema físico, es decir, precisando las posiciones y los momentos absolutos de todos los puntos materiales que componen el sistema investigado. No obstante, las previsiones de Werner Heisenberg, después de la euforia desatada por el triunfo de su principio de incertidumbre en el ámbito de la microfísica, le llevaron a considerar como muy posible la defección del concepto mismo de antecedencia. En cierto modo, se sumaba a la crítica de Peirce (uno de los fundadores del pragmatismo) quien ya había señalado cómo el supuesto teórico e inconsciente de todo determinismo de origen clásico es metafísico, pues presupone que la naturaleza constituye un sistema cerrado absolutamente en sí mismo. Pero tan radical postura no pudo consolidarse, y el concepto de antecedencia sigue estando plenamente vigente. En ese contexto se ha desarrollado una corriente de determinismo desprovista de contenido ideológico y que se adhiere a la revisión formal del concepto de causalidad necesaria, con la consiguiente eliminación de las causas finales de la naturaleza, tal como la concebían clásicamente Descartes, Leibniz y Kant y el excluyente materialismo determinista que estuvo en su pleno apogeo a finales del siglo XIX.
                   En la actualidad, y después de una revisión formal del concepto de causalidad necesaria, hecha por el positivismo científico durante el siglo XX, nos hemos vuelto más escépticos. Ahora somos más modestos y tenemos un concepto más restringido de determinismo: entendemos que es una forma de producción de sucesos condicionados, aunque no siempre deban hacerlo de una manera causal. Acogiéndonos a un principio de determinación, podríamos decir que la realidad no es un mero agregado de sucesos aislados e individuales sino que se condicionan en formas definidas, en las que no caben ni la arbitrariedad ni la incondicionalidad. Podríamos invocar incluso un principio de causalidad de manera legítima, pero teniendo en cuenta que éste refleja o reconstruye sólo algunos aspecto parciales de la determinación. Se mantiene así intacto el ideal de deducir o explicar los efectos observados, a partir de sus supuestas causas eficientes pero sin pasar por alto la siguiente advertencia: no siempre el vínculo entre causas y efectos tiene por qué ser causal. Tal circunstancia no debería ser un desencadenante de zozobras científicas o filosóficas, pues basta para considerar que haya determinismo, el que podamos reconocer el carácter regular, productivo y genético de la vinculación entre acontecimientos. A ese respecto, es más censurable que los conceptos que implican decisiones propias, como los de responsabilidad y libertad, se manejen habitualmente con cierto desparpajo tratando de soslayar el consabido problema de nuestros condicionantes físicos, biológicos y ambientales.
                   Cuanta más libertad, espontaneidad o autodeterminación rijan nuestras tomas de decisiones, más podemos sentirnos tentados a creer que la base de esa "libertad moral" es la indeterminación física (y consiguientemente biológica). Pero, como cualquier objeto concreto existente, sólo podemos tener cierto grado de espontaneidad. Ésta tiene sus limitaciones, tanto las intrínsecas como las derivadas de nuestra vinculación con el ambiente e infinidad de otros existentes. Precisamente eso es lo que nos permite decir que nadie es absolutamente libre ni absolutamente responsable. Es ese margen de lo condicional, que no entra en los dominios de nuestro control consciente a lo que llamamos determinismo mental (que sería el resultado de un determinismo de más amplio espectro y ligado a los sucesos del mundo). Aunque los grados de libertad más elevados aparecen en los seres humanos por su autoafirmación activa y consciente es imposible eliminar la vinculación que existe con los sucesos cósmicos. Únicamente se puede aspirar a una regulación consciente de la determinación teniendo como guía la laxitud de los nexos entre causas y efectos. Al haber desaparecido la seguridad de poder realizar un seguimiento riguroso del curso de los hechos, no se acepta que éstos se rijan exclusivamente por la existencia de leyes necesarias. Un determinismo sutil (pero no débil o inconsecuente) que tiene cabida muchas veces en el campo de lo probable, es el camino de acceso a la realidad, es decir, de nuestra realidad mental.
                   A tenor de lo dicho y ciñéndonos concretamente a los aspectos deterministas que condicionan esa realidad, se puede observar que ésta no se sitúa meramente en un lugar de confluencia virtual de fuerzas de distinta índole, sino que pasa a ocupar su propio espacio. La existencia de mentes se ha convertido en una verdad axiomática, y si no admitimos que haya intervención de factores y elementos que permitan explicar el origen determinista de su comportamiento, se haría muy difícil encajar lo que todas tienen de común (la consciencia) con lo que podríamos denominar una eidética reciente de lo cósmicamente probable.
                   No se concibe tal cosa en cierta clase de pensamiento indeterminista contemporáneo. La aceptación del "eidos" platónico (especie inteligible e incorpórea, eterna y separada de los seres sensibles pero informada por ellos) se transforma, por ejemplo, en un término técnico de la fenomenología de Husserl que es identificada con la "esencia" y se refiere al resultado de la reducción eidética de la conciencia individual y de su flujo de experiencias vividas. Pero para nosotros, el eidetismo, en tanto en cuanto no se limite a ser una aplicación reduccionista de imágenes y amplíe su campo de acción a las impresiones (en el sentido que les dio Hume) o ideas, (en sentido cartesiano) no tiene por qué quedarse en un método que dé como resultado una conciencia pura que sea calificada (a pesar de la renuncia a la aceptación incondicional de todos los influjos que actúan libremente sobre ella) de trascendental. Tampoco ha de limitarse a ser una mera proyección visual del mundo en el que se desenvuelve la mente, sino que puede y debe ser una proyección inductora y global del mundo que posibilite su interiorización mediante los datos sensoriales, aunque no por los datos sensoriales brutos (los fenómenos) solamente. También son importantes los conceptos elaborados por el intelecto que es influido por los influjos histórico-culturales del momento.
                   Si imaginásemos por un instante que lo probable (lo improbable no cuenta, pues éste es un caso particular de la probabilidad que tiene un carácter más remoto) nos indetermina física y mentalmente, ¿querría decirse con eso, que estamos determinados como un espejismo? Aun así, no hay físico que no pueda dar una explicación física de un espejismo. Entonces, ¿por qué no podemos definir las realidades mentales como frutos determinados en el seno de lo probable omnipresente? Causas próximas o remotas, probabilismo determinista o determinismo colectivo (impropiamente llamado estadístico) y estructural son, si bien se mira, distinciones de matiz. Un determinismo se supone rige nuestras vidas. Lo que ocurre es que las distintas categorías de determinación están relacionadas de modo que no siempre es perceptible. De ahí el pase sin transición por parte de algunos estudiosos de la naturaleza, del mecanicismo más cerrado al acausalismo más radical. El resultado es que las causas o bien se inventan o se cree encontrar en los fenómenos una facultad autodeterminativa libre de presupuestos condicionantes. En realidad se abraza el indeterminismo, cuando hay una cierta renuncia de antemano a entender o explicar la "complicatio" en términos reconocibles, o en otras palabras, basándose generalmente en una información oculta o esotérica a la que no se tiene capacidad de acceso.
                   Pero, con seguridad, debe haber grados o niveles de determinación siempre y en todo el universo, porque incluso cuando se observan procesos de autodeterminación cuantitativa (de eso tenemos ejemplos en los sistemas inanimados, objetos de estudio por parte de Prigogine) puede apreciarse que ésta surge de procesos caracterizados por otras categorías de determinación, sin excluir la causativa.


                   El "puzzle" cuántico


                   Sin embargo, la irrupción de la teoría cuántica en el panorama de la física del primer cuarto del siglo XX pareció conmover los cimientos del determinismo al constatarse que la materia no está constituida por partículas últimas, determinables en su disposición espacial, en sus movimientos y sus medidas. Hasta entonces, había una física clásica que de acuerdo con el sentido común presuponía un mundo objetivo que evolucionaba de un modo claro y determinista, gobernado por ecuaciones matemáticas exactamente formuladas. Se consideraba que nuestras mentes y nuestros cuerpos, al formar parte de este mismo mundo, evolucionaban de acuerdo con las mismas ecuaciones de la física clásica y determinista, y eso independientemente de las sensaciones que pudiéramos tener de que somos nosotros, los que nos gobernamos gracias a nuestras voluntades conscientes.
                   Pero la teoría clásica tropieza con una serie de dificultades, que fueron pasadas por alto en el pasado. La principal de ellas radica en el hecho de que las partículas no son piezas sueltas que se aglomeran sin más, sino que coexisten con otro tipo de objetos físicos. Las mismas partículas necesitan describirse mediante un número finito de parámetros compuesto por tres posiciones y tres momentos, pero además, están acompañadas por los campos, otro tipo de objetos físicos que requieren para su descripción un número infinito de parámetros. Esta diferenciación, con la que tenía que vérselas la nueva física cuántica es puramente nominal y en la realidad no es físicamente consistente. Lo cierto es que un sistema completamente asentado, en el que las partículas y los campos están en equilibrio, es aquél en el que las partículas tienen cedida toda su energía a los campos. En situación de equilibrio se produce el fenómeno de la equipartición de la energía, es decir, la energía se reparte por todos los grados de libertad del sistema; pero como los campos tienen infinitos grados de libertad absorben toda la energía disponible dejando a las partículas absolutamente desprovistas de ella.
                   La primera consecuencia, es que los primitivos modelos de sistemas atómicos elaborados a modo de sistemas solares en miniatura no podían ser estables, pues todo el movimiento de las partículas se transferiría a los modos ondulatorios de los campos. El inconveniente principal en un modelo así concebido es que cuando un electrón orbital se moviera alrededor del núcleo debería emitir, sobre la base de la teoría clásica y siguiendo las ecuaciones de Maxwell, ondas electromagnéticas de intensidad creciente hasta infinito en una ínfima fracción de segundo, al tiempo que se precipitaría hacia el núcleo penetrando en él.
                   La realidad desaprueba de forma contundente esta interpretación y lo que ocurre no tiene congruencia con la teoría clásica. Sí, los átomos pueden emitir ondas electromagnéticas en forma de luz pero únicamente en destellos de características específicas y frecuencias discretas. Cada clase de átomo que componga un material calentado, emite su propia luz que contiene frecuencias muy particulares. Dichas frecuencias pueden ser separadas mediante el uso de un prisma que proporciona las líneas espectrales características del átomo de que se trate. Cada átomo tiene su propia huella luminosa, pero las frecuencias a que dan origen a esa huella obedecen a reglas descriptibles que carecen de fundamento desde el punto de vista de la teoría clásica.
                   También hay otra inesperada muestra de la inestabilidad en la coexistencia de campos y partículas en el fenómeno conocido como radiación del cuerpo negro. Recordemos que el cuerpo negro absorbe toda la radiación que le llega; precisamente su nombre proviene de que, al ser nula la reflexión, no ha lugar para distinguir colores por este procedimiento. Además, como ha de mantener su temperatura constante, debe emitir la misma energía que absorbe. Éste puede ser el caso de cualquier objeto que se encuentre en alguna temperatura definida y con la radiación electromagnética en equilibrio con las partículas, siendo capaz de absorber completamente las radiaciones que incidan sobre él, cualquiera que sea la índole o radiación de las mismas. Con sentido común, aunque no con todas las variantes de él, los físicos John W. Rayleigh y James Jeans calcularon que toda la energía sería absorbida por el campo sin límite alguno. Es decir, la energía seguiría fluyendo con frecuencias cada vez mayores y sin cesar, hacia el campo y culminando en la catástrofe ultravioleta. Pero una vez más, la naturaleza no estaba de acuerdo con los métodos de la física clásica. En el caso de las frecuencias bajas en las oscilaciones del campo, la energía se distribuía como habían predicho ambos físicos, pero en el grado extremo de frecuencias altas, las observaciones demostraron que no solo no hay catástrofe, sino que la distribución no crece sin límite y llega a caer a cero conforme crece la frecuencia.
                   Los dos casos descritos presuponen la observación, y ésta, a su vez, presupone que entre los fenómenos a observar y las percepciones sensoriales que finalmente entran en nuestra conciencia existe una relación unívoca y conocida. El tema es que de esa relación sólo podríamos estar seguros si conociésemos las leyes de la naturaleza que la determinan. Ahora bien, cuando es preciso poner en duda esas leyes el concepto de observación se altera y cambia de significado. Es entonces cuando la teoría determina lo que puede y cómo puede observarse. Así, el esquema de partículas materiales original de la física de Newton necesitaba para ser coherente, complementarlo con el campo electromagnético que también era materia. Hecha esa aclaración, solo cabe decir, que si ambas cosas eran materia, no se ve que haya dificultad lógica alguna que nos impida sugerir que las partículas podrían considerarse unos campos sui géneris que han de precisar de algún elemento o componente natural que haga posible que los campos normales adopten características discretas.
                   En el año 1900 (el mismo en el que Rayleigh y Jeans ensayaron su hipótesis de trabajo de la catástrofe ultravioleta) el físico alemán Max Planck sugirió una solución verdaderamente original para suprimir los extraños modos de alta frecuencia del cuerpo negro: para ello propuso que las oscilaciones electromagnéticas deberían suceder en cuantos o pequeñísimos paquetes cuya energía E mantendría una relación definida con la frecuencia v, del siguiente modo E = v siendo una constante de acción fundamental de la naturaleza, que más tarde se llamó constante de Planck (es tan pequeña como 6,62559 x 10-³ julios por segundo). Quizás en un primer momento nadie lo supo, pero acababa de anunciarse al mundo los primeros y geniales esbozos de lo que luego sería la revolucionaria y fertilísima teoría cuántica.
                   Al mismo Planck le desagradaba profundamente la idea del intercambio energético en porciones discontinuas y realizó muchos esfuerzos para desestimar su propia hipótesis y, a ser posible, olvidarse de ella. La idea del continuum había ganado mucha fuerza en los siglos precedentes, y a ella se le había añadido el descubrimiento por parte del inglés Thomas Young de que la luz consiste en ondas. Sin embargo, la atención para la propuesta de Planck, resurgió cuando Einstein planteó una audaz teoría. Como Maxwell y Hertz habían demostrado hacía tiempo que la luz consiste en oscilaciones del campo electromagnético, y el mismo Newton había sugerido dos siglos antes que, la luz, después de todo, debía estar compuesta de partículas; solo habría que asociar los hechos probados con la idea, para llegar a esta conclusión: los campos electromagnéticos solo pueden manifestarse en ese tipo de unidades discretas. Que la luz consistiera en partículas y en oscilaciones del campo al mismo tiempo, era verdaderamente algo muy nuevo y chocante, puesto que suponía la armonización de dos concepciones, en principio, irrevocablemente opuestas. Pero en 1923 el físico francés Louis de Broglie proporcionó otra (constante) más ajustada a la realidad en esta aparente confusión entre partícula y onda. La propuesta de De Broglie contemplaba que las propias partículas de materia habrían de comportarse a veces como ondas. Es más, eso implicaba que la clásica dicotomía tradicional entre partículas y campos era una disquisición mental pero no una característica imputable a la realidad de la naturaleza física del mundo. La frecuencia de la onda de De Broglie v para una partícula de masa m, cumple perfectamente con la relación de Planck y si se combina con la famosa relación de Einstein E =m.c² sucede que v está relacionada con m mediante las igualdades: v = E = m. c²
               Durante poco tiempo, pareció observarse como si la naturaleza diera lugar a un mundo físico consistente, en el que partículas y oscilaciones de campo fueran casi la misma cosa. No obstante, se echaba de menos algún componente más apropiado y sutil, que confiriera a las expresiones partículas y ondas una imagen más fidedigna a lo que en realidad debían representar. Un cuarto de siglo después de la solución provisional y no deseada de Planck, los inventores de la mecánica ondulatoria creyeron temporalmente que preparaban la vía a la descripción clásica continua y determinista, pero vieron frustradas sus esperanzas. La naturaleza, no solo parecía rechazar la descripción continua, sino que la teoría cuántica remitía a los físicos, nada menos, que a las elucubraciones mentales que veinticinco siglos antes habían tenido Leucipo y Demócrito, que fueron los visionarios que, a pesar de su contrastado determinismo, concibieron la primera discontinuidad, es decir, los átomos esparcidos y flotando en el espacio vacío.
                   La teoría cuántica tal como la conocemos hoy, surgió de un planteamiento un poco posterior y debido a autores independientes entre sí. Éstos fueron: el físico alemán Werner Heisenberg y el también físico austriaco Erwin Schrödinger. En un primer momento los dos esquemas presentados casi simultáneamente, parecían muy distintos, puesto que Heisenberg descartó deliberadamente toda imagen del átomo y se basó únicamente en magnitudes que podían medirse en los experimentos, (en lo profundo de su teoría, yacía la idea de que los electrones eran partículas) mientras que Schrödinger partió de una imagen física del átomo postulando que se trataba de una entidad real (su teoría, de acuerdo con sus inclinaciones deterministas, presuponía la idea de que los electrones eran ondas). Pero enseguida se observó la estrecha equivalencia de ambos esquemas, al comprobarse que daban lugar a ecuaciones que describían exactamente el comportamiento de propiedades que se podían medir en el extraño mundo cuántico. Es por eso que se pudieron agrupar fácilmente dentro de un ámbito más general e inteligible, gracias sobre todo a la labor del físico teórico Paul Dirac. La versión de este último es la más completa porque el desarrollo de su álgebra cuántica comprende tanto la mecánica matricial como la mecánica ondulatoria, incluidas ambas en casos especiales.
                   Heisenberg comenzó por tratar como asunto de interés prioritario el esclarecimiento de la significación de las ondas de De Broglie, que guían a las partículas materiales en su movimiento. Porque en un principio no se sabía si eran ondas reales como las ondas de la luz, o hábiles ficciones matemáticas introducidas por su utilidad para describir los fenómenos físicos del microcosmos. Enseguida se dio cuenta que la raíz de la dificultad estribaba en el intento de aplicar los métodos de observación ordinarios a fenómenos que tienen lugar a escala atómica o subatómica. En el mundo habitual de la experiencia cotidiana podemos observar cualquier fenómeno y medir sus propiedades sin importarnos las consecuencias ulteriores de tal decisión, pues estimamos que no hay influencias perturbadoras significativas que alteren la naturaleza misma del fenómeno. Pero en la escala microcósmica en la que experimentamos, no se puede pasar por alto la perturbación producida por la introducción de los aparatos de medición. Las energías puestas en juego son tan pequeñas, que incluso la medición realizada con mayor cuidado puede originar perturbaciones muy sustanciales y no puede garantizarse que los resultados obtenidos en dicha medición, describan correctamente lo que habría ocurrido en ausencia de los aparatos de medida.
                   En el mundo macroscópico podemos seguir la trayectoria de una pelota de tenis, de ping-pong o de fútbol sin que se afecte esa trayectoria para nada. Es cierto que la luz ejerce una  cierta presión sobre la superficie de cualquiera de las pelotas de que se trate, pero es demasiado pequeña para afectar a la trayectoria de las mismas, y despreciable si se trata de medir sus efectos. Pero la cosa cambia, y mucho, si reemplazamos la pelota por un objeto físico tan pequeño como un electrón.
                   A tal efecto, y a modo de experimentación Heisenberg imaginó un cañón electrónico especial que era capaz de disparar un solo electrón horizontalmente en una cámara vacía, a la que se le había extraído hasta la última molécula de aire. La luz provenía de una fuente ideal, que podía emitir diversos electrones seleccionando a discreción su número y longitud de onda. A través de un microscopio también ideal, capaz de sintonizarse  a voluntad, se podía observar el movimiento del electrón en la cámara a lo largo de todo el espectro, es decir, desde los más cortos rayos gamma hasta las ondas de radio más largas.
                   Si hubiera que atenerse a los textos clásicos de mecánica, el electrón al ser disparado en la cámara debería seguir una trayectoria previsible y conocida como parábola. Pero en realidad, en el momento en que un fotón colisiona con él, el electrón retrocede y cambia de velocidad. Al observar la partícula en puntos sucesivos de su movimiento, se comprueba que sigue un curso zigzagueante a causa de los impactos del fotón. Como disponemos de un instrumento ideal muy flexible, podemos reducir la importancia de los impactos disminuyendo la energía de los fotones, algo que es factible utilizando luz de menor frecuencia. Podemos, incluso, conseguir que la perturbación del movimiento del electrón sea tan pequeña como queramos. De hecho, nuestro aparato nos permite llegar al límite de una frecuencia infinitamente baja. Pero entonces sí que surgen nuevas e importantes dificultades epistemológicas. Cuanto más larga dispongamos que sea la onda de luz, menos seremos capaces de determinar el objeto a causa del efecto de difracción. Hilvanando esas peculiaridades del movimiento electrónico, Heisenberg consiguió demostrar que el producto de las incertidumbres sobre la posición y la velocidad nunca puede ser menor que la constante de Planck dividida por la masa de la partícula.
                   La cuestión es que si experimentamos con ondas muy largas podemos determinar la velocidad de la partícula porque está imperturbada, pero estaremos en un alto grado de incertidumbre acerca de su posición. Mientras que si experimentamos con ondas muy cortas podemos definir claramente la posición de la partícula en movimiento, pero entonces interferimos en gran medida su velocidad. Puede escogerse un camino intermedio entre ambas incertidumbres pero nunca eliminarlas absolutamente. Si, por ejemplo, utilizamos una longitud intermedia de onda luminosa conseguiremos perturbar no excesivamente la trayectoria de la partícula, y a cambio, lograremos determinar su trayectoria con bastante aproximación. Es decir, podemos representar de una manera medianamente satisfactoria la trayectoria observada de un electrón, expresándola en términos clásicos, aunque eso sí, no se verá reproducida en una línea fina, precisa y afilada (que significaría la ausencia de indeterminación) propia de una, claramente determinable, sino más bien como una banda ligeramente borrosa y de difuminados límites, que es la sinopsis de dos clases irreductibles de incertidumbre.
                   Heinsenberg concluyó pensando después de todo esto, que a un nivel microfísico debemos rechazar la idea de que la trayectoria de un objeto es una línea matemática ideal, es decir, infinitamente delgada. Cuando observamos fenómenos en el mundo en grande de la experiencia corriente, podemos pensar que un objeto se mueve manteniendo una cierta ruta por una especie de vía determinada de antemano. Pero las pequeñas partículas materiales, tales como protones o electrones, carecen, en cierto modo, de movimiento individual y se mueven dentro de un margen, guiados por ondas, que pueden asimilarse bastante bien con las trayectorias de línea ancha de la mecánica clásica. Esto tiene su importancia, porque si bien podemos representar la trayectoria de un electrón satisfactoriamente por una línea, la cosa cambia si nos proponemos describir la órbita de un electrón dentro de un átomo en los mismos términos. En ese caso, la banda de incertidumbre es tan ancha como la distancia a la órbita desde el núcleo. La guía de las partículas por las ondas se realiza de una manera estocástica y no por un riguroso orden determinista. En otras palabras, hay incertidumbre porque solo podemos calcular la probabilidad de que una partícula material pueda ser encontrada en un cierto sitio por un instrumento apropiado o de que un electrón colisione con un punto dado de una pantalla de detección, pero no podemos asegurar de ninguna manera la ruta que seguirá en un campo de fuerzas dado.
                   Lo cierto es que las descripciones cuánticas son muy precisas, aunque completamente diferentes de las familiares descripciones clásicas. Las probabilidades, en realidad, no surgen en el ínfimo nivel cuántico de las partículas (las cuales evolucionan de una forma determinista) sino que, se conjetura que puedan hacerlo por vía de acción a una mayor escala, seguramente ligada con la emergencia de las propiedades del mundo macroscópico que nos es tan habitual. De hecho la expresión probabilidad en física cuántica se utiliza en un sentido bastante diferente al que se le suele dar en la física clásica y la vida cotidiana. La física clásica presupone que su ámbito de aplicación se extiende a un problema tal como el del comportamiento de las moléculas de un gas. Éste se describe sobre la base de la probabilidad estadística a causa del conocimiento deficiente o incompleto que tenemos. Pero si se diera el caso de que conociéramos las velocidades y posiciones de todas las partículas del gas, sería factible predecir con gran exactitud todos los sucesos dentro de la masa de gas. Sin embargo, el principio de incertidumbre elimina de un plumazo toda esperanza de poder predecir los movimientos de las partículas individuales, pues nunca conocemos (ni podemos conocer) con precisión las condiciones esenciales en el primer lugar que ocupan. Las partículas no son susceptibles de hacer descripciones individuales para cada una de ellas, sino que deben considerarse como complejas superposiciones de configuraciones alternativas de todas ellas en conjunto.
            En una imagen clásica, un electrón podría ser localizado en la posición A o tal vez en la posición B. Sin embargo, en la descripción de la mecánica cuántica, las posibilidades del electrón son mucho más amplias de lo que imaginamos. El electrón, además de poder ocupar una cualquiera de las dos posiciones mencionadas, alternativamente, podría ocupar uno cualquiera de otros muchos números de estados posibles, con lo que de algún modo no evidente, ocupa ambas posiciones simultáneamente. Si empleamos la notación ∣A |para significar el estado en el que el electrón está en la posición A, y la notación ∣B | para significar el estado en el que el electrón está en la posición B, según la teoría cuántica, existen además otros estados posibles abiertos al electrón, que se pueden representar así:
               wA+ zB∣, donde los llamados factores de peso w y z que aparecen son números complejos (de los que al menos uno debe ser no nulo). Es decir, en mecánica cuántica cada posición simple que la partícula pudiera tener es una alternativa disponible para ella. No podemos asegurar en términos clásicos y familiares lo que significa que un electrón esté en un estado de superposición de dos sitios al mismo tiempo, con factores de peso complejos. Pero si sabemos que esta colección de pesos estadísticos complejos, describe el estado cuántico de la partícula. Es completamente normal que encontremos que el mundo en el nivel cuántico se comporte realmente de este modo tan inhabitual para nosotros. Las superposiciones constituyen una parte muy considerable de la construcción real del mundo microscópico. Habitualmente se utiliza la letra griega ψ (psi) para esa colección de pesos estadísticos, que es considerada una función compleja de la posición (llamada la función de onda de la partícula). Con cada posición x la función de onda toma un valor específico, que se denota como  (x) e indica cual es la amplitud asociada a la partícula que esté en x. Lo que se sugiere es la idea de que hay una realidad física de la localización de una partícula, que en realidad es su estado cuántico. Simplificando, podemos utilizar la letraψ para consolidar el estado cuántico como un todo. Las descripciones a que da lugar son muy claras, matemáticamente precisas y absolutamente deterministas. Su evolución unitaria se describe mediante lo que se denomina la ecuación de Schrödinger que proporciona la tasa de cambio con respecto al tiempo de la función de onda o estado cuántico. La luminosa imagen nos dice que el estado cuántico que podemos representar por ψ|, expresa, con factores de peso complejos, la suma global ponderada de todas las posibles alternativas abiertas al sistema. Así, el estado cuántico (o ψ|) para el caso particular que hemos mencionado antes, incluiría una combinación compleja en donde las alternativas abiertas al electrón, (recordemos), eran que podría estar en una posición convencional (clásica) A o en otra posición convencional (clásica) B. Su representación cuántica sería la siguiente:
                               ψ∣=  wA∣+ zB∣, donde w y z son números complejos (uno de los cuales, al menos, no puede ser nulo). De este modo, llamaremos superposición lineal de los dos estados A∣y Ba la combinación wA∣+ zB∣, entendiéndose también como vector de estado esa cantidad  (oψ∣). Normalmente comprende estados cuánticos más generales tales como la suma: 
                           Vector de estado = uA∣+ vB∣+ wC∣+........+zF∣=ψ| donde, una vez más u, v, w,....z   son números complejos (no todos nulos).
                   La evolución se produce siempre como si cada componente de una superposición fuera ajeno a la presencia de los otros. Cada realidad descrita por esos estados componentes evoluciona de forma dependiente, de acuerdo con la misma ecuación determinista que los demás, y conforme procede la evolución se mantienen los valores de peso complejos asociados a la superposición lineal concreta que describe el estado global. 
                   No obstante, esas informaciones empíricas que se resumen en la función de acuerdo con la postura adoptada por el positivismo científico, sólo tienen un significado de probabilidad. Es decir, la interpretación usual, de la teoría cuántica implica una indeterminación empírica, por más que se señale que las probabilidades evolucionan de modo estrictamente prescrito y unívoco de acuerdo con la famosa ecuación de Schrödinger, que se trata precisamente de una ecuación diferencial en la que el tiempo desempeña un papel de variable independiente. El mismo Schrödinger a quien repugnaba la idea de abandonar la seguridad epistémica de la física clásica, creyó por poco tiempo (los primeros meses de 1926) que su teoría ondulatoria haría posible un retorno a la física clásica determinista. Propuso abandonar por completo el modelo de partículas y considerar los electrones como una distribución continua de densidades ψψ= ψ|²  (o de densidad eléctrica eψ│² ). Pronto se dio cuenta que no es fácil ligar el problema del determinismo con el problema de la realidad. Como dice Max Born, "casi la totalidad de los experimentos conducen a predicciones sobre frecuencia de sucesos, aun cuando surjan bajo el seudónimo de sección eficaz y otros análogos".
                   Ψ( Psi ) describe, es cierto, la realidad del mundo en tanto que está gobernada por una ecuación determinista y no se manifiesta nada en ella de ese indeterminismo que se supone es la característica inherente a la teoría cuántica. Ahora bien, eso es cuando nos referimos a un proceso de evolución unitario. Pero cuando "hacemos una medida" tratando de amplificar los efectos cuánticos hasta el nivel de la física clásica (o de los procesos macroscópicos), cambiamos ostensiblemente las reglas. En ese momento dejamos de utilizar un procedimiento unitario (regla determinista) y adoptamos un procedimiento completamente diferente que podemos llamar probabilista, que consiste en elevar los cuadrados de los módulos de las amplitudes cuánticas con el propósito de conseguir probabilidades clásicas que también se puedan considerar deterministas. Pero entonces, es cuando al introducir el procedimiento de la regla determinista, se introducen a su vez probabilidades e incertidumbre en la teoría cuántica. Así pues, lo que nos asegura la ecuación es que si suponemos que se parte de un estado de posición A∣muy próximo a un estado de posición B∣, éste se dispersará rápidamente. Ese comportamiento no es ni indeterminado ni probabilista, dado que es un modo completa y monótonamente fijado por la ecuación. Pero si decidimos "medir" el momento, entonces se produce una gama de amplitudes conforme con todos los diferentes valores posibles del momento que tienen iguales módulos al cuadrado. De tal acción, y de acuerdo con el principio de Heisenberg, se deriva una completa incertidumbre sobre el resultado del experimento.
                   El formalismo cuántico resulta ser demasiado extraño para lo que es la lógica ordinaria. Porque cuando tenemos un vector de estado ψque evoluciona unitariamente (mientras permanece el sistema en el nivel cuántico) y amplificamos sus efectos de tal modo que influyan en las cosas en el nivel clásico, se producen los consabidos y molestos "saltos cuánticos" en ψ∣. La única explicación plausible a la que se le atribuye tal brecha entre ambos mundos, es que hay un tipo de coexistencia establecido entre la evolución determinista y unitaria de la física cuántica y la regla (o el procedimiento de registro reglado) que, además de ser perturbadoramente discontinua y probabilista, es epistemológicamente inaccesible. Es solo cuando se hacen las medidas, cuando intervienen la incertidumbre y las probabilidades. Por eso el registro de un simple suceso cuántico, produce eventualmente una perturbación en el nivel clásico. Así sucede, por ejemplo, cuando una célula fotoeléctrica detecta un fotón en forma de chasquido audible, o cuando queda registrada la llegada de otro fotón en forma de marca visible, en una placa fotográfica. En ambos casos, el aparato de medida consiste en un sistema de registro preparado con todo detalle para aprovechar un ínfimo suceso cuántico y desencadenar un efecto observable en una escala de la física clásica. Es justamente en ese paso problemático desde el nivel cuántico al nivel clásico, cuando los números complejos implicados en |ψ∣elevan los módulos de las amplitudes cuánticas al cuadrado, hasta convertirse en unas desconcertantes probabilidades clásicas.
                   Así pues, cuando decimos en términos cuánticos, que un electrón está en un estado de superposición de dos lugares al mismo tiempo con factores de peso complejos (wA∣+ zB∣) debemos aceptar sin reservas que este es realmente el tipo de descripción que nos conviene (o mejor, que necesitamos) adoptar para sistemas de nivel cuántico. Tales superposiciones son el modo en el que la construcción del mundo microscópico se presenta como un hecho cierto. La descripción es precisa y completamente determinista a su nivel: en ella subyace una misteriosa teoría de los números complejos, que permite excluir la opinión común de que el mundo cuántico es un mundo plagado de indeterminación.
            La cuestión más importante, una vez conocido el modo de construcción del mundo cuántico, es saber si podemos calcular realmente las diferentes probabilidades referidas a los resultados alternativos de una medida sobre un estado superpuesto. Y, efectivamente, disponemos de una regla adecuada para calcular dichas probabilidades. La regla establece que si tenemos una medida que resuelve entre estados alternativos, digamosA∣y B, utilizando en la situación inicial sendos detectores en A y  B∣, ocurre que los detectores se encuentran con el estado superpuesto wA∣ +  zB∣, y la razón entre la probabilidad de que un detector registre en A y la probabilidad de que el otro detector registre en B viene dada por el cociente de los módulos al cuadradow│²  :  z│²  . Es decir, el estado cuántico parece saltar misteriosamente desde un estado que implica la superposición w |A|  +  z | B| a otro en el que solamente está implicado |A| o solamente lo está |B|. Este salto de la descripción del estado de un sistema desde el estado superpuesto en que se encuentra a nivel cuántico a otra descripción en la que tiene lugar una de las dos alternativas del nivel clásico, se denomina colapso de la función de onda o reducción del vector de estado. Aclaremos que la regla de la medición probabilista con su adecuado, aunque modesto, grado de incertidumbre se manifiesta cuando aparecen los mencionados módulos al cuadrado de los números complejos w y z. Pero el módulo al cuadrado de un número complejo es la suma de los cuadrados de sus dos partes componentes: una real y otra imaginaria; así tenemos, que:   z = x + iy, siendo x e y números reales. Por consiguiente, el módulo al cuadrado es │z│² = x²  +  y²  lo que es = (x + iy) (x -iy) y asimismo = z z';  siendo z'  (= x-iy) el complejo conjugado de z. Y de manera análoga se procedería en el caso w'  con relación a w. 
                Como vemos, en el mundo cuántico, los pesos complejos no desempeñan de por si un papel como probabilidades relativas, dado que por su propia naturaleza no podrían hacerlo. El mismo sistema de los números complejos tiene su propia realidad intrínseca e intemporal que desborda las construcciones mentales que pueda realizar cualquier matemático por el interés general. Solo cuando las llamadas probabilidades de Cardano (descubridor del útil artificio matemático de introducir la raíz cuadrada de un número negativo en la resolución de determinadas ecuaciones cúbicas y cuyo trabajo pudo extenderse con provecho hasta el álgebra actual de los números complejos) entran en escena se produce un cambio sutil en las reglas reales de la teoría cuántica. Es decir, cuando se elevan los módulos al cuadrado de dichos números complejos (que son números reales) y se realizan las medidas sobre estados normalizados (esta condición se cumple cuando la suma de los módulos al cuadrado sea la unidad: w│² + │z│² = 1) a fin de proporcionar las verdaderas amplitudes de probabilidad nos encontramos con que aparecen la incertidumbre y las probabilidades.
            Según la noción elaborada por David Bohm tenemos que: dado que ψ es la función propia del operador en cuestión correspondiente al n-ésimo valor propio, en ningún modo describe un estado que pudiera ser el de un sistema único; en realidad se refiere a muchos sistemas, a un conjunto de sistemas propios de la mecánica estadística. Si (como también dice Einstein) con excepción de ciertos casos especiales, la función ψprovee tan sólo datos estadísticos de magnitudes mensurables, el motivo está no sólo en el hecho de que la operación de medición introduce elementos desconocidos, sino también en el hecho de que la función ψ, en ningún sentido, describe el estado de un sistema único.
            Y como no pueden existir funciones de onda que sean al mismo tiempo funciones propias de todos los operadores significativos (pues no siempre son conmutables) para un problema físico dado, Bohm extrae dos conclusiones: 1) no todos los observables físicamente significativos pueden ser determinados a la vez. Y 2)  quizá haya que presuponer un reconocimiento de que en la mecánica cuántica subyace la acción colectiva de ingredientes o partes más pequeñas del sistema de las que no tenemos conocimiento directo, porque sino nos vemos obligados a admitir de una manera forzada que aquellos que no sean determinados, fluctuarán desordenadamente para una serie de mediciones de un conjunto representado por la misma función de onda.
                   En consecuencia, la teoría estándar es suficiente si nos conformamos con un grado muy notable de objetividad física, pero nos vemos obligados a prescindir de cualquier indicio de determinismo. El vector de estado por el mero hecho de evolucionar normalmente, proporciona "realidad" al acogernos al procedimiento determinista de la regla continua unitaria. Pero es inevitable que, "de cuando en cuando", y de forma extraña se produzcan saltos (según la regla probabilista) al amplificar un efecto hasta el nivel clásico. Tal comportamiento significa que nos encontramos ante el problema de la no localidad y aparentes dificultades con la teoría de la relatividad.
                   Así pues, la identificación del principio de incertidumbre pone de relieve que, de acuerdo con la ecuación fundamental de la mecánica cuántica, no existen cosas tales como un electrón poseyendo simultáneamente una posición precisa y un momento preciso. Y eso es un hecho muy destacable. Tanto, que en la primera exposición de lo que se dio en llamar la interpretación de Copenhague, a finales de la década de los años treinta del siglo pasado, Bohr señaló el contraste entre las descripciones del mundo en términos clásicos, de coordinación absoluta del espacio, el tiempo y una cuestionable causalidad, y la representación cuántica, en la que el observador interfiere con el sistema debido a que es una parte inseparable del mismo. La posición puede ser representada por las coordenadas en el diagrama espacio-tiempo, y la causalidad se basa en un conocimiento preciso de las cosas que están ocurriendo, fundado esencialmente en el conocimiento de sus momentos. La teoría clásica tradicional, presupone que ambas cosas se pueden conocer a la vez; la mecánica cuántica sirve para demostrar que la precisión en la coordinación del espacio-tiempo se obtiene a costa de la incertidumbre, la aparición de probabilidades y la esfumación (al menos aparente) de la causalidad o del determinismo.
                   Si el tema es que no vemos superposiciones lineales de objetos a escala clásica, a modo de bolas de billar (asemejándose a electrones) en dos lugares a la vez, ¿que podemos hacer al efecto para conseguir restablecer  "la visión" de nuestras apreciadas evoluciones deterministas "perdidas"?.....En fin, dejémoslo así por el momento.


                   Experimentos no del todo concluyentes


                   Cualquier parte o pieza que compone la estructura de un aparato de medida forma parte del mundo físico y se ha construido a partir de aquellos constituyentes con propiedades mecánico-cuánticas para cuya observación del comportamiento ha sido diseñada ex profeso. Para medir coordenadas espaciales y tiempos se necesitan reglas rígidas y relojes, y eso no crea problemas. Por el contrario, para medir energías e impulsos hacen falta dispositivos con partes móviles que reciban y acusen el impacto del objeto a medir. Si se tiene en cuenta que la mecánica cuántica es la responsable de la interacción entre el objeto y el aparato, se entiende que no puede haber ningún dispositivo que satisfaga al mismo tiempo ambas condiciones. Hay un circulo nada virtuoso, (desde el punto de vista de la observación) implícito en el hecho de que el mundo macroscópico (el de nuestra experiencia habitual) origina la realidad microscópica de la cual a su vez está compuesto. Nos enfrentamos a esta paradoja cuando nos interrogamos sobre lo que sucede realmente al hacer una medición cuántica. "El problema de la medición cuántica constituye en realidad una variante del problema de la distinción mente-cuerpo (Penrose) o de la distinción software-hardware (prosiguiendo con la analogía de los ordenadores). La consciencia (o alguna parte de ella) de un individuo debe considerarse, en realidad, como un elemento de software y su manifestación particular en un ser humano concreto debe considerarse como la ejecución de ese software por el hardware de su cuerpo (especialmente de su cerebro y seguramente de alguna parte de su propia consciencia). Si consideramos la partícula como el hardware que se describe por una onda en la que esta codificada la información (software) relativa a "lo que el observador es capaz de saber" acerca del comportamiento de dicha partícula cuando se la observa, esto se traduce en que: al hacer la observación, la onda se presenta en un estado particular que confiere un valor definido a lo que ha sido observado. La paradoja se presenta en toda su crudeza cuando se trata de realizar el acto de medición exclusivamente en el plano observador del hardware.
                   Si por ejemplo, disponemos de un electrón dispersado por un blanco, de modo que pueda ir hacia la derecha o hacia la izquierda, es posible realizar cálculos con la onda y descubrir hacia dónde se dirige. Debido al impacto con el blanco, la onda se divide expandiéndose parcialmente hacia la derecha y, con igual intensidad, también parcialmente hacia la izquierda. De esta circunstancia se deriva, que para una observación dada, hay la misma probabilidad de encontrar situado el electrón tanto a la derecha como a la izquierda. Pero el electrón se reserva en su opción hasta que decidimos mirarlo. Es decir, hasta que no realizamos la observación no es posible asegurar de ninguna manera a qué lado de la misma se encuentra localizada la partícula. Hasta entonces, ambos micromundos posibles coexisten en una superposición difusa y fantasmal. 
                   En principio se pensó que tal vez, si se tratase el aparato de medida como un sistema cuántico combinado con el sistema físico a examinar, se lograra el doble objetivo de que ninguna medida "externa" estuviera involucrada, y que en el sistema combinado se observase una evolución que se produjera según el modelo de una regla determinista. Siguiendo esa línea, supongamos, por ejemplo, que el aparato utilizado para la medida está equipado con un indicador que puede adoptar dos posiciones, una para señalar que el electrón está a la derecha y otra para indicar que está en la izquierda. Entonces, al contemplar el sistema total "electrón y aparato" como un gran sistema combinado cuántico, podríamos llegar a la conclusión de que la naturaleza híbrida y fantasmal del electrón no se había transferido... al indicador. Quizá consiguiéramos incluso que no hubiera lugar para las incertidumbres probabilistas implicadas en la observación o medida, que el sistema combinado realizase sobre si mismo. Todo sería cuestión de probar...
                   En el año 1935, Schrödinger publicó un experimento imaginario con estas características paradójicas, que debería poner de manifiesto que existe realmente una grieta irreparable en la estricta interpretación de Copenhague. El mismo año se publico también un artículo sobre la paradoja EPR (otro experimento teórico en la misma línea, del que también hablaremos) por parte de Einstein. Precisamente, éste último calificó la propuesta de Schrödinger, de la forma más bella y elegante de mostrar el carácter incompleto de la representación ondulatoria de la materia como fiel reflejo de la realidad. Tanto la paradoja del gato de Schrödinger como la paradoja EPR aun se discuten en mecánica cuántica, pero mientras que la última ha sido resuelta de manera más o menos satisfactoria según el lenguaje que se use, la del gato presenta el inconveniente de la imposibilidad práctica de un completo aislamiento efectivo del contenido del mundo del observador externo con relación al interior de un recinto cerrado donde se realiza el experimento.
                   La paradoja del gato de Schrödinger permite destacar las consecuencias singulares de un experimento físico con importantes implicaciones epistemológicas (y también psicológicas) para el observador. La dicotomía que antes utilizábamos entre indicador a la derecha e indicador a la izquierda, ahora se convierte en una angustiosa incertidumbre sobre una eventual acción deletérea ejercida sobre un ser vivo, es decir: nos encontramos ante el dilema de dirimir entre un cincuenta por cien de probabilidades de estar un "gato vivo" o un cincuenta por cien de probabilidades de estar (el mismo) un "gato muerto". La idea sugerida consiste en partir de un objeto experimental constituido por: una caja que contiene una fuente radiactiva, un detector que registra la presencia de partículas radiactivas (por ejemplo, un contador Geiger) una ampolla de vidrio conteniendo cianuro y un gato vivo (al que describimos como si se tratara de un sistema cuántico). En efecto, el experimento se diseña de tal modo, que el detector esté conectado el tiempo suficiente como para que exista 1/2 de probabilidad de que uno de los átomos del material radiactivo se desintegre y el detector registre una partícula. Si el detector registra un suceso de este tipo, el recipiente de vidrio se rompe, se libera el veneno y el gato muere, sino sigue vivo. Pues bien, no hay forma de conocer el resultado del experimento hasta que se abre la caja y se mira en su interior; la desintegración radiactiva es un fenómeno aleatorio y su acción sobre el gato como sistema cuántico, es impredecible, excepto en un sentido probabilista. La teoría nos dice que el sistema se encontrará en una fantasmagórica situación de estado de "gato (vivo) y gato (muerto)" (el gato está en una superposición lineal de estar vivo y estar muerto) hasta que se haga la observación, en cuyo caso le obligamos a convertirse en una cosa u otra, con una probabilidad al cincuenta por cien de descubrir un gato vivo o un gato muerto. Dado que todo el contenido esta siendo tratado como un solo sistema cuántico por el hipotético observador exterior, la superposición lineal de alternativas debe mantenerse incluso hasta la escala del gato. Eso quiere decir, que hay una amplitud de 1/√2 de que el detector registre la "ocurrencia" del suceso y una amplitud de 1/√2 de que no registre la "no ocurrencia" del mismo. Como parte de una superposición lineal cuántica ambas alternativas deben estar presentes con el mismo peso.
                   Pero ¿es de creer que realmente sería así? ¿El gato puede encontrarse en una superposición lineal de estar muerto y estar vivo? Esta paradoja fue investigada por el matemático John Von Neumann quién demostró mediante un modelo matemático sencillo que el efecto de asociar la partícula radiactiva a un detector, "estimula" al primero a optar por el gato vivo o el gato muerto, aunque al precio de transferir la híbrida irrealidad al detector de la partícula. La situación epistémica es tan ineludible que Von Neumann demostró también que incluso si se conecta a su vez a otro instrumento intermedio que lea los registros del primero, entonces el primer detector se verá forzado también a tomar una opción. De este modo, el segundo aparato entra también en la fantasmal situación cuántica de gato vivo-gato muerto. Podrían ensamblarse una cadena entera de máquinas tales que cada una de ellas "observase" a la anterior registrando precisos resultados de gato A (vivo)-gato B (muerto), aunque el último gato de la cadena de Von Neumann siempre permanecerá en un estado de fantasmal irrealidad.
                   Por otra parte, el mismo Schrödinger se sintió obligado a concluir que la regla determinista no podía ser aplicada a algo tan grande como un gato. Si aceptásemos eso, parecería como si estuviéramos condenados a obtener una visión muy subjetiva de la llamada realidad física. Para el observador exterior, el gato está realmente en una combinación lineal de estar vivo y estar muerto, y sólo cuando se abre la tapa de la caja de paredes opacas colapsará el vector de estado del gato en uno u otro. Por el contrario, para un observador adecuadamente protegido dentro de la caja a la manera de Eugene Winger (físico que sustituyó en el experimento, el gato por una persona), dentro de la caja, el vector de estado del gato habría colapsado mucho antes, y la combinación lineal del observador exterior carecería de importancia psicológica. Porque, ciertamente, el experimento es dramático (desde nuestro punto de vista de observadores físicos y psicológicos externos) para el porvenir del gato, pero él no es consciente de la artera combinación lineal  ψ= 1/√2 [A (vivo) │ + │B(muerto)] que rige su destino. Pero si nosotros no nos volvemos excesivamente melindrosos psicológicamente nos daremos cuenta que el factor dramático que introduce la mente por su cuenta, ante la suerte del desdichado animal, es reducible a una combinación lineal nada dramática y adecuada a la falta de moralidad de la naturaleza, tal que así:- ψ= 1/√2 ( │A + │ B∣)  donde las notaciones │Ay │B∣pueden referirse a gato "vivo" y gato "no vivo", que carecen de adherencias psíquicas y retornan a su auténtica representatividad factual, pues la dicotomía vida-muerte articula los estados de la naturaleza en una taxativa biniariedad psicológica, inconveniente desde un punto de vista exclusivamente físico.
                   Sin querer minimizar la propuesta experimental de Schrödinger, en realidad, el gato podría ser considerado desde otra perspectiva como un "qualium" (valga la expresión) biológico sobre el que es importante destacar antes de realizar nuestro experimento, que su composición vital duradera queda delimitada por la expresión "vida muerte", siendo esta última el desenlace natural de aquella. Tan determinada esta una cosa como la otra, pero siempre en ese orden: primero "vida" y después "muerte". Evidentemente no es lo mismo que se descubra que el gato esté vivo o esté muerto en un momento dado (en eso consiste la esencia del experimento: la presencia de incertidumbre e indeterminación) pero debemos de tener en cuenta que el cien por cien de los gatos que han estado vivos en el pasado, están vivos en el presente, o estarán vivos en el futuro, han muerto ya o lo harán tarde o temprano. Sin embargo, en el experimento se parte de la superposición lineal  "estar vivo estar muerto" (Aion) pero acto seguido plantea la disyuntiva practica y clásica entre "vida muerte" (Cronos) como si no hubiera decalaje temporal entre la una y la otra y hubiera una equivalencia con la disyuntiva "muerte vida" (esto no es así: no podemos utilizar un gato muerto y que tenga la posibilidad de ser puesto en vida de nuevo por un veneno resucitador). Podemos considerar tal y como dice Deleuze que:”Aion es el pasado-futuro en una subdivisión infinita del momento abstracto, que se descompone sin cesar en los dos sentidos a la vez; esquivando siempre cualquier presente”. Mientras que tenemos una nueva expresión acerca de la libertad de indiferencia del pasado-futuro manifestada en Cronos: “Cronos es el presente que sólo existe, y que hace del pasado y del futuro sus dos dimensiones dirigidas, de modo que se va siempre del pasado al futuro, pero a medida que los presentes se suceden en los mundos o en los sistemas parciales” ... El Aion forma vacía y desenrollada del tiempo, subdivide hasta el infinito lo que le acecha sin habitarlo jamás, Acontecimiento para todos los acontecimientos; por ello, la unidad de los acontecimientos o de los efectos entre sí es de un tipo completamente distinto que la unidad de las causas corporales entre sí.”
                    Así pues, tenemos una incertidumbre física sobre lo que ha de sobrevenir en el interior de la caja del  experimento hasta que no la destapemos, pero no deja de haber una manifestación de determinación biológica (el gato morirá tarde o temprano ) aplicable al qualium antes, durante y después de la realización del proceso, puesto que si el felino es afectado por el veneno, su adecuada composición vital queda destruida y ciertamente acotada en una plasmación temporal cualquiera, (eso no es relevante para la integridad conceptual del qualium). Por el contrario, si sigue vivo después del experimento, siempre queda salvaguardada la relación transitivo-cualitativa vida/muerte que indefectiblemente ha de traducirse en la muerte del animal con otra plasmación postexperimental y temporalmente cuantitativa del cese de su composición vital adecuada sin que en ningún momento (ni antes, ni durante, ni después del experimento) la expresión cualitativa "vida muerte" deje de tener sentidos físico, biológico y psicológico. 
                   La cuestión es que (el excelente científico y no menor filósofo, que apreciamos sobremanera) Schrödinger, dio una excesiva importancia a la incertidumbre (desde el punto de vista del observador) y a cierto grado de indeterminabilidad instrumental en el transito de la superposición lineal a cualesquiera que sean los hechos especificados en el mundo clásico (es decir A o B) que no son radicalmente opuestos, sino perfectamente complementarios. Ambos quedan definidos pues, en el ámbito de la física clásica que se resuelve en ese (singular) experimento. Al no asignar ningún papel a la determinación colectiva (mal llamada estadística), en su ánimo pesó mucho la atracción que sentía por el sistema boltzmanniano, en el que Ludwig Eduard (su compatriota) relacionaba directamente la complejidad biológica con el concepto de orden termodinámico.   
                   Acotaciones al margen, el experimento cuántico combinado no da el resultado apetecido (a Schrödinger tampoco, pues le confirmó sus pesimistas previsiones) porque los físicos se enzarzan en discusiones sobre electrones en movimiento, (lo que, pongamos, constituye el funcionamiento del hardware) recurriendo a la mente (en su papel de software) cuando ella está incapacitada para integrar esa dualidad. Porque la situación es tremendamente sutil: pensemos que la dualidad hardware-software esta profundamente entrelazada cuánticamente hablando; sin ir más lejos, en la dualidad onda-partícula.
                   Para la física clásica, el gato está vivo o está muerto. La incertidumbre implica aquí que no conocemos su estado hasta que no levantamos la tapa y observamos lo que ha ocurrido. Pero para la mecánica cuántica, en cambio, el gato no está ni vivo ni muerto; al mirar dentro de la caja lo obligamos a convertirse en una cosa u otra con una probabilidad de 1/2 para cada una. A Einstein eso le pareció una interpretación arbitraría. Solo las variables ocultas podrían eliminar esa arbitrariedad. Por si fuera poco, la teoría cuántica tal como es concebida, no exige con un criterio claro el hacer la distinción tajante, entre medidas que son posibles y medidas que no son posibles. Tal vez, porque también habría que precisar qué es un "criterio claro" y una "distinción tajante", a ese respecto...y así sucesivamente. En realidad, hay una imposibilidad teórica y practica de aislar efectivamente (volvemos a lo mismo, ¿qué es, aislar efectivamente, a nivel conceptual?) el contenido del mundo externo. En cuanto el interior de la caja del experimento "mezcla" su estado con el medio externo, el observador que está fuera no puede considerar los contenidos como dados simplemente por un solo vector de estado. Incluso el entorno está correlacionado con su propio estado, de una forma complicada.
                   En definitiva, el propio gato incluye un gran número de partículas y eso tiene como consecuencia que la combinación lineal compleja de un gato vivo y uno muerto debe ser tratada como si fuera simplemente una mezcla de probabilidades. Esta perspectiva, según parece, no es nada satisfactoria para una mentalidad física determinista. Schrödinger fue el primero en lamentar semejante hallazgo, pues ateniéndose a una rígida interpretación de la misma, desbarataba en parte sus expectativas filosóficas en torno a la notación (ψ).  Tampoco era aceptable para Einstein, quien luchó toda su vida por encontrar una solución que "conjurase" el supuesto indeterminismo físico en el transito entre las dos clases de física. En sus discusiones con Bohr argumentaba que debe haber un mundo físico objetivo, inclusive en las escalas microcósmicas de los fenómenos cuánticos. Para Bohr el mundo en el nivel clásico tenía una realidad objetiva y el mundo cuántico es (¡déjalo estar!) un conjunto de estados que carecen de realidad: "No existe un mundo cuántico. Hay solo una descripción cuántica abstracta. Es equivocado pensar que la tarea de la física consiste en descubrir como es la Naturaleza. La física se ocupa de lo que podemos decir acerca de la Naturaleza".
                   Pero el animoso Einstein objetaba y replicaba que había contradicciones lógicas asociadas a la imagen cuántica de las cosas, y que debía haber una estructura subcuántica aún más profunda que permitiera restablecer una concordancia entre los distintos niveles de la física, no reñida con la imagen que nos había presentado la física clásica. La cuestión es que nadie quiere prescindir del determinismo, salvo los que piensan que la objetividad física de la teoría cuántica estándar es lo suficientemente satisfactoria como para que quede a salvo su libre albedrío. Todo rasgo de incertidumbre que exhiba o parezca exhibir la teoría es saludado alborozadamente por los (por otro lado) circunspectos indeterministas quienes, conforme a lo dicho, tienen declarados otros intereses filosóficos muy diferentes.


                   Certidumbre versus incertidumbre. Determinación versus indeterminación


                   En un determinado momento, los físicos que realizaron la hazaña intelectual de enfrentarse a la extraña realidad del mundo cuántico, pareció como si, después del susto, quisieran olvidarse un poco de lo que habían descubierto y buscaron refugio de nuevo en la seguridad epistémica que proporciona la macrovisión del mundo que pisamos de continuo. Así, Werner Heisenberg, que en 1927 enunció su principio de incertidumbre, más tarde, manifestó la opinión de que "en los procesos en grande este elemento estadístico <<es obvio que se refiere al tratamiento de las probabilidades>> de la física atómica no desempeña, por lo general, ningún papel, ya que las leyes estadísticas aplicadas a tales procesos proporcionan una probabilidad tan alta que en la práctica puede decirse que el proceso queda determinado", aunque luego matiza su razonamiento para algunos casos especiales en el ámbito de la biología: "Es verosímil que en biología se den procesos cuyo desarrollo en grande siga a remolque del comportamiento de átomos individuales; así, en particular, puede ocurrir en las mutaciones de los genes en el proceso hereditario".
                   Esas consideraciones coinciden prácticamente con las de Erwin Schrödinger: "Los acontecimientos espacio-temporales del cuerpo de un ser vivo que corresponden a la actividad de su mente, a su autoconciencia y otras acciones, son, si no estrictamente deterministas, en todo caso estadístico-terministas. Frente al físico deseo resaltar que, en mi opinión, y contrariamente a lo defendido en algunos círculos, la indeterminación cuántica no desempeña en esos acontecimientos un papel biológicamente importante, excepto tal vez el de que acentúa su carácter puramente accidental en fenómenos como la meiosis, la mutación natural y la inducida por rayos X, etc."
                   La física del siglo XX, que abandonó el mecanicismo newtoniano por su inconsecuencia epistemológica, no ha llegado tan lejos como para hacerse absolutamente indeterminista. El mismo Heisenberg manifiesta lo siguiente, casi al final de su opúsculo titulado La teoría de la relatividad y el fin del determinismo: "No se alcanzará una respuesta definitiva a las cuestiones planteadas en tanto no se consiga determinar matemáticamente las leyes naturales que gobiernan a las partículas elementales; es decir, en tanto no sepamos, por ejemplo, por qué el protón es precisamente 1.836 veces más pesado que el electrón." A esa exigencia de clarificación nosotros podemos añadir: ¿Qué determina que el protón pese 1.836 veces más que el electrón?
                   Los astrónomos británicos Martin Rees y Bernard Carr han llegado a la conclusión de que la existencia de estructuras complejas depende en forma muy sensible de los valores numéricos que la naturaleza confiere o asigna a determinadas constantes fundamentales. Esas constantes tan variadas pueden ir desde la velocidad de la luz hasta las masas de distintas partículas subatómicas, pasando por constantes de conjunción o acoplamiento, como la unidad elemental de carga, que determina la intensidad con que distintos campos de fuerza actúan sobre la materia. Los valores numéricos reales de esas constantes determinan con precisión muy variados rasgos del universo: el tamaño de los átomos, la constitución de los núcleos de los planetas, los procesos evolutivos estelares, la densidad de la materia, el "estiramiento" del cuello de la jirafa, la altura máxima de los seres humanos, etc. Es decir, se observa claramente que los valores numéricos impregnan las leyes de determinismo, pero aun así hay una fuerte oposición a considerar éstas como leyes naturales, tal vez porque, a pesar de ser profundamente explicativas en muchos casos, no permiten una explicación causal de los fenómenos.
                   Pero resultaría precipitado aventurar el fracaso del determinismo sólo porque no es posible hacer acopio de la información necesaria para probar el principio causal dentro de un aspecto particular de la física cuántica, máxime cuando el mismo Heisenberg, en su rigurosa formulación de la ley causal, parte de la condición inicial con resonancias laplacianas, de: "si conocemos el presente con exactitud podemos conocer el futuro" que queda fuera del juego pragmático de la física, pues como nos recordaba Poincaré, nadie conoce el presente con "exactitud". También inicialmente Schrödinger pensaba que ψproporcionaba una descripción directa de la realidad. En sus reflexiones en torno a una partícula, estimaba que ψ era una función de onda con la cual intentaba identificar la partícula; así, si la onda estaba localizada en una región del espacio lo suficientemente pequeña, podríamos tomarla por una partícula puntual. Porque la función de onda es muy real, tan real como (Frank Lalöe dixit) una vibración acústica, por ejemplo. Pero desde otro punto de vista que no es posible obviar, ψ es también una descripción no del sistema en sí, sino de los datos que disponemos (no todos: de ahí, su incierto presente) acerca del mismo.
                   Por desgracia, los intentos iniciales destinados a probar que la mecánica cuántica no constituía una descripción completa de la naturaleza en su nivel microscópico, no habían sido concluyentes, o al menos no se les había podido dar un significado claro. A ese respecto, es conocido el experimento realizable idealmente (cuando se concibió) propuesto por Einstein y sus amigos Boris Podolsky y Nathan Rose en 1935, con el fin de comprobar la existencia de un posible mecanismo (restaurador del determinismo aparentemente perdido) dentro de un par de partículas "correlacionadas", de tal modo, que éstas siguieran estándolo independientemente de la distancia que les separase. En efecto, la paradoja EPR (así llamada por las iniciales unidas de los apellidos de las personas que elaboraron el experimento) implica tomar en consideración la existencia de pares de partículas correlacionadas. El esquema teórico del experimento sería así: si enfrentamos un electrón y un positrón (antielectrón) haciéndolos chocar, ambos se destruyen, al mismo tiempo que dos fotones A y B parten en direcciones opuestas. Pues bien, éstos deben seguir correlacionados independientemente de la distancia que les separe, en el sentido de que ciertas propiedades deben tener siempre valores opuestos. Al medir A para una propiedad (llamémosle X), su paquete de ondas se colapsa y la propiedad X adquiere un valor que llamamos + 1. En cuanto al fotón B, sin haberlo medido, ya podremos saber inmediatamente (de acuerdo con las previsiones de que ha de seguir correlacionado) que el valor de “su” propiedad es - 1. Siempre siguiendo la previsión, parecería como si al medir A se solapase de alguna forma el paquete de ondas de B, sin guardar ninguna relación abiertamente causal.
                   El experimento preveía que la paradoja fuera resuelta por una teoría de variables ocultas en las partículas o en sus proximidades, suponiendo la existencia de un mecanismo "responsable" (en el sentido de determinante) del mantenimiento en correlación de ambas partículas, de modo similar a como dos peonzas lanzadas simultáneamente a izquierda y derecha con ambas manos, se ven obligadas a girar en sentidos opuestos. Al ver un individuo una peonza girar en el sentido de las agujas del reloj, instantáneamente sabría que la otra peonza giraba en el sentido inverso aunque no la viese.
                   Para los físicos que propusieron la paradoja EPR la teoría cuántica se había situado en un profundo dilema: ¿cómo una partícula separada de su gemela iba a poder "saber" que en ésta se había operado un cambio? ¿Cual era la naturaleza del mecanismo que "determinaba" que cada una supiera lo que hacía la otra? En 1935 la teoría de la relatividad restringida de Einstein estaba tan sólidamente establecida, que nadie se atrevía a desestimar uno de sus postulados (la consideración de la velocidad de la luz como velocidad límite en el universo) aunque fuera para consolidar la teoría cuántica. Por si fuera poco, cada vez que la teoría de la relatividad restringida había sido sometida a verificación experimental, se había comprobado su plena validez.
                   Sin embargo, otros físicos estaban convencidos de que la paradoja EPR sugería la ambiciosa idea de que la información cuántica se puede transmitir instantáneamente desde un punto del universo a cualquier otro. Ello no implicaría que se violase la teoría de la relatividad restringida; simplemente, no habría transferencia energética, sino exclusivamente de información mediante alguna especie de señal.
                   Pero lo cierto es que esto supone un forzamiento de la mecánica cuántica, pues ésta con el formalismo de sus enunciados impide siquiera esa posibilidad. No es ya que la conciencia observadora humana en un acto de medida, en el terreno de la mecánica cuántica, interfiera en el experimento a realizar, sino que muchos físicos (Wheeler y Bohr, entre ellos) están de acuerdo en excluir actos de medida en los que intervenga cualquier tipo de aparatos que puedan ser controlados por ordenador, ya que, como anticipó Von Neumann y reiteró Wheeler: "no es la conciencia, sino la distinción entre el aparato de investigación y lo investigado el elemento crucial para el acto cuántico elemental de observación". Sí, por ejemplo, dos partículas correlacionadas tienen espines opuestos (por así decirlo: propiedades de giro opuestas), no podemos decir que la partícula A tenga uno u otro tipo de spin (del inglés "giro" o "peonza"), mientras no se efectúe la medición. Sólo en el instante de la medida, la naturaleza le adjudica el spin correspondiente.
                   No obstante, durante el tiempo que la paradoja EPR era tan sólo un experimento ideal, la idea de los supuestos cambios simultáneos adquirió otra orientación con el psiquiatra suizo Carl Gustav Jung y el físico estadounidense de origen austriaco Wolfgang Pauli, quienes elaboraron conjuntamente una teoría sobre el significativo paralelismo de ciertas clases de acontecimientos. En efecto, el término sincronicidad creado por Jung, designa la relación inteligente, pero "no causal" (o sea, declaradamente indeterminista), de acontecimientos; la "coincidencia conforma el sentido" de dos o más hechos. "Los acontecimientos paralelos" no permitirían reconocer, en principio, una mutua relación causal, por lo que, según los ilustres científicos, les sería inherente un carácter fortuito. La única unión reconocible y "rebrote" de la antigua doctrina de la correspondencia que se basa en la experiencia de tales relaciones y que alcanzó su punto culminante (y al mismo tiempo su final provisional, pues no tuvo continuadores inmediatos) es la idea de la armonía preestablecida de Leibniz, siendo sustituida luego por la causalidad. La expresión sincronicidad trata de significar la moderna diferenciación de los conceptos físicamente inservibles, de correspondencia, simpatía, empatía y armonía. De hecho, no se basa en una hipótesis filosófica, sino en la observación y la experiencia. Los fenómenos sincronicistas vendrían a constituir una prueba de la presencia simultánea de uniformidad manifiesta en procesos considerados heterogéneos o  sin relación causal. En otras palabras, demostraría el hecho de que un contenido percibido por un observador puede ser representado al mismo tiempo (sin relación causal) por un acontecimiento externo.
                   Sin embargo, la supuesta vinculación "acausal" entre el "estado de las cosas macroscópicas" y la mecánica cuántica bien puede tratarse de la ilusión basada en la observancia de ilusiones. La armonía preestablecida nos retrotrae a la idea de Leibniz de las "mónadas sin ventanas al exterior", algo que, además de ser una forma candorosa de concebir el mundo, nos lleva a estimar la existencia de una conexión del microcosmos con el macrocosmos bastante confusa, relativista y esotérica, cuando no incoherente. Tenemos que indagar sobre la posible existencia de otras formas de vinculación entre el mundo cuántico y el mundo de nuestros sentidos ordinarios. Ambos se pueden tratar como independientes para, a continuación, "ver" que cada uno es el principio de las acciones del otro.
                   Un primer paso podría ser la verificación efectiva en el laboratorio de las correlaciones EPR entre partículas. A tal efecto, en 1965, (es decir, treinta años después de la proposición de la paradoja) J. S. Bell propuso una ingeniosa prueba conocida como Teorema de Bell por medio de la cual llegó a demostrar que ninguna variable oculta en la propia partícula o en su proximidad podía explicar las correlaciones EPR. Sus famosas "desigualdades" plantean un conflicto numérico que pone en evidencia la no coincidencia de las predicciones de la mecánica cuántica con las de las teorías de las variables ocultas. Casi todas las pruebas llevadas a cabo confirman la paradoja y los físicos que se interesan por la interpretación teórica de la mecánica cuántica se manifiestan con una gran incertidumbre en torno a como entender los resultados. El teorema deja abierta la posibilidad de que las partículas permanezcan conectadas (incluso estando separadas por años-luz de distancia), por un nivel subcuántico desconocido, pero conjeturable.
                   El desencanto fue grande pues las pruebas llevadas a cabo por el físico experimental Alain Aspect echan por tierra la posibilidad de tener una teoría de variables ocultas basada en las ideas de Einstein, y los resultados están perfectamente de acuerdo con las predicciones de la mecánica cuántica. Hagamos notar, sin embargo, que Einstein no pretendía en modo alguno demostrar que la mecánica cuántica ofreciera una interpretación errónea, sino solamente incompleta, y aunque todos los experimentos llevados a cabo hasta ahora poniendo a prueba la desigualdad de Bell, refuerzan la mecánica cuántica y violan la desigualdad de Bell de la manera prevista por la mecánica cuántica, no por eso estamos en condiciones de interpretar las predicciones de la mecánica cuántica. El test experimental de la desigualdad de Bell, según el cual es preciso medir la polarización de los fotones cambiando rápidamente alguna característica de los conjuntos de los aparatos de medida, tratando de evitar las interacciones misteriosas, no demuestran la existencia de las "terribles" (?) correlaciones, como las califica John Bell. Entre tanto, y mientras se procura diseñar experimentos más concluyentes el mismo John Bell aseguró que le gustaría formular una teoría más limpia, ya que la mecánica cuántica vigente es una teoría sucia, al comportar una división del mundo entre observador y observado y no se dice donde empieza esa división ("a que lado de mis gafas está, por ejemplo o a qué extremo del nervio óptico"). Es decir, la ambigüedad se halla a un nivel de precisión mucho más allá de la capacidad humana de observación.
                   Para salvar el abismo existente entre el mundo macroscópico de la física clásica y el aparentemente extraño mundo cuántico, Bohr llegó a afirmar que existe un "parecido" matemáticamente demostrable entre las leyes mecánicas clásicas y las de la mecánica cuántica. Según él, lo muy pequeño y lo muy grande deben describirse de muy diferentes maneras, es decir, con arreglo a los mundos a que pertenecen: en términos cuánticos y clásicos respectivamente. Insistió mucho en que la mayor parte del mundo debía mantenerse fuera del sistema y describirse en términos clásicos. Enfatizó en que al nivel clásico estamos interesados directamente, en lo que hace referencia al presente y al pasado y en sucesos definidos antes que en avatares de potencialidades ondulatorias. A nuestro nivel físico y mental, el lenguaje y la lógica ordinarios resultan adecuados. Y, lo más importante, que es a este lenguaje y lógica ordinarios a lo que debe llevar la mecánica cuántica, sin que nos desalentemos demasiado por lo esotérico de la formulación para producir las mencionadas afirmaciones. Realmente Bohr se mostró muy conformista y lo que sugirió es que ψ "evoluciona solamente" siguiendo la ecuación de Schrödinger, porque si hay un parecido matemático entre los dos mundos, es como si el proceso de medida no existiera y todos los resultados se pudieran producir simultáneamente. Esa interpretación da pie a otra particularmente audaz y casi fantástica atribuible a Everett, frecuentemente conocida como de los mundos múltiples y que el denomina de forma más apropiada: "formulación de la mecánica cuántica del estado relativo" que está plagada de dificultades conceptuales que no vamos a describir. 

                   A pesar de las incertidumbres, los deterministas no se dan por vencidos


                   Sin embargo, muchos científicos creen que ha de haber un nivel de descripción más fino de la realidad. La mecánica cuántica, según ellos, debería completarse por una teoría microscópica más poderosa, aún por descubrir, al igual que la termodinámica lo fue por la mecánica estadística (teoría cinética de los gases, etc.) En ese sentido, la conclusión del argumento EPR proporciona un claro estímulo a los partidarios del determinismo. Aunque los términos dentro y fuera son un tanto ambiguos al utilizarlos en relación con la mente puesto que ésta no ocupa ningún lugar en el espacio, podemos decir convencionalmente que en el interior de la misma la paradoja EPR satisface las aspiraciones de Einstein, pero fuera de ella habría que hacer una redefinición de lo que entendemos por sucesos instantáneos y sucesos simultáneos. A esos efectos, podríamos servirnos a modo de ejemplo, de sencillos jeroglíficos: En qué medida los átomos formados por partículas del cuerpo humano, una vez estuvieron ligados a otros en la bola de fuego original, que ahora componen la estructura física de una estrella lejana. Y en qué medida, esos mismos átomos están ligados con partículas que constituyen el cuerpo de algún organismo vivo de algún planeta lejano aún por descubrir. Tal vez, la forma de realizar esos planteamientos sea errónea puesto que hacer medidas, es sinónimo de hacer observaciones y esto último, es otro suceso físico separativo de suma importancia. Seguramente que si solo nos refiriéramos a magnitudes físicas (en general) haríamos mucho mejor para no dividir el mundo en "momentos de observación". Al fin y al cabo, también las partículas que constituyen el cuerpo humano estuvieron alguna vez muy próximas e interaccionaron con las que ahora constituyen o constituyeron otros cuerpos humanos y eso fue un hecho unitivo. Como cualquier otro suceso físico, todos nosotros formamos parte de un sistema único, al igual que los dos fotones viajeros del experimento de Aspect. 
                   Algunos teóricos como David Bohm y Bernard d'Espagnat sugieren que hay que aceptar que, cada cosa está conectada con todo lo demás, y sólo un tratamiento "no separado" del universo resultan apropiados para explicar fenómenos tales como la consciencia humana. A ese respecto el físico teórico Jean-Marc Lèvy-Leblond nos señala que el comportamiento colectivo cuántico nos obliga no solamente a desechar el concepto que nos formamos de los objetos individuales, o elementales, sino que también altera profundamente nuestro concepto de los comportamientos colectivos y nos obliga a modificar nuestra comprensión de los sistemas compuestos por un gran número de constituyentes idénticos. Así, los electrones y los fotones no pueden ser considerados como pequeños "perdigones" (partículas) o "pequeñas olas" (ondas) formadas en un estanque y han de concebirse como objetos absolutamente nuevos, los quantones. Sería mejor, por tanto, que la ambigua onda-partícula se abandonase y diéramos a los objetos cuánticos el nombre que merecen: quantones. Al perder su significado en teoría cuántica el mismo concepto de trayectoria y de localización espacial, ya no es posible, en un conjunto de quantones idénticos, seguirlos individualmente y no queda más remedio que considerar el sistema como una forma colectiva de comportamiento. 
                   Pero no es suficiente con introducir términos nuevos que sirvan para invocar la restauración determinista en un plano teórico circunstancial. Es necesario que, aún contando con que no disponemos de ninguna evidencia física que permita ratificar un grado de vinculación ostensible entre nivel clásico y nivel cuántico, podamos recurrir a algún tipo de analogía (las analogías satisfacían mucho a Poincaré por su valor ilustrativo) equiparable a hipotéticas interacciones (o vinculaciones no ostensibles ) entre ambos clases de mundos, además de allanarnos el camino, para elaborar teorías más efectivas de contenidos, asimismo, más específicos.
                   En ese sentido, la analogía que proponemos por parecernos la más adecuada es la siguiente: El físico ruso-alemán Friedrich Lenz, estudiando las interacciones entre los imanes y los circuitos eléctricos, descubrió en 1833 la ley que establece el sentido de las corrientes inducidas. En efecto, cuando un imán se mueve respecto a un circuito se origina en éste una corriente de "inducción". Por el contrario, toda corriente que circula por un conductor arrollado en espiral lo convierte en un imán, lo que quiere decir que la misma corriente forma en el bucle una "hoja magnética". El fenómeno aquí observable depende tan solo del movimiento relativo del conductor y del imán, mientras que la forma habitual de ver las cosas traza una neta distinción entre los dos casos, según cual sea el cuerpo que de los dos esté en movimiento. Surge así el interrogante de saber cómo actúan ambas fuerzas magnéticas, la de la espira convertida en hoja magnética y la del imán que engendra la corriente. ¿Lo hacen atrayéndose o repeliéndose? Al acercar el imán a la espira, ¿podría ser atraído aquél por el nuevo imán "creado" por la corriente? A poco que meditemos sobre ello se llegará a la conclusión de que no puede ser así; el bucle tendería a moverse cada vez más deprisa, en virtud de su propio movimiento y se produciría energía de la nada. Es decir, dejaría de estar en vigor el principio de conservación de la energía. Justamente ha de suceder al revés. Si el polo magnético lo acercamos a la espira, el campo magnético de la corriente inducida es tal que lo repele, y viceversa: cuando el polo del imán lo alejamos del campo magnético de la espira, ésta lo atrae propiciando su aproximación.
                   La ley de Lenz responde a un principio de validez universal en todo el mundo material. Podemos considerarlo como una generalización electromagnética del principio de acción y reacción: “Los efectos obran sobre sus causas”, es decir, se producen fenómenos de causalidad recíproca. Pero, en ese caso ¿quién desempeña el papel de efecto y quién el de causa? Tenemos una clara distinción nominal entre los fenómenos eléctricos y los fenómenos magnéticos, como la tenemos entre los niveles clásicos y cuánticos en la física general: eso significa que ambas "parejas" de sucesos se determinan mutuamente, pero el hecho concreto de fijar de algún modo la determinación se esfuma si pretendemos detallarlo porque la observación es "separativa" y suprime la neutralidad técnica de la interacción. De alguna manera, la unificación de los "fragmentos" (eléctrico y magnético) en un todo fue realizada en primer lugar por J. C. Maxwell gracias a su teoría del campo electromagnético, formulada en la década de los sesenta del siglo XIX. Sin embargo, fue Einstein con su teoría especial de la relatividad (1905) quién mostró cómo puede conseguirse una “perfecta simetría” acudiendo a la siguiente metáfora: "la electricidad es magnetismo y el magnetismo es electricidad".
                   Concedamos, pues, a regañadientes, que estamos en presencia de una analogía "transformada" en metáfora, y que naturalmente hay una distancia (de lo singular -electro/magnetismo- a lo general -mundo clásico/mundo cuántico-) conceptual muy considerable entre ambas "parejas" de sucesos, pero lo que si queda claro es que entre el mundo clásico y el mundo cuántico, no nos es posible hacer una distinción pragmática precisa y sobre todo desplazable. Seguramente requeriría de una matemática que fuera capaz de explicar por qué los electrones se aparecen con una nebulosidad ondulatoria y las mesas, los árboles y, en fin, todo lo que nos rodea (incluso nosotros mismos) ocupan un lugar definido y se describen en términos clásicos. Como el cerebro está hecho de átomos, de protones, de electrones y de núcleos, en principio, no habría por qué dudar en aplicar la mecánica cuántica, al menos si fuéramos lo suficientemente sagaces para realizar los cálculos para un complejo conjunto de átomos. Pero el cerebro no es...la mente. ¿Se puede considerar a ésta inmaterial? ¿Nos las tenemos que haber con algo que es diferente de nuestros instrumentos de análisis? Es aquí dónde hemos de esperar, que se elabore una matemática diferente...si es posible.
                   Mientras tanto, debemos tener también en cuenta que para cada crítica del uso que habitualmente se hace de la palabra "determinismo" disponemos de una réplica latente a la que siempre podemos recurrir. Parafraseando a Alfred Jules Ayer diríamos que: El hecho es sencillamente que cuando ocurre un suceso cuántico (o clásico) de un tipo, ocurre también un suceso clásico (o cuántico) de otro tipo, que está en una determinada relación espaciotemporal con el primero. Y ahora, no jugamos con metáforas-
                   Si nos referimos estrictamente a la mecánica cuántica, vemos que no hay indicios de indeterminismo, dado que las ecuaciones son deterministas. El supuesto indeterminismo aparece en el proceso de medida, es decir, cuando añadimos creencias (postulamos que tal medición...equivale... o debería equivaler a... tal cosa) a las ecuaciones. Ahora es cuando aparecen las situaciones paradójicas. Así tenemos, que si un sistema que evoluciona sin ser observado, lo hace de una manera completamente determinista, y si por el contrario al ser observado, deja de hacerlo en forma determinista (debido a que se produce la reducción del paquete de ondas) puede deducirse en buena lógica, que al unificar el sistema con el observador, este nuevo sistema obedece a la ecuación de Schrödinger, y se puede considerar a su vez totalmente determinista. Además si examinamos la mecánica cuántica de dos partículas con más cuidado vemos que no estamos ante un espacio tridimensional, sino ante uno de seis dimensiones. Dicho de otro modo, dado que todo orden tridimensional está ordenado a su vez en las tres dimensiones de la otra partícula disponemos de un orden de órdenes. Es por eso (nos recuerda David Bohm) que debe tratarse como de seis dimensiones una partícula común. Un objeto corriente de unas "pocas" partículas pongamos 10²(10 elevado a 26) partículas de energía, debería considerarse como si tuviera 3 x10² (3 x 10 elevado a 26) dimensiones. Estaríamos en presencia de un espacio de configuración, que visto desde la mecánica clásica se dice que es una abstracción pero que en la mecánica cuántica no lo es. Pensemos que este espacio de 3n dimensiones de la mecánica cuántica es tan elemental como el espacio tridimensional común de la mecánica clásica, y que son precisamente las leyes de la mecánica cuántica las que proporcionan fundamentalmente una relación entre los diversos espacios tridimensionales de cada partícula y el espacio 3n dimensional de la materia.
                   Pues ésta es la problemática del experimento de Einstein, Podolsky y Rosen, que no se puede reducir ese espacio de seis (para dos partículas) dimensiones a uno tridimensional. Sobre el papel solo podemos entender algunas cosas si se conservan las seis dimensiones. Ocurre que la que se denomina función de onda la tenemos en un espacio tridimensional y propiedades suyas se refieren a todo el sistema, mientras que otros operadores más pequeños solo se refieren a algunas partes del sistema. De ese modo no podemos reducir el todo a sus partes eliminando imprecisiones.
                   Es verdad que puede decirse que el indeterminismo cuántico pareció corroborarse en un famoso artículo de Heisenberg que escribió en 1927 sobre las relaciones de imprecisión. Esas relaciones surgen de un estudio de las medidas experimentales lo más atinadas posibles y proporcionan un margen inferior cuántico al que da el producto de los errores experimentales estimados con que se miden los emparejamientos de magnitudes denominadas conjugadas-canónicas. En ese contexto, Heisenberg se preguntaba si tal supuesto indeterminismo es epistemológico o de raíz óntica, pues en este segundo caso nada podría hacerse para detectar un determinismo estrictamente verificable por posibles experiencias futuras.
                   Pero en realidad, en un caso más práctico, ocurre que las formas matemáticas no dicen nada por si mismas de la realidad material; seguramente por ello se utilizan en combinación con otras reglas semánticas para poder decir cosas acerca del mundo exterior. Así sucede que los valores de verdad de las dos proposiciones (la de Schrödinger para la mecánica cuántica y la clásica <<tradicional>>) no están simultáneamente determinados para ambas. Porque como dice Emilio Santos: "En clásica aunque no se dé, pensamos, por lo menos que puede darse, es decir, quizá no sepamos el valor de <<verdad>> de dicha proposición, pero no porque no esté definida intrínsecamente. En cambio, la cuántica es incompatible con el hecho de que las propiedades de los sistemas estén definidas en sí. Se definen en conexión con un determinado experimento."  Eso es tan cierto, como que, de acuerdo con dicha interpretación la teoría a pesar de renunciar al determinismo en lo que concierne a las cosas mismas (en concreto, a los sistemas atómicos) lo retiene en lo que se refiere a la evolución de la información disponible, dado que las probabilidades mismas (o siendo más precisos, las amplitudes de probabilidad) evolucionan de acuerdo con una ley que siempre se ha estimado determinista, como es, la ecuación de Schrödinger.       
                   Y es que no es fácil escapar al determinismo. Cualquier observación de un fenómeno cuántico se realiza mediante instrumentos hechos de material "clásico" por observadores que están construidos de material "clásico". Aún más, cuando un aparato entra en un experimento, se tiene un sistema compuesto de "muchísimos" cuerpos, con lo que necesariamente se da una compleja relación termodinámica. Es decir, no puede saberse dónde están todas las partículas del aparato. En el proceso de medida hay que preparar un sistema que en un momento dado crea una situación de ambigüedad a causa de su naturaleza termodinámica. Nosotros somos sistemas termodinámicos y nuestros aparatos también lo son, por lo que no se puede esperar lograr verificar ningún hecho con precisión absoluta.



                   Todo esto quiere decir, que si tenemos en cuenta que hemos aceptado como básico el lenguaje de los "datos sensoriales", los observadores como otras cosas que están a un nivel físico (clásico) tienen que ser considerados también como situados en el "campo de los datos sensoriales" (o sea, reducibles a él) ya que si les concedemos la posibilidad de que no estén dentro, (no implicados) experimentando los datos sensoriales "por su cuenta", desviaríamos la cuestión de los mismos datos sensoriales hacia un nivel físico restringido y desvirtuaríamos el programa perceptivo interior, confiriéndole una exclusiva representatividad macroscópica. En el concepto del cuanto viene exigido, pues, implícitamente que el "objeto observado" no puede separarse del "instrumento de observación", ya que la forma de las condiciones del experimento y el propio significado de los resultados experimentales forman una "realidad conjunta" en la que no es relevante el análisis en elementos que existen autónomamente.
                   En el fondo, y como dice el profesor Bohm, "aunque la teoría cuántica es muy diferente de la teoría de la relatividad ambas tienen de común una implicación de una totalidad no dividida. En la paradoja EPR contemplamos un fenómeno que tiene unas características, pero al mismo tiempo esa realidad contempla la existencia de subfenómenos con otras características, que más en el fondo todavía incluyen los hechos en sus auténticas propiedades. Al realizar mediciones, intentamos suponer que la medida misma tiene entidad propia y es "en cierto modo", preexistente al hombre; esa supuesta independencia con respecto a él, puede llevar a una precipitada objetivación de conceptos, con lo que éstos se tomarían (impropiamente) por inmutables. Así se tiende más y más a considerar la medida como un método de expresión del carácter colectivo (algo que, en principio, no tiene porqué ser nada malo) de los objetos en cuestión. Sin embargo, para efectuar mediciones se necesitan "cerebros", cuando ellos mismos son el producto de una colección de sucesos físico-químicos determinada. Los cerebros humanos intervienen muchas veces en este proceso, unas veces como pensador y otras como objeto de la medida; unas veces como interpretador de la medida y otras como interprete de la misma. Siempre son sujeto y objeto a la vez, sin que se puedan desligar totalmente de uno de los papeles. La situación se "complica" además si consideramos que la medida se expresa en ratios, que no son meras proporciones numéricas (aunque es normal que las incluya), sino que más bien son, en general, una especie de proporciones o relaciones universales cualitativas. Con razón Mario Bunge señala que el colapso de las funciones de onda no desempeña ningún papel fundamental en la ciencia. Si existe un problema es el de la medida: "No hay una teoría de la medida en cuántica, ni siquiera una teoría del aparato de medida."
                   Los aparatos de medida deben adaptarse a la estructura granulosa del universo y eso crea sus problemas. La incertidumbre brota del hecho de que la energía y la masa se presentan en individualidades de cuantía fija, determinada en última instancia por la constante h de Planck. Como dice Asimov, si dicha constante fuese nula, no habría ninguna incertidumbre (sería muy fácil diseñar un aparato de medida), y si fuese muy grande, todo sería tan incierto que el universo parecería caótico (sería imposible diseñar un aparato de medida). Cierto que la granulosidad del universo es muy fina (representada, como decimos, por la constante de Planck) y que por eso, antes del siglo XX no había sido notada. Siempre se había creído que todas las medidas podían afinarse cuanto lo permitiese nuestra paciencia, llegando a conseguirse una precisión de ilimitada proximidad a la incertidumbre nula. Ahora somos más incrédulos. Aún suponiendo que un tipo de incertidumbre pudiera ser eliminado, es seguro que existen otras que ni siquiera imaginamos. Como mínimo, podemos apuntar la existencia de otra, que nos señala Fritjof Capra: es una forma (muy importante) que adopta el principio de incertidumbre y hace referencia a la desconocida cantidad de energía que hay implicada en el tiempo que consume un suceso atómico, lo cual tiene consecuencias sobre la incertidumbre de la localización de un acontecimiento en el tiempo, (al estar relacionado de este modo con la incertidumbre de la energía), del mismo modo que la incertidumbre de la localización de la partícula en el espacio corresponde a una incertidumbre en la determinación del momento.
                   La misma incertidumbre cuántica era la "barrera" hasta dónde podíamos acercarnos al inicio hipotético de la singularidad explosiva que dio origen al universo. A una diezmillonésima de billonésima de otra billonésima de segundo después de la Gran Explosión, en la llamada era del tiempo de Planck, las incertidumbres cuánticas en la geometría espaciotemporal se identificaban con el tamaño del propio universo, lo que significaba que no podían concebirse mayores fragmentaciones en el espacio-tiempo que la granulosidad conferida por dicha constante. Trozos más pequeños eran, sencillamente, incomprensibles. Sus mediciones estaban en el mismo borde nebuloso de imprecisión que el electrón antes de que se midiera su posición o su movimiento.
                   Un autor tan ajeno a la física moderna del siglo XX y tan alejado en el tiempo como para imaginar tal problemática, es Montaigne, el cual decía que: "Para aquilatar las apariencias de las cosas precisaríamos un instrumento que las midiera; para comprobar los resultados de ese instrumento sería necesaria una demostración, y para convencernos de si ésta es exacta necesitaríamos un instrumento, encontrándonos en consecuencia en un círculo vicioso".
                   Todas estas circunstancias especiales relacionadas con el problema de la medida nos hacen ver que no estamos capacitados para calificar a las partículas de "elementales", ya que pueden ser creadas, aniquiladas e incluso transformadas, y esto indica que tampoco éstas pueden ser las sustancias últimas, sino que son formas constantes, abstraídas de algún nivel dimensional más interno o profundo. A su vez, las partículas más "finas" pueden ser divisibles en otras más fraccionables todavía, constituyendo las auténticas sustancias últimas o finales. Puede haber una especie de "flujo" entre los distintos movimientos: clásico, cuántico y subcuántico, en los que el desorden del comportamiento individual en el contexto de una ley estadística dada, sea, en general, compatible con una noción de leyes individuales, por así decirlo, sumamente detalladas y aplicables a un ámbito amplio. Este aspecto oculto de la naturaleza puede ser análogo a la teoría atómica (antes de que se confirmase experimentalmente) o a la del movimiento browniano, antes de que al botánico Brown se le ocurriera preguntarse por qué se agitan de forma tan aparentemente desordenada los pequeños granos de polen suspendidos en un recipiente con agua.
                   Está claro que si los datos experimentales pueden cuestionar cualquier teoría, también seleccionados y combinados de otro modo, pueden apuntalarla, y éste es el caso que nos ocupa. Como dice el profesor Bohm, "no existen argumentos válidos que justifiquen la conclusión de Bohr de que el concepto de comportamiento detallado de la materia como un proceso único y autodeterminativo deba limitarse solamente al nivel clásico (en donde pueden observarse bastante directamente el comportamiento de los fenómenos a gran escala). Ciertamente, también podemos aplicar estas nociones a un nivel subcuántico cuyas relaciones con el nivel clásico son relativamente indirectas, pero todavía capaces, en principio de revelar la existencia y las propiedades de su nivel inferior por medio de sus efectos en el nivel clásico".
                   Bohm aplicándose a esa expectativa desarrolló una descripción muy interesante para muchas partículas en lugar de una sola. En su caso, no hay necesidad alguna de dividir el mundo en partes clásica y cuántica, pues términos denominados clásicos que se consideran necesarios están disponibles (la nueva física cuántica, no los ha hecho inútiles) para las partículas individuales en sus posiciones reales y también para conjuntos de partículas contemplados desde el punto de vista macroscópico. En particular, la síntesis de partícula y onda siguiendo la metodología de De Broglie-Bohm podría interpretarse como una ilustración detallada de la complementariedad. La descripción es completamente determinista, combina sin esfuerzo matemático el aspecto ondulatorio de la difracción de electrones, los patrones de interferencia y los efímeros y minúsculos destellos individuales, o por decirlo de otro modo, la naturaleza claramente definida de los sucesos a gran escala.
                   Podría decirse, que la teoría se fundamenta en que el nivel subcuántico se manifiesta en efectos deterministas o propiedades cualitativas del nivel clásico, en la medida en que el mundo tiene "características". Ahora bien, el que no se pueda predecir dónde ha de producirse un impacto o el destello de un electrón se debe a que no podemos saberlo y controlarlo todo. Si la incertidumbre en el nivel cuántico se conjuga con un tipo de determinismo cualitativo en el nivel subcuántico, es algo que por el momento sólo se sospecha, aunque muy "fundadamente". No se debe descartar ni mucho menos el que pueda llegarse a tener constancia de una limitación real y objetiva en el grado de "autodeterminación" en un cierto nivel, que junta a (o con) una "función" de probabilidad representante del carácter de las fluctuaciones estadísticas vendrían a incidir sobre los límites impuestos a otra "autodeterminación" (en otro nivel), que fuera, eso sí, claramente susceptible de ser descrita. De acuerdo con ese punto de vista existe una realidad objetiva, un mundo de partículas, que si bien no pueden ser definidas con un momento y una posición simultáneas (lo que supondría una reconstrucción de la teoría clásica de la causalidad) es solamente porque son observables.
                   Sabemos que en la base de la interpretación convencional de la mecánica cuántica, no tiene sentido decir que el electrón tiene posición y momento bien definidos, simultáneamente, pero no es irrazonable pensar que ambos puedan tenerlos en la práctica. La dificultad en el enfoque usual es que sólo se puede hablar de observaciones y medidas y no puede decirse lo que ocurre en medio. La nueva ontología que propone el físico Basil Hiley tendría en cuenta la atribución de un momento y una posición, aunque para el observador éstos fuesen desconocidos. En tal sentido, la idea del potencial cuántico desarrollada por Bohm y Hiley parte de esa premisa fundamental, es decir, de que existe realmente una partícula que posee a la vez posición y momento bien definidos. Consecuentemente, en vez de tomar su función de ondas como un medio para calcular inciertas probabilidades, es tratada como un campo real, algo así parecido al campo electromagnético que hemos mencionado. Ese sería el origen de la influencia sobre el comportamiento de la propia partícula y de otras partículas. El potencial cuántico sugiere que hay una fuerza directriz con energía proveniente de la "autoactividad" de la propia partícula. En cierto modo, el potencial cuántico de la partícula "dictaría" a ésta como debe zigzaguear por lo que no estaría sujeta al influjo de fuerzas aleatorias que la forzasen a un zigzagueo, a su vez, de carácter aleatorio. El resultado es que, partiendo de la "onda piloto" del príncipe De Broglie (1956) tenemos una teoría no local según la cual existe algo equivalente a una función de onda ψ| y un sistema de partículas de tipo clásico, que proporcionan (según Bohm y Hiley ) imágenes de realidad.
                   Característica importante del potencial cuántico es que propicia una descripción uniforme de las partículas, en el sentido de que no hay diferencias en el comportamiento de los electrones, neutrones o protones, lo que sugiere que dicho potencial surge de un campo que no es como el electromagnético, sino de un fondo de punto "cero" o estado vacío que está realmente lleno de energía. Buscando una analogía, B. Hiley recupera la idea de Richard Feynman de considerar un punto en el espacio-tiempo como un ordenador con una entrada y una salida conectado con puntos cercanos. Existe, por eso, la posibilidad de que una partícula pueda actuar como un ordenador diminuto que actúa en conexión con su entorno. Del enfoque que se da al potencial cuántico parece deducirse, que si no somos capaces de separar las partículas y tratarlas como independientes, al menos podemos considerarlas aspectos particulares de la "situación total". Desde ese punto de vista, el potencial cuántico reproduce muy fielmente los resultados de la mecánica cuántica a los niveles actuales de experimentación. Por el momento no provoca ninguna ruptura epistémica, salvo que demuestra sin ambigüedad (lo que ya es bastante) que hay una conexión no local en las partículas correlacionadas a distancia en el experimento de Aspect.
                   La idea Bohm-Hiley no deja de ser interesante, puesto que la teoría de variables ocultas a que da lugar muestra su consistencia con todos los hechos observables de la física cuántica pero se suele hacer la objeción de que ciertas características de la interpretación no son "estéticamente" satisfactorias. A ese respecto, debemos de precisar que es cierto que, según el axioma fundamental de la teoría cuántica ningún fenómeno elemental es un verdadero "fenómeno" si no es un fenómeno detectado. Pero que dispongamos de una teoría satisfactoria de las partículas como la que ahora conocemos, no nos garantiza que no haya otras manifestaciones fenoménicas no descubiertas todavía. Esto no es hacer "metafísica" de las partículas.
                   Desde otro punto de vista, vale la objeción de que no parece "correcto" que el potencial cuántico no afecte a las partículas y éstas si le afecten a él. También es admisible la postura de Einstein y otros físicos de que la noción de no localidad es fundamentalmente inaceptable, puesto que es una opción que implica la existencia de parámetros ocultos que deben poder afectar instantáneamente (¡!) a regiones del espacio arbitrariamente lejanas y además es incongruente con la relatividad especial. Pero si lo que se sugiere es que la única posibilidad de hacer ciencia es que "debe" mantenerse la localidad en todos sus conceptos fundamentales porque así lo "exigen" los hechos propios de la observación, entonces se estará permitiendo una grave intromisión de los prejuicios en ciencia. Porque un fenómeno detectado nos da sólo una idea (si tenemos por universalmente válidas las leyes generales de la teoría cuántica ) de las relaciones externas que se establecen entre una partícula (por ejemplo) con un aparato de medida, pero no nos dice nada de las características internas de la partícula misma (en esa consideración ya somos reiterativos) y esto último es necesario investigarlo desde todos los ángulos si queremos reducir nuestro nivel de incertidumbre haciendo aflorar el oculto determinismo allí donde pueda encontrarse.


                   Otros puntos de vista...en torno al mismo tema


                   En el fondo, las discusiones sobre determinismo se reducen a si el significado de los conceptos fundamentales puede ser ambiguo (según Bohr, sí) o no (opción preferida de Einstein). Bohr estimaba que no había que preguntarse qué hacen los átomos cuando no se les está observando, aunque no deja de ser intrigante que cuando se diseñan experimentos con el fin de detectar partículas, siempre se detectan partículas, mientras que cuando se diseñan experimentos para detectar ondas, siempre se detectan ondas. Ningún experimento nos muestra a los electrones comportándose simultáneamente como ondas y como partículas. Los experimentos (y ese es el origen del problema) se basan en la física clásica, incluso sabiendo que la física clásica no se puede aplicar con validez a la descripción de procesos de partículas, porque los resultados, al ser "implicantes", no "predictivos", desalientan inevitablemente al investigador. Si bien los procesos predictivos (muy comunes en la física clásica) se basan en una propiedad del orden manifiesto que con unos pocos elementos determina el orden total resultante, este mismo orden "total" puede muy bien llegar a estar constituido o determinado por la existencia de otros órdenes sutiles y complejos que imposibiliten predecir una de sus partes a partir de la otra.
                   El físico británico Anthony Leggett adopta una postura radical sobre esto. Cree que muy probablemente hay leyes de la naturaleza que emergen a un nivel por encima de los átomos pero que no conocemos aún. Duda que la mecánica cuántica sea una mecánica general y estima que hay algo más que entra en juego entre el nivel atómico y nuestro nivel macroscópico. En la materia a escalas de dimensiones intermedias falta por encontrar una pieza que ligue la materia considerada a escalas de millonésimas de milímetro en la que rigen los extraños fenómenos cuánticos, con nuestro nivel de vida cotidiana. Hemos de darnos cuenta que, entre la distancia más pequeña susceptible de ser medida, es decir, hasta donde la física se convierte en metafísica, (10- cm.) y la distancia microcósmica en la que probablemente tienen significado las nociones actuales de espacio-tiempo (10-ψcm) hay una amplísima escala, en la que podrían estar incluidas muchas estructuras no descubiertas todavía. Estas "implicaciones" teóricas resultan particularmente significativas cuando la teoría se extiende a los dominios de la cosmología. La Gran Explosión que hubo en el origen del universo es, además de una colección de sucesos con muchas y variadas cuestiones asociadas que exigen un cuidadoso análisis retrospectivo, un problema en el que la cosmología y la mecánica cuántica están muy imbricadas. Dado que la energía y la materia han sido creadas a partir de una singularidad, un evanescente "trozo" de espacio-tiempo, entonces está claro que debe haber implicados procesos de mecánica cuántica en los que los aparatos de medición clásicos no deberían desempeñar ningún papel. Porque si nos imaginásemos por un momento como espectadores teóricos de una época cosmológica, en la que ni siquiera existían los átomos y las moléculas, los aparatos de medición clásicos estarían claramente fuera de toda lógica empírico-analítica, consiguientemente, ahora deben seguir estándolo en muchos aspectos desconocidos, aunque inmediatamente  recobremos un punto de vista actual de observación retrospectiva.
                   Que el mundo macroscópico venga determinado por los hechos es sólo una constatación de nuestros sentidos, algo que nos es "mostrado" (en palabras de Wittgenstein) y con el que nos sentimos familiarizados. Sin embargo, el trasfondo normativo por el que los hechos se producen de tal o cual manera, no se muestra, está implícito. El trasfondo normativo que debe existir en el mundo cuántico, por el que los hechos ni siquiera se muestran, sino que implican al observador, nos sugiere que las partículas poseen más propiedades que las que pueden describirse según los llamados "observados" (lo que implica que tomamos conciencia de su mostración) de la teoría cuántica. Y uno de los hechos más mostrados en la historia de la humanidad es la "acción gravitatoria", algo en lo que el hombre nunca había reparado hasta que Newton demostró que era un hecho observable. La gravedad tiene su propio carácter singular, puesto que a pesar de sernos mostrada, no es directamente discernible en el nivel de las fuerzas que son importantes para las partículas fundamentales, pero que, de cualquier modo está (implícita) siempre presente, impregnándolo todo. A muchos físicos no les ha pasado desapercibido que los efectos detallados gravitacionales no pueden ser simulados mediante ninguna combinación de campos o fuerzas, se realicen como se realicen. Tampoco puede considerarse como una propiedad residual o, por el contrario, derivada de un comportamiento colectivo o gregario. En otras palabras, no es una propiedad emergente, sino más bien "elementalmente primaria". Actualmente se describe de forma apropiada mediante la propia estructura del espacio-tiempo que antes se había considerado como ámbito de juego de todas las demás actividades físicas.
                   Por todas estas razones la teoría cuántica estándar no parece encajar perfectamente con las nociones de espacio curvo que exige la teoría de la gravitación de Einstein. Además, éste nos advierte de ciertas dificultades epistémicas que entroncan con su teoría de la relatividad: "La noción de patrón de medida, así como el concepto de reloj de medición, que en la teoría de la relatividad aparecen coordinadas, no encuentran ningún objeto de la realidad que cuadre con ellos. También está claro que el sólido rígido y el reloj no juegan el papel de elementos irreductibles en la estructuración de los conceptos de la física. Son ideas sintéticas que deben jugar un papel independiente en la estructuración de la física teórica. Sin embargo, según mi opinión, en el estado actual de desarrollo de la física teórica es necesario recurrir a estos conceptos como si fueran independientes; pues aún nos encontramos lejos de un conocimiento tan preciso de los fundamentos de la atomística que nos permitan una exacta estructuración teórica de dichas ideas." 
                   En un contexto gravitatorio completamente general, los conceptos de energía y de tiempo, (que son imprescindibles para seguir los propios procedimientos de la teoría cuántica), no se pueden definir de forma precisa y coherente con los requisitos exigidos por dicha teoría. A ese respecto, el punto de vista de Roger Penrose nos parece muy esclarecedor. Según él, las deficiencias en la descripción pueden corregirse si admitimos que, tan pronto como estemos en presencia de una cantidad {{significativa}} de curvatura espacio-temporal, las engorrosas reglas de la superposición lineal cuántica pueden fallar. En ese punto, las superposiciones de amplitudes complejas de los desconcertantes estados alternativos quedan reemplazadas  por alternativas reales con pesos probabilistas que acaban por sustanciarse en una alternativa real y determinada.
                   En cuanto a, qué se entiende por una cantidad {{significativa}} de curvatura, Penrose la establece en el nivel en que la medida de la curvatura que entra en juego, tiene aproximadamente la escala de un gravitón o más. Si hay cuantos de energía ¿por qué no va a haber cuantos de curvatura del espacio-tiempo? Según las reglas de la propia teoría cuántica, el campo electromagnético está "empaquetado" en cuantos de individualidades que llamamos fotones. Análogamente un gravitón sería la partícula más pequeña de curvatura (con masa en reposo, carga eléctrica nula y spin 2) no solo responsable de las interacciones gravitatorias, sino de una existencia permitida por la física cuántica. Básicamente, lo que se nos plantea es recuperar un aspecto determinista en la física cuántica al modificar las reglas ordinarias de superposición lineal (de acuerdo con el procedimiento unitario), cuando se aplican a gravitones y hacer que se establezca algún tipo de "inestabilidad no-lineal" con asimetría temporal. Lo importante es que el sistema, en lugar de obedecer de forma permanente a que haya superposiciones lineales complejas de alternativas coexistentes, se "decide" por una de ellas y, en definitiva, se concreta en una u otra. El que la elección se haga por azar, o por que haya "algo más profundo" que subyace en la elección, no impide que una de ellas se convierta en realidad.
                   El inconveniente de esta teoría, es que todavía no hay unanimidad entre los físicos, puesto que (por ejemplo) para Hawking esta física desconocida debería ser una teoría de la gravitación cuántica con simetría temporal, mientras que para Penrose (que defiende la asimetría temporal) esa teoría no podría ser ajena, en modo alguno, a la segunda ley de la termodinámica en la forma que la conocemos. Pero tiene una ventaja sobre la teoría de las variables ocultas, de Bohm y Hiley, y es que como la gravedad nos es "mostrada" de antemano, aunque lleve implícita una realidad estructural oculta del universo aún no encontrada (como en el caso de la otra teoría) reduce nuestro nivel de incertidumbre, pues no es de creer que la gravedad sea una mera "convidada de piedra" que no intervenga para nada en la composición de las estructuras fundamentales del universo.
                   Puede también que después de todo, una teoría sobre variables ocultas esté relacionada con la gravedad. Desde hace unos años las variables ocultas han sido traídas de nuevo al primer plano por Gerard 't Hooft de la universidad de Utrecht y premio Nobel. Según él, la diferencia más destacada entre la mecánica clásica y la cuántica estriba en la perdida de información. Dado que las variables de la física clásica pueden tomar cualquier valor, mientras que las cuánticas sólo determinados, discretos, nos vemos obligados a admitir que un sistema clásico contiene más información que otro cuántico. Es decir, un sistema clásico da origen a un sistema cuántico, al perder información. Tal cosa puede ocurrir mediante el rozamiento o la existencia de otras fuerzas disipativas.
                   Si lanzamos dos monedas desde la torre Eiffel con velocidades diferentes, la fricción del aire provocará que ambas lleguen al suelo casi a la misma velocidad. Un observador situado cerca del lugar apenas podrá discernir con qué velocidades se arrojaron; esa información constituye una variable oculta. En este ejemplo y en muchas otras situaciones, un amplio espectro de condiciones iniciales diferentes, desembocan a largo plazo, en las mismas o muy parecidas condiciones finales. Si el universo experimenta algún tipo desconocido de rozamiento, la mecánica cuántica podría reflejar el hecho de que los resultados de los acontecimientos colapsan en valores discretos, en lugar de repartirse por todo un abanico de posibilidades. Las leyes a que se someten derivan de las leyes de Newton, aunque difieren de ellas en algunos aspectos. Gerard 't Hooft sostiene que no son otros que los de la mecánica cuántica. Según esta idea, la naturaleza sería clásica en los microniveles de la física, aunque parezca cuántica a causa de la disipación. Respecto al origen del rozamiento que torna en cuánticos los sistemas clásicos, Carsten van de Bruck, de la universidad de Sheffield, cree que podría tener que ver con la gravedad y que los campos gravitatorios intensos podrían cambiar las leyes de la mecánica cuántica.
                   De todas formas, mientras "llega" o "no llega" una teoría más consistente y definitiva sobre la gravedad cuántica, imaginamos que probablemente los físicos no tendrían nada que objetar al determinismo dentro y fuera de su disciplina si nos decidiéramos momentáneamente a sustituir ese término comprometido por el de "inferencia" (en el sentido de "ocasionar" o conducir a un "resultado"), aunque no es de creer que considerasen determinista "mendicante" al que se conforma con admitir que "hay una ley que establece con una probabilidad razonable que el fuego va a dar calor", ya que sospechamos que muchos físicos quizá opinen como Eddington, ( "los empedernidos deterministas quieren ir mucho más allá")  quien hacía hincapié en el señalamiento de los supuestos "vicios inconfesables" de quienes buscan la parte inconsútil de la naturaleza que haga posible, a sus ojos, el aseguramiento epistemológico de su permanente inteligibilidad: "El determinismo no postula simplemente causas, sino causas preexistentes; significa predeterminación."...Y sin embargo, fue el propio Eddington, quien (además de tratar de compatibilizar su racionalismo pitagórico con un indeterminismo, que se nos antoja era más de origen ideológico que otra cosa), realizó su propia declaración de principios: "la nueva inteligencia prevé el futuro con diversos grados de probabilidad, que varían desde una casi total certeza a una completa incertidumbre, según el campo de que se trate."
                   Bien, pues nosotros, entre el dilema certeza-incertidumbre podemos introducir una "cuña" o terciar con la "creencia" (a estas alturas, bastante justificada) en la determinación, lo cual, como diría Peirce, no es más que introducir un postulado.
                   Hemos de aclarar que una cosa es, sí hay determinismo o indeterminismo en el mundo y otra muy distinta si hay incertidumbre (o certidumbre) en el conocimiento de si hay determinismo o indeterminismo del mundo, aunque en la teoría cuántica se suelen intercambiar de forma equívoca el término determinación con el de certidumbre, y el término indeterminación con el de incertidumbre. Puede que la incertidumbre se derive o provenga del hecho de que hay indeterminación (realmente) del mundo (como piensan que ocurre algunos científicos) o se derive de que no ha llegado a descubrirse todavía la determinación, que por permanecer oculta impide despejar las relaciones de incertidumbre (como dice Paul Scheurer: "se trata en efecto de relaciones y no de principio, pues ellas son demostrables") del mundo, que es lo que argumentan otros científicos. Hemos visto que la postulación del determinismo del mundo esta fundamentada; tiene cierto parecido con la inferencia deductiva. Por ejemplo, si el mundo tiene características, algo las determinará. O también, el mundo es determinista porque las cosas ocurren (como dice Landsberg). El postulado de la determinación del mundo es cuasievidente y es el siguiente que se le puede ocurrir a cualquiera que previamente admita el postulado de la existencia del mundo. Después de todo lo escrito, sería gracioso que ahora nos replanteásemos si el mundo existe o no (aunque no es un absurdo lógico el pensar que pueda tratarse de "solo" una representación); sin embargo, se escriben cantidades enormes de libros discutiendo sobre si hay determinismo o indeterminismo. Dado que el mundo existe, ¿no sería más apropiado discutir sobre las circunstancias de su determinación o sobre las de los procesos azarosos acompañantes?
                   Por supuesto, nadie va a admitir que sus planteamientos son irracionales de entrada, y entonces desviará su atención (y tratará de hacerlo con la nuestra) hacia los hechos "significativos" o "autodeterminativos" del mundo. Pero para la ciencia no hay hechos significativos (excepto de forma auxiliar, en la simbolización de las representaciones) reales, sino, sólo hechos. Tampoco hay hechos autodeterminativos sin contexto. Un hecho autodeterminativo se produce en el seno del mundo y el mundo "produce contexto". Porque, incluso cuando se alega que el orden surge del caos (Prigogine lo hace) se puede contraargumentar, que el hecho cierto es que surgen órdenes de grado bajo a partir de órdenes caóticos o de grado infinito. Pero lo que se denomina habitualmente caos (en el sentido de Prigogine), tal como nos hace ver Bohm, no es un completo caos, sino más bien un orden aleatorio inicial sobre el que se superpone otro orden inicial de grado bajo: "En términos más generales, en los sistemas físicos hay todo un espectro, con órdenes de grado bajo en un extremo y caos y azar en el otro. En medio hay más tipos de orden enormemente sutiles, que no son de grado bajo ni caóticos.
                   Sin embargo, la ciencia todavía no ha estudiado estos órdenes intermedios de manera significativa. Podrían ser muy importantes para distintas áreas, e incluso la vida misma podría depender de ellos." 
                   Además, todavía podemos ser mas sutiles y decir a posteriori que el mundo existe, entre otras cosas porque "existe" (y existió) la posibilidad de su existencia. Y si la posibilidad de su existencia determina (aunque no sepamos como) que el mundo exista realmente, ¿como va a estar determinado éste fortuitamente? ¿Acaso los hechos fortuitos carecen de la posibilidad de producirse al azar? El azar solo prohíbe los hechos imposibles, es decir, los indeterminables. Todos los demás hechos del mundo, los que se han producido, se producen y se producirán es porque tienen la posibilidad de hacerlo, lo que supone la existencia de una capacidad de determinación ontológica previa a la de su determinación física. Es más, ni siquiera las causas pueden calificarse de fortuitas; sólo pueden reconocerse la existencia de efectos accidentales originados por una conjunción de causas inicialmente independientes y frecuentemente desconocidas. Así, pues, las únicas indeterminaciones físicas, no son las de los hechos fortuitos (puesto que, son fáctica u ontológicamente posibles) sino las de los hechos imposibles, como por ejemplo, la producción de "fuego frío", pegasus, los otros seres imaginarios de Borges o cualquier otra elucubración parecida.
                   Ahora bien, encontrar la determinación en los hechos concretos, a veces es sumamente difícil, ya que las "ligaduras" entre los diversos niveles de la realidad son tan sutiles que no somos capaces de localizarlas físicamente. Con razón, René Thom llama determinismo a "cualquier tipo de ligaduras que operan sobre el conjunto de las evoluciones virtuales, y no hay que confundir esa idea con alguna clase de unicidad en las soluciones".... "Todo lo que elimina algo de virtualidad es para mí una expresión del determinismo. Pero comprendo que quizá sea una idea demasiado fuerte para algunos". Precisamente, lo endeble de la conexión entre la capacidad ontológica y la capacidad física en la generación de los cambios es aprovechado por el fenomenismo ontológico para asegurar que los fenómenos percibidos por el sujeto son no sólo los únicos datos cognoscibles, sino también las únicas cosas existentes. Pero el fenomenismo ontológico presenta el doble inconveniente de excluir (en forma radical) del conocimiento todo fenómeno no perceptible y negar la autonomía de la materia. En nuestra opinión, Bertrand Russell ayuda a rescatar eficazmente los fenómenos no percibidos para una epistemología consecuente, postulando la existencia de entidades intermedias, los "perceptibles" (sensibilia), los cuales tienen el mismo estatuto ontológico que los datos percibidos sin ser necesaria y estrictamente datos para ninguna mente.
                   Así, el problema de si el objeto de percepción (por ejemplo, una partícula) es independiente de su percepción, es, o parece ser, su indeterminabilidad. El mismo se resolverá, según parece, en un sentido negativo o afirmativo dependiendo de si estamos implicados o no en su observación. Pero no es aceptable que se considere realista un análisis de nuestras sensaciones, fragmentando los elementos que intervienen en la percepción en términos como sujeto, acto y objeto, sin tener en cuenta las relaciones recíprocas de los contenidos sensoriales que intervienen en dicha fragmentación. En consecuencia, siempre hay que tener presente que la imposibilidad principal de un modelo determinista elaborado a posteriori es, en todo caso, relativa a un conjunto definido a priori de evoluciones virtuales (en mecánica cuántica, la imagen puntual de una partícula y su trayectoria). De esta forma, nos hacemos cargo de que las debilidades del determinismo son, sobre todo, debilidades de nuestra imaginación. Pero nada nos obliga a admitir que estas debilidades sean definitivas.
                   Sin embargo, si dejásemos las cosas de este modo establecidas quedarían como un poco sueltas o como "prendidas con alfileres". Admitamos que hay determinismo en la configuración de la realidad, e incluso, en la de nuestra realidad "mental", pero ¿de qué clase? Obviamente, esta pregunta no puede ser respondida más que de una manera general: la de que nada ocurre de manera incondicional ni absolutamente irregular, es decir, de forma que se pudiese calificar de arbitraria. En otras palabras, todas las cosas del mundo (incluso las representaciones) están determinadas por algo, según leyes naturales. No se vea en esta exposición un rastro de causalismo, en el sentido de que un acontecimiento tenga que estar, de algún modo, dependiendo de otro, sino más bien en el sentido de que ambos pueden estar correlacionados (como los fotones de la paradoja EPR y el experimento de Aspect) aunque la misma correlación no pueda ser a veces descrita, y mucho menos aún evidenciada. Estamos hablando de lógica necesitante, según la cual los fenómenos se producen, no de necesidad causante, por la que se inclinan algunos fisicalistas extremados. Aquélla excluye que la causa deba contener en cuanto tal, al efecto, y sí considera digno de relevancia, en cambio, que un acontecimiento dado cualquiera precisa de una relación íntima (correlación) con otro. Otra problemática aparece cuando se evidencia que la causación se difumina en "sólo" una correlación, y que hay correlaciones de simultaneidad y de sucesión. Entonces es cuando se hace patente también que no hay una unidad en las series de antecedentes causalmente responsables (o no) de un acontecimiento dado. Por consiguiente, siempre que estemos ante una correlación de simultaneidad, podremos sustituir una sucesión de antecedentes por otra más apropiada, a fin de obtener una nueva serie de antecedentes causales más conveniente. Desde esa perspectiva, la expansión hacia otros dominios del campo de la causalidad es muy clara, aunque eso sí, no se pueda ni se deba denominar como se venía haciendo tradicionalmente.
                   Ya sabemos que el lema fenomenalista según el cual nada más hay que saber acerca de las leyes de la naturaleza, que las leyes mismas, es una "barrera" protectora que se intentó establecer frente a supuestos teóricos e inconscientemente "metafísicos" del determinismo clásico. Según éste, la naturaleza constituye un sistema cerrado en sí mismo y para sí mismo. Pero ésas no son las obsesiones de la ciencia moderna. La razón suficiente de una ley de la naturaleza se encuentra en ciertas leyes; la de éstas, a su vez, en otras y así sucesivamente. En apariencia, pues, nada debería justificar la creencia en primeros principios (que también son los últimos, según se mire) ni en leyes fundamentales. Sin embargo, el razonamiento inverso no es imposible de realizar. ¿Por qué hemos de pensar que hay una apoyatura indefinida de unas leyes en otras para dar cuenta de todos los fenómenos del universo? ¿Acaso el catálogo registrado de fenómenos posibles de éste recoge o compendia todos los que pueden producirse en él? ¿No quedarán por localizar algunos (o bastantes) fenómenos raros, escasos, aislados o "no" producidos todavía? En todo caso, estimamos que ninguna ley de la naturaleza puede violar las leyes del entendimiento (aquí sí somos antropocéntricos), y es justamente por eso por lo que el principio de comprensibilidad puede enunciarse. El entendimiento prima sobre las leyes que supuestamente rigen la existencia de fenómenos hasta que no estén sólidamente establecidas. Es más, suponiendo que esto último fuera así, tendría su fundamento en un previo y duro proceso de examen de la teoría proposicionalmente construida al efecto por el mismo entendimiento, erigiéndose como principal protagonista esclarecedor.
                   Únicamente se puede ver defraudado con esa concepción del mundo cierto extremismo fatalista o mecanicista. También puede parecer que se dan excesivos e infundados alientos a un funcionalismo exagerado. Pero es que la ciencia no puede conocer hechos que estén libres de interpretación, precisamente porque debe explicarlos, y lo que es más difícil todavía, verosímilmente. Eso puede implicar cualquier grado de incertidumbre y, así mismo, la existencia de una fuerte dosis de determinismo mental que trata de reducir aquél, porque (generalmente) sabe lo que le conviene.
                   En resumen, si queremos evitar confusiones, podemos decir que la forma newtoniana de determinismo está desacreditada, pero el determinismo (en su más amplio sentido) subsiste diseminado en un espectro de categorías que, sin duda, han debido perfilar una configuración específica, tanto de la mente como de la razón humanas.                                       
 
         

No hay comentarios:

Publicar un comentario