Monografias.com > Sin categoría
Descargar Imprimir Comentar Ver trabajos relacionados

El Rey de la eternidad (página 2)




Enviado por Jesús Castro



Partes: 1, 2, 3, 4

Paradojas
cuánticas

En una región del espacio tan pequeña como
la ocupada por un protón, o tan extensa como la ocupada
por una galaxia, cohabitan campos cuánticos. Da la
impresión de que todos ellos se interpenetran, de manera
que cada cual permea a los otros. Esto constituye una asombrosa
visión surrealista, o superrealista, de la realidad. Pero
es en esta visión en donde la física
contemporánea puede moverse con más soltura que
nunca, logrando explicar insuperables paradojas de antaño.
Sin embargo, también es cierto que el horizonte de esta
nueva física se complica exponencialmente, ya que por cada
respuesta aparecen multitud de preguntas advenedizas.

Parece que, para salir al paso del problema de la
pluralidad de campos supuestamente ubicados en un
mismo espacio cósmico, desde hace algún tiempo se
han producido intentonas de unificación de todos los
campos cuánticos en uno solo.

Monografias.com

Einstein trabajó los últimos años
de su vida en esta tarea, sin conseguir resultados.
Pretendía lograr la unificación del
electromagnetismo (campo electromagnético) con la gravedad
(campo gravitatorio), pues en sus días se
desconocía la existencia de las fuerzas débil y
fuerte y sus dos campos asociados.

Actualmente, avances en otros campos de la física
o de otras ciencias han interactuado más o menos
eficazmente con la teoría cuántica de campos para
el adelanto dela misma. Por ejemplo, el experimento de la "doble
rendija" ha sido realizado con fotones, electrones, neutrones e
incluso fullerenos. Con partículas fundamentales, como los
fotones y los electrones, la explicación del experimento
utilizando campos cuánticos parece muy clara, pues sigue
punto por punto la descripción mediante ondas. Pero
¿cómo se pueden interpretar estos fenómenos
en el caso una macromolécula, como un fullereno, tomada en
conjunto y utilizando la teoría de los campos
cuánticos? El "fullereno", muy estudiado en
química, es la tercera forma molecular más estable
del carbono, tras el grafito y el diamante. La primera vez que se
encontró un fullereno fue en 1985. Su naturaleza y forma
se han hecho ampliamente conocidas en la ciencia y en la cultura
en general, por sus características físicas,
químicas, matemáticas y estéticas. Se
destaca tanto por su versatilidad para la síntesis de
nuevos compuestos como por la armonía de la
configuración de las moléculas, con
hexágonos y pentágonos. Se presenta en forma de
esferas, elipsoides o cilindros. Los fullerenos esféricos
reciben a menudo el nombre de "buckyesferas" (como el de la
figura adjunta, con 60 átomos de carbono), y los
cilíndricos reciben el nombre de "buckytubos" o
"nanotubos".

Hasta fechas recientes no hemos empezado a entender
cómo un protón está formado por quarks y
gluones, y que la interpretación correcta de una
"molécula" no es otra que un conjunto de excitaciones de
campos en interacción mutua. Un fullereno es
verdaderamente una gigantesca constelación de campos
cuánticos excitados, como si se tratara de una monumental
sinfonía de innumerables ondas de energía (en forma
de pulsos) que se desplazan sobre un medio o sustrato
completamente desconocido, el cual se ha logrado atisbar con
extrema precariedad mediante la acertada introducción del
concepto de "campo cuántico".

La "física de partículas" de hoy se
denomina "teoría cuántica de campos", porque los
físicos piensan que las "partículas" no son los
objetos fundamentales de nuestro universo, sino únicamente
fenómenos derivados de la actividad energética
acaecida sobre los "campos" y malinterpretados al
asignárseles una solidez o corporeidad que realmente no
tienen. Los campos cuánticos son los objetos
fundamentales, de los que derivan las partículas o pulsos
perturbatorios de un medio universal.

Una "partícula" es una fluctuación
localizada de un campo cuántico, pero hay fluctuaciones
localizadas de campos cuánticos que no son
"partículas"; no, al menos en nuestro universo. Incluso el
"vacío" corresponde a fluctuaciones del campo. El
"principio de incertidumbre" de la mecánica
cuántica afirma que en regiones muy pequeñas del
espacio todos los campos se encuentran fluctuando de forma
continua y anárquica. El vacío no está
vacío, pues el espacio vacío está ocupado
por campos. El vacío del campo electromagnético es
el estado del campo en el que no tenemos constancia de que exista
ninguna partícula (las "partículas" del campo
electromagnético se llaman "fotones", y son las
partículas de la luz), pero dicho campo fluctúa de
forma constante y los físicos han sido capaces de
diseñar experimentos para verificar la existencia de este
vacío cuántico del campo (gracias al efecto de
Casimir o al efecto de Lamb, sobre los cuales no es conveniente
entrar ahora en detalles). Y las fluctuaciones del campo en el
estado del "vacío" no paran nunca, son
permanentes.

Monografias.com

Tanto lo que en nuestro mundo se percibe como el
"vacío", o lo que se tiene como "partículas", no
son más que "fluctuaciones" (agitaciones u oscilaciones)
de un "campo cuántico", por lo que cabe la pregunta:
¿cuándo las fluctuaciones de un campo
cuántico corresponden a una partícula o a un
vacío? Para saber si una fluctuación de un campo,
localizada en cierta región del espacio alrededor de un
punto, corresponde a una partícula elemental situada en
dicho punto, hay que recurrir a la famosa fórmula de
Einstein: E=mc2. Dicha fórmula, adaptada a la
teoría de campos, hace que los físicos de
partículas fundamentales prefieran escribirla así:
E2=(mc2)2+(pc)2;
donde m representa la masa de las partículas del campo, E
es la energía contenida en la fluctuación, p es el
momento lineal (o cantidad de movimiento) de la partícula
(que, en física clásica o newtoniana, corresponde a
la masa por la velocidad: p=mv) y c es la velocidad constante de
la luz. La masa m hay que concebirla, en la nueva física,
como una propiedad que tiene el campo. Por lo tanto, si se cumple
esta ecuación, diremos que la "fluctuación del
campo" es una "partícula", que se mueve con una velocidad
p/m y posee una energía E. Los físicos afirman que
esta fluctuación cuántica del campo, que satisface
la ecuación (clásica) relativista de Einstein
E=mc2, es una partícula "on-shell" (dentro del
cascarón).

Por supuesto, hay fluctuaciones del campo
cuántico que no cumplen la ecuación E=mc2 y,
consecuentemente, no pueden ser llamadas "partículas
on-shell". A dichas fluctuaciones se las denomina entonces
partículas "off-shell" (fuera del cascarón), aunque
es más habitual llamarlas "partículas virtuales".
Se da la denominación de "partículas" a las
"partículas virtuales" porque, aunque no son
"partículas" en el sentido clásico del
término, su interacción con las "partículas
clásicas" (campos cuánticos excitados) puede
transformarlas en "partículas" clásicas (esto es,
pueden pasar de ser "fluctuaciones off-shell" a "fluctuaciones
on-shell").

El término "virtual", aquí empleado, se
refiere a que las "fluctuaciones off-shell" no son observables de
forma directa: se puede detectar una "partícula"
(fluctuación on-shell), pero no una "partícula
virtual" (fluctuación off-shell). Muchos físicos
teóricos se inclinan a interpretar las "fluctuaciones del
vacío" como fluctuaciones de partículas "off-shell
o virtuales". Aún no se han descubierto "fluctuaciones de
los campos" que no sean "partículas" (on-shell),
"partículas virtuales" (off-shell) o "vacío"
(fluctuaciones o partículas de otra índole, para
otros teóricos). Pero hay bastantes físicos que
piensan que la existencia teórica de "fluctuaciones de los
campos" que no son partículas on-shell ni of-shell (como
los "instantotes", "monopolos" y otras "soluciones no lineales",
que han sido observados en "física del estado
sólido", aunque no a nivel fundamental) quizás
algún día se descubran, y todo ello, en conjunto,
apoya la idea de que los campos son más fundamentales que
las partículas.

En definitiva, los datos experimentales se pueden
explicar en términos de campos cuánticos y sus
excitaciones, pero no se pueden explicar en términos de
partículas. Por lo tanto, las entidades físicas
fundamentales son los "campos cuánticos" y no las
"partículas". Los "campos cuánticos" se pueden
considerar como una propiedad del mismo "espacio", que constituye
una entidad compacta que se extiende por todo el Universo. Las
"excitaciones de dichos campos" son lo que entendemos como
"partículas", y son estas "excitaciones" las que "vemos"
desplazarse por el espacio a una velocidad máxima de
"c".

La nueva física, la no clásica,
comenzó con la teoría de la relatividad y la
primitiva mecánica cuántica. Pronto se vio que la
relatividad y la mecánica cuántica eran sendas
teorías incompatibles a los ojos de los teóricos,
pues la primera era aplicable sólo al macrocosmos y la
segunda sólo al microcosmos. Así, pues, la
"mecánica cuántica" primitiva era una teoría
no relativista: bien llamada "mecánica cuántica no
relativista". Sin embargo, a lo largo del siglo XX se hicieron
enormes esfuerzos por aunar ambas teorías, sin grandes
progresos al principio. Pero hacia el final de ese siglo se
produjeron resultados prometedores, que desembocaron en una
"mecánica cuántica relativista", la cual obtuvo un
terreno teórico tomado de la intersección de
conceptos pertenecientes a ambas teorías, es decir, la
fusión de elementos relativistas y elementos
cuánticos. La actual mecánica cuántica es
una "mecánica cuántica relativista", de cuyo seno
está brotando una "teoría cuántica de
campos" (o "teoría de campos cuánticos") que da la
impresión de querer convertirse en el paradigma dominante
de la física teórica del futuro
inmediato.

El experimento de la "doble rendija", desde la
óptica de la mecánica cuántica primitiva o
no relativista, conduce a una paradoja: la dualidad
onda-corpúsculo. Ésta ha resultado ser una paradoja
persistente en dicha teoría, pero deja de serlo en la
teoría cuántica de campos. Hagamos un poco de
historia sobre este fenómeno.

Una de las incógnitas más antiguas en la
historia de la ciencia está relacionada con la luz:
¿qué es exactamente?
¿Cuál es su naturaleza?

Monografias.com

A primera vista puede parecer que la luz viaja en
línea recta y se podría interpretar su
comportamiento como el propio de un haz de partículas, que
se desplazan radialmente a partir de un foco lumínico (tal
como los radios de la rueda de una bicicleta), por lo que
proponer que sea una onda, como las olas del mar, no
encajaría en absoluto con la apariencia del
fenómeno. Esto se debe a que el comportamiento de las
ondas es muy diferente al de las partículas. Las ondas
presentan unos picos y unos valles. Si quisiéramos sumar
dos ondas y sus picos coincidieran entre sí,
tendríamos una onda con picos más altos y valles
más bajos; pero si las sumásemos de forma que el
pico de una coincidiese con el valle de la otra, entonces se
anularían. Es decir, dos ondas pueden interaccionar y
desaparecer, algo impensable para las partículas (o bien
hay una partícula, o hay dos, pero en ningún
momento una partícula que choque con otra hará que
las dos desaparezcan); y a este fenómeno ondulatorio se le
conoce con el nombre de "interferencia".

Newton, con la autoridad que le proporcionó el
éxito de su ley de la Gravitación Universal, se
atrevió a afirmar de forma tajante que la luz es
corpuscular (partículas de luz). Se opuso violentamente a
la naturaleza ondulatoria de la luz, ya que no veía
cómo se podía explicar con ella la
propagación rectilínea de la misma. Por otra parte,
Christian Huygens defendía la naturaleza ondulatoria de la
luz.

Lo interesante es que las teorías de ambos
científicos explicaban perfectamente la reflexión y
refracción de la luz, pero diferían en una cosa: la
teoría corpuscular predecía que las
partículas de luz se acelerarían al pasar por un
material óptico de mayor densidad, mientras que la
teoría ondulatoria vaticinaba que sucedería todo lo
contrario (las ondas se propagan a menor velocidad en los
materiales ópticos de mayor densidad). Sin embargo,
semejantes pronósticos no eran comprobables en aquella
época. De todas formas, debido a la influencia de Newton y
a la poca habilidad de Huygens para desarrollar
matemáticamente su propuesta, la teoría ondulatoria
quedó descartada durante un siglo.

Fue entonces cuando apareció Thomas Young, quien
con tan sólo catorce años hablaba latín,
hebreo, samaritano, caldeo, árabe, sirio, francés,
italiano, persa, turco y etíope. Estudió medicina
en Cambridge; investigó el funcionamiento del ojo humano,
estableciendo que existían tres tipos de receptores, cada
uno de ellos sensibles a uno de los colores primarios; y un largo
etcétera. En 1801 realizó su tan relevante
experimento de la "doble rendija", que ha pasado a la historia de
la ciencia con el nombre de "experimento de Young".

Thomas Young (1773–1829), con su importante
experimento de la "doble rendija", permitió obtener
evidencias claras de la naturaleza ondulatoria de la luz, e
incluso pudo medir ciertas longitudes de onda para luz visible.
En la imagen que encabeza la página siguiente, podemos ver
un dibujo que ilustra el famoso experimento,
mediante el que el científico pudo comprobar un
patrón de interferencias en la luz procedente de una
fuente lejana (luz solar) al difractarse ésta tras el paso
por dos rendijas.

Monografias.com

Young hizo que la luz atravesara una rendija muy
estrecha, practicada en una persiana, S0. Este haz de luz
incidía sobre una pantalla opaca, en la que había
dos rendijas muy estrechas y cercanas entre sí, S1 y S2.
Veamos cómo se produce el patrón de interferencia
sobre la pantalla P:

Suponemos que las ondas que atraviesan las rendijas
tienen una longitud de onda ? y están separadas, unas de
otras, por una distancia d. Al atravesar las rendijas S1 y S2,
las ondas se dispersan en todas direcciones. Las que llegan al
centro de la pantalla habrán recorrido la misma distancia,
por lo que están en fase: la cresta de una onda llega al
mismo tiempo que la cresta de otra onda. Se forma entonces una
interferencia constructiva y las amplitudes de ambas ondas se
suman. El resultado de esta interferencia constructiva es un
área brillante en el centro de la pantalla. La
interferencia constructiva también ocurrirá cuando
las trayectorias de los dos rayos luminosos difieran en una
longitud de onda completa ? (o en cualquier número entero
de longitudes de onda, es decir, n?, siendo n un número
entero positivo o natural). Por su parte, las interferencias
destructivas ocurrirán cuando un rayo recorra una
distancia adicional de media longitud de onda ½?, o bien
(n+½)?, siendo n un número natural. En este caso,
las ondas estarían totalmente fuera de fase al llegar a la
pantalla: la cresta de una onda coincidiría con el valle
de otra. Entonces, al sumar las amplitudes de onda, daría
como resultado una amplitud cero. Se forma así una
interferencia destructiva y en la pantalla se ve una franja
oscura. El patrón de interferencia que se ve en la
pantalla P está formado, entonces, por una sucesión
de líneas brillantes y oscuras. La siguiente imagen
muestra cómo aparece el patrón de interferencia del
experimento de Young en la pantalla de visualización
P:

Monografias.com

De acuerdo con la física clásica, existen
diferencias irreconciliables entre onda y partícula. Una
partícula ocupa un lugar en el espacio, puede variar su
velocidad en el medio y tiene masa, mientras que una onda se
extiende en el espacio, se caracteriza por tener una velocidad
definida en el medio y posee masa nula.

En 1905, Einstein logró una notable
explicación del efecto fotoeléctrico, como ya se ha
comentado antes. Éste había resultado ser un
fenómeno bastante preocupante, pues la teoría
ondulatoria clásica era incapaz de
explicarlo.

Monografias.com

Pero Einstein lo hizo postulando la existencia de
fotones, o cuantos de luz con propiedades de
partículas.

En el efecto fotoeléctrico se observaba que si un
haz de luz incidía en una placa de metal, producía
electricidad en el circuito. Presumiblemente, la luz liberaba los
electrones del metal, provocando su flujo. Sin embargo, mientras
que una luz azul débil era suficiente para provocar este
efecto, la más fuerte e intensa luz roja no lo
provocaba.

De acuerdo con la teoría ondulatoria,
clásica, la fuerza o amplitud de la luz se hallaba en
proporción con su brillantez: La luz más brillante
debería ser más que suficiente para crear el paso
de electrones por el circuito. Sin embargo, extrañamente,
no lo producía.

Einstein llegó a la conclusión de que los
electrones eran expelidos fuera del metal por la incidencia de
fotones. Cada fotón individual acarreaba una cantidad de
energía E, que se encontraba relacionada con la frecuencia
? de la luz, mediante la siguiente ecuación: E = hv, donde
h es la constante de Planck (cuyo valor es 6'626 ×
10-34 J·s). Sólo los
fotones con una frecuencia alta (por encima de un valor umbral
específico) podían provocar la corriente de
electrones. Por ejemplo, la luz azul emitía unos fotones
con una energía suficiente para arrancar los electrones
del metal, mientras que la luz roja no. Una luz más
intensa por encima del umbral mínimo puede arrancar
más electrones, pero ninguna cantidad de luz por debajo
del mismo podrá arrancar uno solo, por muy intenso que sea
su brillo. Einstein ganó el Premio Nobel de Física
en 1921, por su teoría del efecto
fotoeléctrico.

Albert Einstein proponía, de esta forma, que en
determinados procesos las ondas electromagnéticas que
forman la luz se comportan como corpúsculos. Entonces, el
físico francés Louis-Victor de Broglie (1892-1987)
se preguntó por qué no podría ser
también de manera inversa, es decir, que una
partícula material (un corpúsculo) pudiese mostrar
el mismo comportamiento que una onda. Por consiguiente, en 1924,
De Broglie formuló una hipótesis en la que afirmaba
lo siguiente: "Toda la materia presenta características
tanto ondulatorias como corpusculares, comportándose de
uno u otro modo dependiendo del experimento
específico".

El físico francés relacionó la
longitud de onda, ? (lambda), con el momento lineal p de la
partícula, mediante la fórmula: ? = h/p, con p =
mv, donde ? es la longitud de la onda asociada a la
partícula de masa m, que se mueve a una velocidad v, y h
es la constante de Planck. Viendo la fórmula, se aprecia
fácilmente, que a medida que la masa del cuerpo o su
velocidad aumenta, disminuye considerablemente la longitud de
onda.

Esta hipótesis se confirmó tres
años después para los electrones, con la
observación de los resultados del experimento de la doble
rendija de Young en la difracción de electrones en dos
investigaciones independientes. En la Universidad de Aberdeen,
George Paget Thomson pasó un haz de electrones a
través de una delgada placa de metal y observó los
diferentes esquemas predichos. En los Laboratorios Bell, Clinton
Joseph Davisson y Lester Halbert Germer guiaron su haz a
través de una celda cristalina.

La ecuación de De Broglie se puede aplicar a toda
la materia. Los cuerpos macroscópicos, también
tendrían asociada una onda, pero, dado que su masa es muy
grande, la longitud de onda resulta tan pequeña que en
ellos se hace imposible apreciar sus características
ondulatorias. De Broglie recibió el Premio Nobel de
Física en 1929 por esta hipótesis. Thomson y
Davisson compartieron el Nobel de 1937, por su trabajo
experimental.

Similares experimentos fueron repetidos con neutrones y
protones, el más famoso de ellos realizado por Estermann y
Otto Stern en 1929. Experimentos más recientes, efectuados
con átomos y moléculas, demostraron que
éstos actúan también como ondas. En 1999, se
informó de la difracción del fullereno, que es un
objeto masivo, con una masa atómica de 720; hasta el
año 2005, éste ha sido el mayor objeto sobre el que
se han observado propiedades ondulatorias mecano-cuánticas
de manera directa. La interpretación de dichos
experimentos aún puede crear controversia, especialmente
si se asumen los argumentos de la dualidad onda-corpúsculo
y la validez de la ecuación de De Broglie en su
formulación, esto es, en el marco teórico de la
mecánica cuántica primitiva (no
relativista).

Basándose en el planteamiento de De Broglie, de
la dualidad onda-partícula, la mecánica
cuántica moderna no relativista comenzó a tomar
forma en 1925, cuando los físicos alemanes Werner
Heisenberg y Max Born desarrollaron la "mecánica
matricial" y el físico austríaco Erwin
Schrödinger creó la "mecánica de ondas" y la
"ecuación de Schrödinger no relativista" como una
aproximación al caso generalizado de la teoría de
De Broglie. Schrödinger, posteriormente, demostró que
ambos enfoques (mecánica matricial y mecánica de
ondas o mecánica ondulatoria) eran
equivalentes.

Werner Karl Heisenberg (1901-1976), famoso físico
alemán y premio Nobel en 1932, creador de la
"mecánica de matrices" (mecánica matricial) en
1925, hizo una gran contribución fundamental al
establecimiento de la "mecánica cuántica" (no
relativista) con la formulación de su famoso "principio de
incertidumbre" (o "principio de indeterminación") en 1927.
Este principio afirma que es imposible medir
simultáneamente, de forma precisa, la posición y el
momento lineal (cantidad de movimiento) de una partícula.
Dicho principio ha ejercido una profunda influencia en la
física y en la filosofía del siglo XX.

Monografias.com

El descubrimiento de que nuestro universo a nivel
microscópico se fundamenta sobre una realidad
cuántica, incentivó a los científicos y
también a los filósofos a emitir conjeturas e
interpretaciones. En el pródigo año (para la
física) de 1927, el danés Niels Bohr (1885-1962),
con ayuda de Max Born y Werner Heisenberg, entre otros (durante
una conferencia realizada en Como, Italia), formuló una
interpretación de la mecánica cuántica que
posteriormente ha llegado a conocerse con el nombre de
"interpretación de Copenhague" (en alusión a la
ciudad donde residía Bohr).

La interpretación de Copenhague incorpora, pues,
el principio de incertidumbre, el cual establece, como ya se ha
comentado, que no se puede conocer simultáneamente con
absoluta precisión la posición y el momento
(cantidad de movimiento) de una partícula. La
interpretación de Copenhague, también,
señala el hecho de que el principio de incertidumbre no
opera en el mismo sentido hacia atrás y hacia delante en
el tiempo. Muy pocos hechos en física tienen en cuenta la
forma en que fluye el tiempo, y éste es uno de los
problemas fundamentales a la hora de comprender el funcionamiento
del Universo, donde ciertamente hay una distinción entre
el pasado y el futuro. Las relaciones de incertidumbre de
Heisenberg, según la interpretación de Copenhague,
indican que no es posible conocer la posición y el momento
simultáneamente, y, consiguientemente, no es posible
predecir el futuro, ya que, en palabras de Heisenberg: "no
podemos conocer, por principio, el presente en todos sus
detalles". Pero es posible, de acuerdo con las leyes de la
mecánica cuántica, conocer cuál era la
posición y el momento de una partícula en un
instante del pasado. El futuro es esencialmente impredecible e
incierto, mientras que el pasado está completamente
definido. Por lo tanto, nos movemos de un pasado definido a un
futuro incierto.

mentariedad", que establece que ambas descripciones, la
ondulatoria y la corpuscular, son necesarias para comprender el
mundo cuántico. Bohr también señaló,
en la conferencia de Como, Italia, que mientras en la
física clásica un sistema de partículas
direccionadas funciona como un aparato de relojería,
independientemente de que sean observadas o no, en física
cuántica el observador interactúa con el sistema en
tal medida que el sistema no puede considerarse con una
existencia independiente del observador.

Además, según la interpretación de
Copenhague, toda la información experimental la
constituyen los resultados de laboratorio. Se puede observar un
átomo y ver un electrón en el estado de
energía A, después volver a observar y ver un
electrón en el estado de energía B. Se supone que
el electrón saltó de A a B, quizás a causa
de la observación. De hecho, no se puede asegurar siquiera
de que se trate del mismo electrón, y no se puede hacer
ninguna hipótesis de lo que ocurría cuando no se
observaba. Lo que se puede deducir de los experimentos, o de las
ecuaciones de la mecánica cuántica, es la
probabilidad de que si al observar el sistema se obtiene el
resultado A, otra observación posterior proporcione el
resultado B. Nada se puede afirmar de lo que pasa cuando no se
practica observación alguna, ni de cómo pasa el
sistema del estado A al B.

Monografias.com

Después de esto, Einstein y muchos otros
físicos se negaron a aceptar esta interpretación de
la mecánica cuántica, presentando varias
críticas en su contra. No obstante, Einstein y Bohr eran
buenos amigos. Ambos se encontraron por vez primera durante una
visita del danés a Berlín en junio de 1920, y se
vieron por última vez en abril de 1954, en Princeton,
EE.UU. La relación entre ellos fue estrecha y de gran
afecto, así como de aprecio mutuo. Sin
proponérselo, a resultas de la conferencia de Bohr en
Como, entablaron una polémica acerca de la manera correcta
de interpretar la mecánica cuántica que se
prolongó hasta la muerte de Einstein en 1955 y que fue
excelentemente documentada por Bohr. A pesar de la importancia y
seriedad que este debate tuvo para el danés, no obstante,
en la víspera de su muerte, acaecida 7 años
después de la de Einstein, hizo memoria, con
cariño, de su fallecido amigo y creador de la
teoría de la relatividad.

Einstein fue uno de los científicos más
decisivos en el desarrollo de la teoría cuántica;
no sólo porque su trabajo sobre el efecto
fotoeléctrico cobró vital importancia, sino porque
junto con el indio Bose, por ejemplo, comenzó la primera
teoría estadística en la que los gases
recibían un tratamiento puramente cuántico. Y es
que Einstein fue un gran físico estadístico, que
también aplicaría la estadística a sistemas
cuánticos para sentar las bases teóricas que
llevarían a la construcción del láser. Pero
el carácter probabilístico (o indeterminista) que
se había instaurando en la teoría cuántica
como consecuencia de la interpretación de Copenhague, le
llevó a expresar sus reticencias. Nunca aceptó que
una teoría que predijera que la posición de un
electrón en un instante dado no proporciona un resultado
único, sino sólo cierta probabilidad de encontrarlo
en determinado lugar y en determinado instante. Esto, para
él, no representaba una descripción de la
naturaleza aceptable, ni que una tal teoría
probabilística pudiera considerarse completa. Einstein,
que era determinista, no conseguía admitir que fuera
necesario renunciar a la certidumbre, por lo que solía
afirmar: "Dios no juega a los dados con el universo"; a lo cual,
Bohr le llegó a contestar: "Einstein, deje usted de
decirle a Dios lo que tiene que hacer con sus dados".

En la mecánica cuántica, muchos
teóricos se replantearon las bases epistemológicas
del proceso de medida (o de captación de datos) y
concluyeron que dicho proceso siempre tiene un efecto sobre el
objeto observado o medido, de forma que es inútil atribuir
propiedades a un sistema cuántico aislado:
instrumento de medida. Esto, más o menos, es lo que
nos venía a decir la "interpretación de
Copenhague".

La "complementariedad", o el hecho de que una medida
destruya en general todo conocimiento de alguna otra propiedad de
un sistema cuántico, y el "indeterminismo", fueron
tratados por Niels Bohr como aspectos fundamentales de la
naturaleza; además, no podemos atribuir propiedades al
objeto a menos que hayan sido medidas. Entonces, podríamos
preguntarnos cómo sabemos que existe un objeto
cuántico en ausencia de toda medida: la respuesta es,
según la interpretación de Copenhague, que no lo
sabemos.

Un sencillo ejemplo nos ayudará, pues, a entender
el "principio de complementariedad". Supongamos que queremos
medir la temperatura (obtención de un dato
termológico) de una masa de agua en reposo, la cual
está contenida en una piscina. Supongamos que utilizamos
un pequeño termómetro, cuya interacción con
el sistema acuoso (a medir) es despreciable; y supongamos, a su
vez, que obtenemos 15ºC. Es evidente que, en este caso, es
permisible ignorar la acción del termómetro sobre
el agua y considerar sólo la masa de agua como sistema a
medir, en independencia del termómetro. Éste
sería el caso de la medición de fenómenos en
el campo de la física macroscópica, o
clásica.

Sin embargo, al acercarnos a la física
microscópica, a la teoría cuántica, los
fenómenos a medir son igualmente microscópicos.
Sería algo similar a usar el termómetro del ejemplo
anterior para medir la temperatura de una masa de agua con un
volumen igual o menor al que ocupa el termómetro. Por
ejemplo, al tomar la temperatura del agua contenida en un
pequeño tubito de ensayo. Aquí, obviamente, no se
puede despreciar la acción térmica del
termómetro sobre el agua y habría que aplicar sin
falta el "principio de complementariedad". Sería necesario
considerar que el objeto a medir (agua) y el instrumento de
medida (termómetro) forman un solo sistema indisoluble,
desde el punto de vista métrico o de toma de
datos.

En este último caso, si antes de tomar la
temperatura del objeto, o antes de efectuar la
medición termológica de la
pequeña masa de agua, ésta tenía 20ºC,
bien pudiera suceder que, después de introducirle el
termómetro y estar éste a 10ºC, la
medición arroje un resultado de 14ºC (a causa de la
interacción térmica entre el agua y el
termómetro). Pues bien, algo parecido a esto es lo que
sucede a la hora de recabar datos experimentales en
mecánica cuántica, según la
interpretación de Copenhague.

Monografias.com

Ernest Solvay (1838-1922) fue un químico
industrial belga, autodidacta. Una enfermedad (pleuritis
tuberculosa) le impidió ir a la universidad, por lo que
comenzó a trabajar en la industria química de la
fábrica de su tío a la edad de 21 años.
Ideó varios métodos de purificación de
gases, pero se le conoce principalmente por el desarrollo de un
método para la producción de carbonato
sódico (sosa) que mejoraba considerablemente el existente.
Adquirió su primera patente para la producción de
sosa en 1861. En 1863 construyó su primera fábrica
en Couillet, donde terminó de perfeccionar su
método en 1872. En 1890 ya había fundado empresas
en diversos países extranjeros, y en 1900 el 95% de la
crecida producción mundial de sosa provenía del
proceso "Solvay". Hoy en día siguen operativas cerca de 70
fábricas que lo emplean. La sosa es un componente esencial
en numerosas aplicaciones industriales, como, por ejemplo, la
fabricación del vidrio, la metalurgia o la
fabricación de detergentes.

Este éxito le reportó a Solvay una riqueza
considerable, la cual usó para diversos propósitos
filántropos, incluyendo la fundación de varios
institutos internacionales de investigación
científica en fisiología (1893), sociología
(Universidad de Bruselas, 1902), física (1912) y
química (1913). Las conferencias sobre física de
Solvay eran particularmente reconocidas por su papel en el
desarrollo de las teorías de la mecánica
cuántica y la estructura atómica. Al mismo tiempo,
tomó iniciativas sociales, siendo un precursor del
reconocimiento de los derechos laborales en sus industrias, donde
inició un sistema de seguridad social inexistente en la
época: una pensión para los trabajadores desde
1899, limitaciones al horario de trabajo y jornada de 8 horas
desde 1908, la instauración de vacaciones pagadas desde
1913 y una especie de reciclaje profesional.

En 1911 fue el promotor de una importante conferencia
científica, el denominado Congreso Solvay, donde
estuvieron algunos de los físicos más importantes
de la época, como Albert Einstein, Ernest Rutherford, Max
Planck y Marie Curie, entre otros, todos ellos investigadores
vanguardistas de la radiación, la mecánica
cuántica y el modelo atómico. Después del
éxito de esta primera conferencia, se produjeron otras
cada tres años, en las que asistieron otros importantes
científicos como Niels Bohr y Werner Heisenberg, entre
muchos otros. La conferencia más importante de todas fue
la quinta, celebrada en 1927 en Bruselas.

En octubre de 1927 se efectuó el 5° Congreso
Solvay, en Bruselas, al que asistieron todos los elaboradores de
la teoría cuántica: Planck, Einstein, Bohr,
Heisenberg, Born, De Broglie, Schrödinger, Dirac y Pauli,
así como muchas de las grandes figuras de la física
de la época, como Madame Curie, Lorentz, Ehrenfest, W.L.
Bragg, Debye, Compton, etc. Aquí fue donde se
inició el gran debate, después que Einstein
señalara públicamente su objeción a la
teoría recién propuesta (la mecánica
cuántica no relativista, según la
interpretación de Copenhague); más aún,
fuera de las sesiones, el creador de la teoría de la
relatividad mantuvo continuas discusiones, especialmente con
Bohr, que mostraban su completa insatisfacción con la
teoría defendida por el grupo de Copenhague. Los
jóvenes físicos contestatarios no se esperaban esa
reacción en contra, pues acababan de ponerse de acuerdo
tras varios años de discusiones entre ellos mismos, y
ahora tenían la ilusión de que el congreso de
Bruselas les facilitara la oportunidad de exponer los resultados
de los que, en razón a su ardua tarea, se sentían
especialmente orgullosos. Suponían a priori que
habría alguna clase de resistencia por parte de Einstein,
pero confiaban en poder convencerlo. No obstante, la empresa se
les reveló mucho más difícil de lo previsto
y consecuentemente se sintieron un tanto decepcionados. Einstein
puso varias objeciones, y éstas les obligaron a refinar
sus razonamientos. Se cuenta que los argumentos que Einstein
presentaba contra la nueva teoría durante la cena eran
desbaratados a la mañana siguiente en el desayuno, por
Bohr, quien se había pasado toda la noche
reflexionando.

Monografias.com

El siguiente congreso Solvay fue organizado en 1930, y
allí Einstein discutió uno de sus famosos "gedanken
experiment" (experimento mental), con el que intentó
demostrar que es posible, en principio, violar las relaciones de
Heisenberg; pero al día siguiente, Bohr hizo ver que si se
toman en cuenta los efectos característicos de la
teoría general de la relatividad desaparecía tal
violación y se recuperaba la descripción
cuántica. A partir de ese momento, Einstein aceptó
expresamente la consistencia lógica de la mecánica
cuántica propuesta por el grupo de Copenhague, pero su
fino instinto le impedía ceder ante esta teoría
como si se tratara de una conclusión final, por lo que
repetidamente señalaba que la misma únicamente
recogía un pedazo de la verdad, y que estaba lejos de ser
una teoría completa o definitiva.

Monografias.com

La polémica continuó, pero cambió
de forma, pues Einstein pronto se vería obligado a
abandonar Alemania. En 1932, el Instituto de Estudios Avanzados
que se estaba creando en Princeton, New Jersey, EEUU, le
ofreció un puesto de profesor, para compartir su tiempo en
partes iguales entre Berlín y Princeton. Einstein
aceptó y en diciembre de ese mismo año
partió para su primera estancia en Princeton. Semanas
después, el 30 de enero de 1933, Hitler tomó el
poder en Alemania y Einstein jamás volvería a pisar
ese suelo. Su casa de verano, a las afueras de Berlín, fue
registrada por la policía nazi en busca de supuestas armas
del Partido Comunista. Entonces, para facilitar las cosas a sus
amistades alemanas, Einstein renunció a su puesto en la
Academia de Ciencias de Berlín.

Al terminar su estancia en Princeton, Einstein
regresó por algunos meses a Europa, donde los reyes
Alberto y Elizabeth de Bélgica, con quienes
estableció estrecha amistad a través de los
Congresos Solvay, le dieron hospedaje y protección.
Recibió invitaciones de las universidades de
Jerusalén, Leyden, Madrid, Oxford, París, etc.
Aún en el viaje, Einstein hizo pronunciamientos
políticos contra la guerra y por los intelectuales en
exilio, y se dio tiempo también para publicar un par de
trabajos científicos y dar conferencias. En breve
regresó a Princeton, y ya no volvió a salir del
país que en 1940 le otorgaría la plena
ciudadanía estadounidense. En Princeton, Einstein
inició una nueva vida, apacible y tranquila.

Allí instalado, y en colaboración con
Boris Podolsky y su joven asistente Nathan Rosen, publicó
un célebre trabajo en el que exponía la llamada
"paradoja EPR", por las iniciales de sus tres signatarios
(Einstein-Podolsky-Rosen). En dicho trabajo concluyó que
si se adopta un punto de vista objetivo, claramente definido
sobre la realidad física, entonces la mecánica
cuántica es una teoría física incompleta,
pues no puede contener todos los elementos de la realidad que son
de interés para la descripción del sistema. En el
artículo se demostraba que la física
cuántica exige que se pueda medir a distancia una
propiedad, tal como la polarización de un fotón,
por medio de medir la polarización de otro fotón
que haya interaccionado antes con él. Dado que es
inconcebible que esta medida pueda haber interferido con el
objeto distante, se deduce que el fotón debe haber
poseído la propiedad antes de que se realizase la medida.
Como la propiedad puede ser modificada por el experimentador,
regulando el aparato distante, el grupo EPR concluye que todas
las propiedades físicas tienen que ser reales antes de ser
medidas, en directa contradicción con la
interpretación de Copenhague.

Veamos más de cerca la "paradoja EPR" y sus
extrañas repercusiones posteriores, pero antes de eso
describamos brevemente qué es un "experimento mental". Se
trata de un recurso de la imaginación empleado para
investigar la naturaleza de las cosas, o un escenario
hipotético que nos ayuda a comprender cierto razonamiento
o algún aspecto de la realidad. En su acepción
más básica, se suele emplear este
método cotidianamente y con mucha frecuencia, como
cuando uno intenta dar un consejo a alguien con la
intención de ayudarle a actuar con sensatez.

Monografias.com

Existe, en la sagrada escritura, un pasaje que narra la
manera magistral en que Jesucristo corrigió una
situación de desenfoque existencial usando una
parábola (o ilustración), a modo de experimento
mental: «Entonces uno de la muchedumbre le dijo: "Maestro,
di a mi hermano que divida conmigo la herencia". Él le
dijo: "Hombre, ¿quién me nombró juez o
repartidor sobre vosotros?". Entonces les dijo: "Mantened
abiertos los ojos y guardaos de toda suerte de codicia, porque
hasta cuando uno tiene en abundancia, su vida no resulta de las
cosas que posee". ?Con eso les habló una
ilustración, y dijo: "El terreno de cierto hombre rico
produjo bien. Por consiguiente, él razonaba dentro de
sí, diciendo: "¿Qué haré, ya que no
tengo dónde recoger mis cosechas?". De modo que dijo:
"Haré esto: demoleré mis graneros y
edificaré otros mayores, y allí recogeré
todo mi grano y todas mis cosas buenas; ?y diré a mi alma:
"Alma, tienes muchas cosas buenas almacenadas para muchos
años; pásalo tranquila, come, bebe, goza"". Pero
Dios le dijo: "Irrazonable, esta noche exigen de ti tu alma.
Entonces, ¿quién ha de tener las cosas que
almacenaste?". Así pasa con el hombre que atesora para
sí, pero no es rico para con Dios" » (Evangelio de
Lucas, capítulo 12, versículos 13 a 21;
Traducción del Nuevo Mundo de las Santas Escrituras,
edición de 1987).

En lo que tiene que ver con la ciencia experimental, y
sobre todo con la física, el siglo XVII fue testigo de la
puesta en práctica de algunos experimentos mentales
más brillantes de toda la historia. A este tipo de
herramienta recurrieron Galileo, Descartes, Newton y Leibniz, con
notable éxito. Y en nuestros tiempos, el surgimiento de la
mecánica cuántica y la teoría de la
relatividad es casi impensable sin el papel crucial jugado por
los experimentos mentales. Pues bien, aquí, en este
contexto, es donde entra en juego la denominada "paradoja
EPR".

La paradoja de Einstein-Podolsky-Rosen, denominada
"Paradoja EPR", consiste en un experimento mental propuesto por
Albert Einstein, Boris Podolsky y Nathan Rosen en 1935. Es
relevante históricamente, pues no sólo pone de
manifiesto un problema aparente de la mecánica
cuántica no relativista, sino que en las décadas
siguientes se dedicaron múltiples esfuerzos a
desarrollarla y resolverla con resultados inverosímiles y
revolucionarios.

A partir de la formulación de la paradoja EPR, se
fue gestando el extraño concepto de "entrelazamiento
cuántico" como una propiedad predicha
implícitamente por dicha paradoja. El término
"entrelazamiento cuántico" fue introducido en 1935 por
Erwin Schrödinger, para describir un fenómeno de la
mecánica cuántica que se demuestra en los
experimentos, aunque inicialmente no se comprendió bien la
relevancia que éste llegaría a tener para la
física teórica. Un conjunto de "partículas
entrelazadas" no puede definirse como partículas
individuales, con estados definidos, sino sólo como un
sistema de partículas o entidad única con una
función de onda igualmente única para todo el
sistema.

En "entrelazamiento" es un fenómeno
cuántico, sin equivalente en la física
clásica, en el cual los estados cuánticos de dos o
más objetos se deben describir mediante un estado
único que involucra a todos los objetos del sistema,
aún cuando los objetos estén separados
espacialmente tanto como se quiera. Esto lleva a correlaciones
entre las propiedades físicas observables; por ejemplo, es
posible preparar (enlazar) dos partículas en un solo
estado cuántico de espín nulo, de forma que cuando
se observe que una gira hacia arriba, la otra
automáticamente recibirá una "señal" y se
mostrará como girando hacia abajo, pese a la imposibilidad
de predecir, según los postulados de la mecánica
cuántica, qué estado cuántico se
observará.

Esas fuertes correlaciones cuánticas hacen que
las medidas realizadas sobre un sistema parezcan estar influyendo
instantáneamente en otros sistemas que están
enlazados con él, y sugieren que alguna influencia se
tendría que estar propagando instantáneamente entre
los sistemas, a pesar de la separación (eventualmente
astronómica) entre ellos. No obstante, esto
propiciaría que se pudiera transmitir información a
una velocidad superior a la de la luz, mediante el
entrelazamiento, violando así el principio relativista
plenamente aceptado de que no se puede transmitir ninguna
información útil a más velocidad que la de
la luz. Además, sólo es posible la
transmisión de información usando un conjunto de
estados entrelazados en conjugación con un canal de
información clásico, también llamado
"teleportación cuántica"; mas, por necesitar de ese
canal clásico, la información útil no
podría superar la velocidad de la luz. Ciertamente, un
callejón sin salida aparente, es decir, una paradoja en
toda regla.

Monografias.com

Después de propuesta públicamente la
paradoja por el grupo EPR, Bohr se sintió obligado a
responder, pues la paradoja venía adornada con una especie
de aureola en forma de reto, o una embestida teórica, que,
en palabras de León Rosenfeld, colaborador de Bohr: "fue
un ataque violento que cayó sobre nosotros como una
sorpresa desagradable". Entonces, echando a un lado las
investigaciones sobre física nuclear que lo ocupaban, Bohr
elaboró una larga y detallada respuesta, encaminada a
mostrar que el punto de vista sobre la realidad física
defendido por EPR era inaceptable desde el enfoque de la
mecánica cuántica. El punto clave de la
réplica estaba en que, en el ejemplo propuesto por el
grupo EPR, el sistema cuántico está formado por dos
fotones que no deben ser considerados como entidades separadas
hasta después de que se haya hecho una medida para
separarlos. Y aquí tenemos la idea central de la
interpretación de Copenhague: Se puede considerar real a
una cantidad sólo si ha sido medida o si está en el
contexto de una medida en donde se puede predecir el resultado
del experimento; y de ello se sigue que es posible cambiar las
propiedades reales de un sistema cuántico si el
experimentador reajusta su aparato.

Einstein reaccionó a la respuesta de Bohr
diciendo que su posición era lógicamente posible,
pero "tan contraria a mi instinto científico que no puedo
abandonar la búsqueda de una concepción más
completa". Hasta finales del siglo XX, esa concepción
buscada por Einstein no fue hallada y había que utilizar
la interpretación de Copenhague como la mejor propuesta.
Sin embargo, resulta que esta aceptación condujo a otro
problema mayor, cuyas implicaciones conceptuales y
filosóficas rebasaban con mucho lo discutido hasta el
momento. Se trata de denominado "problema de la medida", que
puede ilustrarse de manera bastante gráfica por medio del
experimento mental conocido como "el gato de Schrödinger":
este científico austriaco ejemplificó de manera
elocuente los problemas que se plantean al considerar los efectos
de la medida en un sistema cuántico basado en la
interpretación dominante o de Copenhague.

La situación, o experimento mental, que se expone
en la paradoja del "gato de Schrödinger"es la siguiente. En
el interior de una caja tenemos una fuente de luz, un
polarizador, un detector, un revólver cargado (o
algún otro dispositivo letal) y un gato. La aguja del
detector, que nos dice el estado de polarización del
fotón, estará conectada al gatillo del
revólver de tal modo que si detecta un fotón
polarizado según la vertical el revólver
disparará y matará al gato, pero si el fotón
lo está según la horizontal el gato seguirá
vivo. ¿Qué puede decir acerca del resultado un
observador que esté fuera de la caja y que acepte la
interpretación de Copenhague? Cabe presumir que no puede
sacar ninguna conclusión relativa al estado del sistema
hasta que éste haya sido medido, cosa que ocurre, por lo
que a él se refiere, cuando la caja ha sido abierta y se
ha observado el estado del gato (muerto o vivo). Es más,
concluirá que, hasta que esta observación haya sido
realizada, el gato estará en un estado de mezcla, ni vivo
ni muerto. Esto puede parecer demasiado extraño, e incluso
ridículo, para ser tomado en serio; pero la verdad es que
el "entrelazamiento cuántico" que explica este
fenómeno es la base de algunas aplicaciones punteras que
se están desarrollando actualmente, como la
criptografía y la computación cuántica, e
incluso la teleportación.

Monografias.com

Algunas posibles soluciones planteadas a este dilema
provienen de mentes que se consideran lúcidas y, al mismo
tiempo, científicas. Por ejemplo, tenemos la
"hipótesis de la consciencia", que señala que el
problema de la medida se plantea cuando intentamos tratar el
aparato de medida como un sistema cuántico, pues
necesitaremos más aparatos para medir el estado en el que
se encuentra el primero y así obtendremos una cadena de
medidas que parece continuar hasta el infinito. Hay, sin embargo,
un punto en el que sin duda termina esta aparente secuencia
infinita y éste es el instante en que la
información llega a nosotros. Podría argumentarse
que los seres humanos deberían ser vistos como el
último instrumento de medida, y si es así entonces
cabe preguntarse: ¿cuál es el elemento propio de
los seres humanos que les da esa potestad, en apariencia
única? Un poco de reflexión nos llevaría a
pensar que la consciencia humana es el único rasgo
diferente a todas las demás cosas que hay en el universo.
Una teoría cuántica basada en la consciencia
diría, en resumen, que la elección de los estados
posibles de un sistema cuántico y su aparato de medida
asociado no tiene lugar hasta que la información haya
llegado a un observador consciente. Por lo visto, fue Eugene
Wigner (físico y matemático húngaro, que
recibió el Premio Nobel en el año 1963) el primero
que destacó el papel de la conciencia en el problema de la
medida.

Otro ejemplo lo provee la "hipótesis del
multiverso cuántico", sugerida por Hugo Everett en
1957.

La conjetura propone que siempre que tiene lugar una
medida cuántica, el universo se ramifica en tantas
componentes como resultados posibles tenga la medida. Cada uno de
los individuos que practican las mediciones, en su rama
particular, piensa que el resultado de su medida es singular y
que su universo concreto es el único que existe, pero se
equivoca. Esta explicación posee un atractivo
matemático que la ha hecho apetecible a muchos
científicos profesionales. Sin embargo, esta
hipótesis, así como la anterior y otras, presentan,
todas ellas, ciertos puntos débiles y por lo tanto no
terminan de resolver el "problema de la medida".

El concepto de "entidades extensas no localizadas", de
la teoría cuántica de campos, permite resolver
muchas de las paradojas de la física cuántica
primitiva (no relativista). Esto señala hacia la
dirección correcta, puesto que la resolución de
paradojas siempre ha sido un indicador de confianza en cuanto al
sendero que debe tomarse para adquirir un conocimiento de la
realidad más certero y exacto. En el "experimento de la
doble rendija", la teoría cuántica de campos asume
que el campo electromagnético se extiende a lo largo de
todo el camino a recorrer, así que la fuente emisora "no
crea" un nuevo campo sino que "perturba el campo ya existente",
produciendo una "excitación" que se desplaza siguiendo los
criterios de la Relatividad. Por esto el campo ya "tiene
información" de todo el trayecto, o ya "sabe" si la
rendija está abierta o no; y, por supuesto, la
perturbación pasa por ambas rendijas ya que el campo es un
objeto extenso. En cada punto del espacio hay una probabilidad de
detectar la "perturbación" del campo, la "energía
de la excitación" del campo (la "partícula")
interacciona con las moléculas del detector o de la
pantalla con cierta "probabilidad" y la energía detectada
siempre es un múltiplo de "h·v", ya que la
energía del campo es discontinua.

Solo en términos de "campos" puede entenderse el
"vacío cuántico": en éste no hay
"partículas", sino que únicamente existe el "campo"
en su estado "mínimo de energía". También en
términos de "campos" parece poder explicarse bien el
"entrelazamiento cuántico": los "fotones entrelazados" son
la misma perturbación del campo que se desplaza en
direcciones opuestas, por lo que al medir una "excitación"
se encuentra una "correlación" en la otra (por ejemplo, de
espines opuestos). La "resolución de las paradojas" tiene
el coste de asumir la existencia de entidades físicas que
permean todo el espacio. Por supuesto, estas entidades
cuánticas no tienen nada que ver con el éter y sus
cualidades "mecánicas". Sin embargo, si pensamos que el
espacio, sea lo que sea, tiene que consistir en algo
físico, es decir, algo provisto de energía (el cual
puede curvarse cuando hay más energía
próxima) y que dicha energía está
constituida por los "campos cuánticos", entonces
éstos parecen más fáciles de asimilar por
nuestras mentes (acostumbradas a tratar con objetos
"materiales").

Monografias.com

La teoría cuántica de campos
contempla la posibilidad de asirse de una teoría unificada
de campos cuánticos, o sea, alcanzar el sueño
dorado de Einstein: lograr que todos los campos se unifiquen en
uno solo (la teoría del campo único o unificado).
Algunos teóricos presuponen que ése será el
final, la última frontera, la cual conducirá a una
"teoría cuántica de la gravedad" y al entendimiento
de la naturaleza del "espacio-tiempo". Pero lo más
probable es que no haya una última frontera, incluso si se
alcanzara ese difícil objetivo teórico que
podríamos denominar "la física del campo
único".

Misticismo
cuántico

Se atribuye a Pasteur (1822-1895) la siguiente frase:
"Un poco de ciencia nos aparta de Dios. Mucha ciencia, nos
aproxima a Él" (ver monografía G029:
Generación espontánea; página 18, nota). Al
parecer, la idea que transmiten esas palabras tiene que ver con
las conjeturas y las especulaciones que se suscitan en la mente
del ser humano cuando trata de explicar los fenómenos
naturales. Habitualmente, las hipótesis iniciales se
tornan enormemente fantasiosas y peregrinas y esto conduce en
poco tiempo a la aparición de paradojas; pero a medida que
avanza el conocimiento, sucede que la realidad lucha por
imponerse, los conceptos cambian o se refinan, se resuelven
algunas paradojas y las conjeturas iniciales van quedando
diezmadas o descalificadas en su gran mayoría. La historia
de la Ciencia es básicamente una lucha tenaz y sin final
contra la apariencia engañosa de las cosas, es decir,
contra las conjeturas e hipótesis que se asumen en un
momento dado pero que son incapaces de resolver ciertas
paradojas. Por su parte, las paradojas equivalen a
síntomas o señales que nos indican que una
determinada teoría flaquea en sus fundamentos y
consecuentemente debe ser superada.

Aceptar que el universo está hecho de "campos" y
no de "partículas" es un avance muy importante que ha
permitido dar a luz la "teoría cuántica de campos"
y que sirve para entender los problemas y "paradojas" asociados a
la concepción antigua de la mecánica
cuántica, esto es, a la vieja mecánica
cuántica no relativista, en la figuró como
protagonista la interpretación de Copenhague. Desde la
nueva óptica teórica, parece poder resolverse todo
lo que concierne a la "dualidad onda-partícula", el
"problema de la medida", el "colapso de la función de
onda", la "no localidad" y muchas otras paradojas.

Si la "teoría cuántica de campos"
alcanzara a pincelar el sueño dorado de Einstein, esto es,
a trazar el plano arquitectónico de la hasta ahora
hipótesis del "campo unificado", probablemente
conseguiría eliminar al mismo tiempo toda una serie de
ideas místicas que se han desarrollado a la sombra de las
paradojas de la mecánica cuántica no relativista y
que han emigrado y persistido incluso en la mecánica
cuántica relativista. Semejante misticismo colisiona
contra la esencia criteriológica que rezuma de la sagrada
escritura, la Biblia, por lo que para el creyente bien versado en
la claves conceptuales bíblicas (es decir, en los
principios y asertos que se desprenden de la información
codificada en el texto bíblico) tal enfoque místico
queda descalificado a priori. El creyente documentado
fehacientemente se mantendrá a la expectativa y
esperará a que avance la Ciencia para que ésta
confirme, por sí misma y a posteriori, dicha
descalificación, y lo haga de manera contundente.
Aquí es donde se vuelve a desempolvar, con toda su fuerza,
la presunta frase de Pasteur citada anteriormente.

Monografias.com

Resultaría conveniente ahora, citar, al menos en
parte, del artículo titulado "Misticismo cuántico",
de Rafael Andrés Alemán Berenguer (Licenciado en
Bioquímica por la Universidad de Valencia y en
Física Fundamental por la UNED, Diplomado en Estudios
Avanzados por la Universidad Miguel Hernández, actualmente
investigador colaborador y doctorando en el departamento de
Ciencia de Materiales, Óptica y Tecnología
Electrónica de la Universidad de Elche, así como
colaborador honorífico y doctorando en el grupo de
astronomía y astrofísica del Departamento de
Física, Ingeniería de Sistemas y Teoría de
la Señal del Instituto Universitario de Física
Aplicada a las Ciencias y a la Tecnología; autor de
diversos artículos y libros de divulgación
científica que gozan de muy buena acogida entre el
público serio, tales como: Relatividad para todos,
Física para todos, Evolución o diseño,
Ciencia y apocalipsis, etc.), publicado por la Agrupación
Astronómica de Alicante (España).

Siguiendo al profesor Berenguer, tenemos que la
revolución conceptual que supuso la teoría de la
relatividad caló hondo y con una rapidez inusitada entre
amplios sectores del público no especializado. Tan curioso
efecto se debió en gran parte a la subyugante personalidad
de su autor, a su magnífica habilidad para exponer de
forma atractiva los postulados de la teoría, y a otras
circunstancias sociales e históricas que allanaron su
camino. Esto no quiere decir que un individuo común y
corriente de la sociedad de la época, ni de la actual,
tuviese plena conciencia de las implicaciones científicas
y filosóficas de la relatividad, pero sí se produjo
en el ambiente público una difusa sensación de que
la obra de Einstein había cambiado radicalmente la antigua
concepción humana del universo.

Sin embargo, no ocurrió lo mismo con el
nacimiento de la Teoría Cuántica, la cual
pasó desapercibida para el gran público,
haciéndose acreedora del calificativo de
"revolución silenciosa". Los resultados de la
física cuántica, no obstante, son por lo menos tan
estremecedores como los de la relativista, aunque las tremendas
complejidades formales de la teoría, unidas a la
disparidad de interpretaciones acerca de la misma, han
contribuido a mantenerla en la penumbra del escenario cultural a
lo largo de casi todo el siglo XX. Ahora bien, la
confirmación de algunas de sus consecuencias más
controvertidas y el aluvión subsiguiente de opiniones
sobre su correcta interpretación, han propiciado que en el
último cuarto del siglo pasado la divulgación de la
física cuántica viniese mezclada indebidamente con
dudosas hipótesis parapsicológicas y una
mística orientalista de nuevo cuño.

El exceso de misticismo que ha impregnado a la inmensa
mayoría de las vulgarizaciones de la física
cuántica deriva, en buena parte, del extravío de
los filósofos por carencia de conocimientos físicos
aceptables, a la vez que los físicos se han visto
descarriados por una mala filosofía o metaciencia (vale
decir: metafísica). Toda la extrañeza del mundo
cuántico y sus implicaciones esotéricas giran en
torno a la aparente capacidad del observador para influir sobre
la realidad exterior y al hecho de que esa influencia sea
independiente de la distancia (el "problema de la medida"). En
efecto, si las partículas elementales se encuentran en una
situación indefinida entre varios estados posibles hasta
que una medición las saca de ella, diríase que el
observador, a través de su acto de medida, influye
decisivamente sobre la realidad externa. Parecería, pues,
que no existe una realidad objetiva al margen de nuestras
mediciones y que esta eventualidad abre la puerta a un universo
de asombrosas paradojas en el que los fenómenos
parapsicológicos serían moneda corriente, e incluso
una mera banalidad (es decir, nada sobrenatural).

Frente a las intrincadas cuestiones suscitadas por el
problema de la medición cuántica, han florecido
distintas escuelas de pensamiento, cada una de ellas con su
propia respuesta particular. Se adscriben al "idealismo
cuántico" los que creen que el observador humano, en
virtud de una facultad trascendente (conciencia, espíritu
o algo así), determina la posibilidad que se
materializará en la medición. Los "realistas
cuánticos", o "materialistas cuánticos", sostienen
que la realidad existe independientemente de que la observemos o
no. La "interpretación de Copenhague", que todavía
colea, aspira a situarse en una postura intermedia, según
la cual lo único verdaderamente relevante es lo que
podemos conocer por medio de nuestras medidas. En pocas palabras,
éstas son, las líneas de pensamiento que con mayor
o menor acierto han intentado dotar de significado a las
ecuaciones de la teoría cuántica no relativista, y
en ellas, por tanto, se han apoyado (y siguen apoyándose)
los parapsicólogos y esoteristas, dispuestos a esgrimir
los descubrimientos de la nueva física (actualmente no tan
nueva) en defensa de sus respectivos credos.

Monografias.com

Es lícito, pues, plantearse si los autores que
tan alegremente la manejan entienden cabalmente los entresijos de
una construcción teórica tan profunda y compleja
como es la física cuántica. Tal vez porque la
respuesta es negativa, el mérito de haberse anticipado a
ella ha sido recabado para Platón, Buda, Lao-Tse, Hegel,
el obispo Berkley y el conde de Saint-Germain, sin que los
auténticos expertos encuentren razón alguna que
avale semejantes pretensiones. Esto no ha impedido que un
reducido número de científicos —algunos de
ellos de cierto renombre— hayan decidido internarse por la
engañosa senda de lo paranormal confiando en que la nueva
física aportará luz suficiente para desenredar
cualquier confusión. Uno de ellos fue el físico
francés Olivier Costa de Beauregard (1911-2007), para
quien la combinación de mecánica cuántica y
relatividad constituirá la panacea universal capaz de
aportar explicación a la totalidad de los fenómenos
parapsicológicos. El propio Costa participó en un
debate sobre los resultados de los experimentos de Alain Aspect
(1947-) respecto al entrelazamiento cuántico, proponiendo
la existencia de partículas facultadas para remontar el
tiempo y establecer las correlaciones observadas en dichas
experiencias (huelga resaltar la gélida acogida que
recibió esta hipótesis en el ámbito
académico). Escribió un libro titulado "La physique
moderne et les pouvoirs de l'esprit" (la física moderna y
los poderes de la mente) en donde hace una firme defensa del
"tú puedes", afirmando que la física
cuántica es controlable por la mente y de que ésta
podría permitir seleccionar aquellos sucesos más
favorables o extraordinarios a favor nuestro.

La actividad divulgadora de Beauregard ha encontrado
cuantiosos ecos, cada vez más altisonantes, en medio de
una sociedad occidental carente de valores trascendentes y
prisionera de un materialismo marchito. En este clima de
hastío pragmático general y de resurgimiento
espiritualista en determinados foros, merced a la
interpretación mística del problema cuántico
de la medida, aparecen personas "iluminadas", no necesariamente
malintencionadas, que tienen mucho que ofrecer a una
población vacía en cuanto a motivaciones idealistas
y significado existencial.

Por ejemplo, la doctora Michelle Nielsen, canadiense y
ciudadana internacional que vive en Barcelona (España),
lleva más de 20 años ejerciendo su pasión de
estudiar métodos para optimizar el potencial humano y su
sanación. Después de 18 años trabajando como
quiropráctica, ha estado en diferentes países
ayudando a muchas personas a tratar de encontrar su verdadero
potencial. Ha editado un libro que ha conseguido millones de
ventas, a saber, "Los 10 pasos para atraer y manifestar la
realidad que deseas. El método Creando a Matisse". En este
libro encontramos 10 supuestos pasos prácticos y simples
para intentar ayudar a las personas a conseguir todas sus metas
usando la mente, el cuerpo y el espíritu. La doctora
Nielsen es muy querida y respetada, tanto nacional como
internacionalmente, y ha colaborado en diferentes
artículos de investigación publicados en diferentes
medios.

Da la impresión de ser una persona bastante
altruista y completamente convencida de lo que predica. Su gran
fuerza persuasiva parece provenir de su pleno convencimiento
interior, así como de los resultados sorprendentes que
afirma haber obtenido. Mediante su libro "Los 10 pasos… Creando
a Matisse", así como a través de toda su
acción docente, sostiene que es posible crear la realidad
con nuestra propia mente apoyándonos en la "ley
cuántica", de tal manera que si creemos algo con fuerza
podremos constatar que se realiza ante nuestros ojos (el problema
de la medida, sublimado y llevado al terreno de
mundo occidental (ciencia, materialismo, industria,
economía) y el oriental (espiritualidad, arte,
creatividad, naturaleza), y esto se correlaciona con los
hemisferios cerebrales derecho (creer para ver: pensamiento
orientalista) e izquierdo (ver para creer: pensamiento
occidentalista).

Monografias.com

También, en la misma línea, se introduce
la noción de "maestros manifestadores" o personas capaces
de transformar sus visiones y sueños en una realidad sin
un esfuerzo aparente, al haber desarrollado todo su potencial
cerebral de una manera genial. Como ejemplos de tales genios se
cita a Bill Gates, Leonardo Da Vinci, Miguel Ángel
(Michelangelo), Beethoven, Madonna, Pau Casals, Madre Teresa de
Calcula, Nelson Mandela, Gandhi, etc. Se sugieren métodos
de meditación, visualización, hipnosis, ensayo
mental y afirmación para conseguir el desarrollo de todo
el potencial cerebral. Por otra parte, se expone que no existen
límites a toda esa supuesta potencialidad cerebral que se
puede desarrollar, vertiéndola hacia mejorar la salud,
aumentar la bonanza financiera, lograr éxito en el amor y
la amistad, sanar el planeta, eliminar el hambre mundial y traer
la paz.

Otros autores que abundan en este tipo de misticismo son
Félix Torán, doctor en Ingeniería e
ingeniero de la Agencia Espacial Europea, que en 2011
publicó el libro "Mente Cuántica Un proyecto hacia
la felicidad" (cuyo índice contiene lo siguiente:
¿qué es la física cuántica?, lo que
no es, todo es energía y todo es vibración, la
dualidad onda-corpúsculo, el problema de la medida, el
principio de superposición, otros asombrosos
fenómenos, el vacío está muy lleno,
dé ahora el salto cuántico hacia el éxito),
el doctor Frank Kinslow, con su libro "La curación
cuántica: un sistema rápido, sencillo y eficaz para
eliminar cualquier dolor físico o emocional", y el
británico Brian Josephson (premio Nobel de física
en 1973, a los 33 años de edad, quien no vacila en
proclamar su creencia en el "cuerpo astral" del ocultismo
tradicional, y lo entiende como un envoltorio etérico que
duplica nuestro cuerpo carnal fuera del espacio y del tiempo,
siendo éste el responsable de los presuntos
fenómenos extrasensoriales). Añadamos los nombres
de Jack Sarfatti, Russel Targ y Harold Puthoff, quienes se han
distinguido públicamente por hacer una defensa de
fundamentos mediocres sobre poderes mentales diversos.
Etcétera.

Junto a la reivindicación de lo
parapsicológico, cosa perfectamente comprensible a causa
del ingente arsenal de fenómenos inexplicables que han
sido miopemente ignorados por la dominante ciencia materialista,
asistimos al rebrote de una visión del mundo de tipo
ocultista. Se trata de una nueva manifestación del
misticismo esotérico, que busca cobijarse a la sombra de
los modernos hallazgos de la física teórica,
proclamando desde algunos foros que el esoterismo y la
mística han sido refrendados por los últimos
avances de la ciencia. Esta mística moderna no se ha
privado de presentar los descubrimientos de la mecánica
cuántica no relativista (e incluso relativista) como
éxitos a anotar en la cuenta de sus propias creencias,
solicitando que los postulados y explicaciones del misticismo
sean aceptados como solución plausible a las paradojas
cuánticas.

Partes: 1, 2, 3, 4
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter