Monografias.com > Sin categoría
Descargar Imprimir Comentar Ver trabajos relacionados

¿Física qué…?…Cuántica (página 3)




Enviado por eduardoy



Partes: 1, 2, 3, 4

Los físicos también sabían
que la radiación
u ondas
electromagnéticas- las ondas infrarrojas que irradian
calor son una
clase de
estas- transportan energía.

Imaginemos ahora una caja vacía de cierto
material a la que se calienta hasta una determinada temperatura,
el material tendrá la misma temperatura que el interior de
la caja dado que se está manteniendo un estado de
equilibrio. Es
decir la energía del material que compone la caja
está en equilibrio con la energía en el interior de
la caja, recordemos aquí que la energía en el
material se encuentra en el movimiento de
los átomos, mientras que la energía dentro de la
caja vacía se encuentra en las ondas
electromagnéticas internas. Si existiera mayor cantidad de
energía en las paredes, esta se transmitiría al
interior incrementando la intensidad de radiación
electromagnética dentro de la caja, lo inverso
también sería cierto. El equilibrio
energético significa que la caja material y las ondas en
el interior deben tener una cantidad de energía
comparable, la cual estará caracterizada por la misma
temperatura.

El problema era este: a pesar de que los
físicos sabían como calcular la energía
portada por una onda electromagnética, no podían
deducir como calcular una temperatura que tuviera significado
para la mezcla de ondas electromagnéticas que llenaban la
caja. ¿Por qué?. Esto es lo que les pasaba; en
primer lugar deducían que las ondas
electromagnéticas en el interior de la caja no
podrían tener cualquier longitud de onda. Veamos esto con
una analogía musical.

Tal como ocurre cuando vibra la cuerda de un
violín o una guitarra, la onda tiene que entrar en el
espacio en el cual esta vibrando, la onda abarca toda la cuerda.
La frecuencia espacial más baja en la cuerda del
violín se da con la longitud de onda mas larga. Imaginemos
que estiramos la cuerda hacia arriba, entonces se
producirá un movimiento en toda su longitud hacia ambos
lados, mientras que los extremos están fijos, tendremos
media longitud de onda en la longitud de la cuerda. La frecuencia
espacial siguiente ocurre cuando la cuerda forma dos medias
longitudes de onda (es lo mismo que una entera) que abarcan la
totalidad de la cuerda, esto es una mitad se mueve hacia un lado
y la otra mitad hacia el otro, permaneciendo los extremos fijos y
un punto o nodo en el medio también sin desplazarse de su
posición de equilibrio. Así siguiendo, podemos
tener frecuencias mas alta con dos longitudes de onda, tres,
cuatro, cinco, etc.

En forma similar, las ondas
electromagnéticas en la caja, comenzaran vibrando con
frecuencias espaciales bajas y para luego ir en aumento, siempre
con la misma restricción de que deben entrar en el espacio
de la caja longitudes de onda tales que los extremos de la caja
sean nodos de dichas ondas. Así tendremos longitudes
enteras o fracciones de a mitades, 1/2, 3/2, 5/2, etc. enteras,
con los puntos límites de
la caja como fijos, y los nodos intermedios también fijos.
Cada nodo es aquel punto donde no hay desplazamiento de la onda
respecto de su posición de equilibrio.

Sabemos por la teoría
de las ondas electromagnéticas, que cualquier onda es
portadora de energía, la cual es proporcional a la
frecuencia y a la amplitud de la onda.

Concentrémonos ahora en el núcleo
del problema ¿Cuántas ondas pueden entrar en la
caja? Si bien las mismas tienen la restricción que se
mencionó antes, nada impide que haya millones de ondas, a
partir de lo que los músicos denominan el tono fundamental
que es la de mas baja frecuencia; desde esta hacia arriba tenemos
un infinito número de ondas o armónicas, Esto
significa que dentro de la caja tendríamos infinitas ondas
todas ellas portando una porción de la energía
total; y aquí estaba el problema. En la parte material de
la caja o cuerpo negro, la energía calórica es
equivalente al movimiento de los átomos que componen el
cuerpo, los cuales son muchos pero un número finito. De
esta manera una cantidad fija de energía está
repartida entre todos estos átomos; algunos se
moverán mas rápidamente otros mas lentamente, pero
existirá o se podrá calcular un promedio por
átomo,
y este promedio es el que define la temperatura de la caja o
cuerpo. Si le entregamos mas energía, habrá mas
para compartir entre los átomos, por lo que en promedio
estos se moverán mas rápidamente y por lo tanto la
temperatura del cuerpo aumentará.

Pero este razonamiento simple no puede
trasladarse al interior de la caja, a la zona de las ondas
electromagnéticas dado que aquí hay un
número infinito de ellas. ¿Cómo puede
dividirse una cantidad finita de energía entre una
cantidad infinita de portadores de dicha energía? Al no
saber como resolver esto tampoco se podía entonces
calcular un valor para la
temperatura que tuviera sentido, considerando que esta es una
medida de la energía promedio por onda. Básicamente
al haber infinitas ondas, la sumatoria de la energía que
estas lleven también debería ser infinita, el
cuerpo debería irradiar estas ondas de altísima
frecuencia mas allá de la radiación ultravioleta,
dado que son estas ondas del espectro las portadoras de mayor
cantidad de energía, cosa que los físicos
experimentales comprobaban que no ocurría. Por esta
razón a este problema se lo conocía también
como la catástrofe ultravioleta. Experimentos
realizados calentando objetos con espacios internos
vacíos, a los que se les practicaba un pequeño
orificio, permitían observar el tipo de radiaciones- ondas
electromagnéticas que había en el interior del
cuerpo -. A medida que se aumentaba la temperatura, la luz irradiada
pasaba desde un anaranjado, hacia el rojo, amarillo, azul. Este
ascenso a través del espectro luminoso demostraba
simplemente un ascenso de la frecuencia de las ondas
electromagnéticas. La naturaleza
dividía la energía de manera tal que a una
temperatura determinada, el grueso de la energía se
concentra en ondas de frecuencias proporcionales a la
temperatura. Por eso decimos que una llama azul es mas caliente
que una llama anaranjada. Fue Planck quien encontró la
salida a este dilema de la física
teórica. El se preguntó lo siguiente:
¿Qué pasaría si cada onda
electromagnética, no pudiera portar cualquier cantidad
arbitraria de energía sino que sólo pudiera
transportar energía por encima de un mínimo? Ese
mínimo también dijo, debería ser
proporcional a la frecuencia de la onda. Esto significará
que para ondas electromagnéticas de alta frecuencia, este
mínimo sería muy grande; por lo que si por este
hecho de ser tan grande, superara la cantidad de energía
disponible en el experimento del cuerpo negro, las ondas de alta
frecuencia directamente no aparecerán.

Planck dijo que cada onda electromagnética
puede portar energía solo en múltiplos de un valor
mínimo o básico, o sea que la energía en una
onda electromagnética es un número entero
multiplicado por este básico, que es el denominado cuanto
de energía, de allí la denominación de esta
física como cuántica. El valor del cuanto resulta
de multiplicar a la frecuencia de la onda por una constante muy
pequeña denominada constante de Planck: E = h*(.

¿Cómo es que se resolvía el
problema de la radiación del cuerpo negro o la
catástrofe ultravioleta? Simplemente porque como dijimos
antes, para las ondas de alta frecuencia el mínimo
básico de energía o cuanto es tan grande que excede
la cantidad total de energía en la caja, por eso nunca
aparecen. Mientras que las de frecuencia baja, al ser poca
cantidad, en conjunto no portan mucha energía, por lo que
el grueso de la energía se concentrará en un
conjunto de ondas de frecuencias intermedias, de allí que
el color de la
radiación será uno que predomina, y a medida que
hay mas energía para compartir, harán entrada ondas
de mayores frecuencias, por eso el color se va corriendo hacia el
azul (ondas de mayor frecuencia) cuando aumenta la temperatura de
calentamiento (la entrega de energía). Lo que Planck logra
con este concepto de
cuantizar la cantidad de energía y no permitir menos de
ese mínimo, es que el número de ondas dentro de la
caja ahora se transforme en una cantidad finita,
pudiéndose así dividir la energía total
entre un número finito de ondas, siendo la temperatura de
la radiación, una medida con sentido de esta
energía promedio por onda. La idea de Planck de crear una
unidad de energía mínima, un cuanto o paquete de
energía era un concepto totalmente novedoso en la
física que hasta ese momento solo hablaba de valores
continuos. Así nace el fotón, como una
partícula de luz.

  • Efecto fotoeléctrico y los
    fotones:
    El significado de la solución muy
    ingeniosa que aportó Planck, era controvertido. Planck
    mismo no quería creer que la radiación
    electromagnética estuviera restringida de esta manera
    que el proponía, y esperaba poder
    encontrar algo dentro de la física clásica que
    no hubiera sido analizado a fondo, que le permitiera explicar
    porqué las ondas debían transportar
    energía solo en cantidades discretas, múltiplos
    de un mínimo. A Planck no le gustaban las implicancias
    de lo que él mismo había lanzado,
    poniéndolo en perspectiva de hoy, Planck no
    consideraba que hubiera abierto la puerta a una nueva
    física, totalmente revolucionaria. El nunca le
    atribuyó a estos pequeños paquetes de
    energía una significación que fuera mas
    allá de un artificio matemático, es decir para
    él los cuantos no tenían una
    significación física genuina.

Desde un punto de vista filosófico los
físicos podían discutir eternamente acerca de los
fotones, ¿eran reales? o ¿eran construcciones
matemáticas que escondían
algún principio físico desconocido?. A medida que
el tiempo
transcurría, comenzó a ser aparente que los
resultados de ciertos experimentos, eran mas fácilmente
entendidos si se partía de la premisa que los fotones eran
una entidad física genuina, es decir reales. El primero de
estos fenómenos es el denominado efecto
fotoeléctrico. Ciertos materiales
emiten electrones cuando son iluminados por una luz. La
razón por la que los metales conducen
electricidad,
es que algunos de los electrones más superficiales del
elemento químico componente están libres de moverse
a través de todo el material conductor, saltando desde un
átomo hacia otro del metal conductor. Es un hecho ya
establecido que los electrones en los llamados metales –
que son conductores- no están firmemente ligados como lo
están en otras substancias. Por lo tanto si arrojamos
energía de una forma u otra, a un metal podríamos
golpear electrones y sacarlos, pero existen un par de detalles
del efecto fotoeléctrico que elude explicaciones
sencillas. Los físicos experimentales habían
descubierto que para poder liberar electrones de la superficie de
un metal específico, la luz que le "llueve" sobre la misma
debía tener una frecuencia mínima, la cual
dependía del metal en cuestión. Esto significa que
para liberar electrones del sodio se necesita luz verde, mientras
que para liberar electrones del cobre o el
aluminio se
necesita una luz con mayor energía como la ultravioleta,
que es de mayor frecuencia. No solo esto, se detectó
también que una vez que comenzaba la liberación de
electrones, al aumentar la intensidad de la luz, se incrementa la
cantidad de electrones liberados pero no

La energía de los mismos; mientras que si
se aumenta la frecuencia de la luz, pero no su intensidad, conque
se irradia el metal, se continúan liberando la misma
cantidad de electrones en el tiempo pero con una energía
en cada uno de ellos superior a la de la situación
anterior. Estos hechos eran difíciles de entender usando
la teoría ondulatoria de la luz, en la cual la
energía que porta una onda es un producto de su
frecuencia y su intensidad: así radiaciones de baja
frecuencia y alta intensidad serían similares en
términos de energía entregada a la superficie del
metal en el efecto fotoeléctrico que si lo
irradiáramos con radiación de alta frecuencia y
baja intensidad. Es decir no habría una explicación
razonable desde el punto de vista de la teoría
ondulatoria, porqué la frecuencia y la intensidad de la
luz irradiada muestra efectos
tan diferentes a los esperados.

Pero fue Einstein, aun siendo joven, que
explicó el efecto fotoeléctrico en forma muy
sencilla, considerando a la luz en su comportamiento
corpuscular. Imaginemos ahora que un fotón – la luz
como una partícula- golpea en el metal y tiene que sacar a
un electrón. Si este está unido a la estructura del
metal con cierta fuerza
atractiva – como un imán- se necesitará una
mínima cantidad de energía para despegarlo. Dado
que los fotones llevan energía en forma proporcional a su
frecuencia- E= h*( -, la frecuencia de este fotón
deberá tener un valor mínimo para que así la
energía que porta sea superior a la que está
uniendo al electrón a la superficie del metal. Dos fotones
de menor frecuencia que la requerida podrían liberar a un
electrón de su prisión siempre y cuando los dos
chocaran a este uno atrás del otro, cosa que es bastante
poco probable. Esto explica entonces porqué la luz tiene
que tener una frecuencia determinada para lograr sacar electrones
de los metales. Dado que los átomos que componen los
diferentes metales tienen diferentes propiedades, significa que
la energía de unión de los electrones externos
será una característica propia de dicho elemento,
por eso vimos que los resultados experimentales muestran que se
necesita diferente tipo de luz (diferente frecuencia) para
expulsar electrones de diferentes metales.

Elevando la intensidad del rayo de luz con el que
estamos bombardeando el metal, significa que estamos enviando
mayor cantidad de fotones. Cada uno de los fotones, si son de la
frecuencia adecuada, estarán haciendo saltar electrones a
una velocidad
determinada dada por la energía que le transmiten; al ser
mas los fotones, lo que mediremos será mayor cantidad de
electrones expulsados pero no una variación de la
energía de cada uno de ellos. Mientras que si elevamos la
frecuencia pero mantenemos la intensidad, dado que la cantidad de
fotones con que bombardeamos no cambia, los electrones expulsados
tampoco cambiarán, lo que sí notaremos es que los
electrones que salen tendrán mayor velocidad dado que se
les ha transmitido mayor energía.

La teoría corpuscular de la luz, la de los
fotones como partículas reales de energía
proporcional a la frecuencia, explica muy simplemente hechos
experimentales donde la teoría ondulatoria de la luz
falla. Einstein recibió en 1921 el premio Nobel por este
trabajo.

  • Efecto Compton

Una demostración más directa de los
fotones actuando como partículas, vino del físico
Compton en el año 1922.

El fenómeno en pocas palabras era el
siguiente: los rayos X cuando
rebotaban en superficies de cristales, salían irradiados
con una longitud de onda mayor, lo cual es lo mismo que una
frecuencia menor. Lo que se había observado es que cuando
con los rayos X (que son una radiación
electromagnética de alta frecuencia), se bombardean
ciertos cristales, estos rayos cambiaban su longitud de onda,
dependiendo del ángulo de reflexión, medido entre
la dirección cuando chocan contra el cristal y
la dirección cuando salen rebotados del mismo. Compton
concluyó que este fenómeno se podía entender
si se piensa a los rayos X como fotones individuales, es decir
como pequeñas bolas de billar que golpean contra otras
como ser los núcleos y los electrones del elemento que
compone al cristal. La energía del fotón que cambia
en la colisión, significa de acuerdo a lo postulado por
Planck, un cambio en la
frecuencia (un aumento de la longitud de onda). Este cambio es
fácilmente medido y corrobora la idea de que la
energía es proporcional a la frecuencia. Con la
teoría ondulatoria de la luz, no existían razones
que pudieran explicar porqué hay un cambio de frecuencia
en la interacción entre ciertas radiaciones
electromagnéticas y la materia (los
electrones que la componen). Por este trabajo Compton
también recibió el premio Nobel en 1927.

Vemos así a partir de estos
fenómenos que la luz puede entenderse como pequeños
paquetes de energía a los que denominamos fotones. Pero
también sabemos que la luz tiene propiedades de onda. En
definitiva: ¿es una partícula o es una onda?… es
una onda y una partícula!!

El
carácter ondulatorio de la materia

Einstein había dado a la luz su
condición de partícula a través de su
trabajo sobre el efecto fotoeléctrico con el cual fuera
premiado con el Nobel, Compton también aporto lo suyo.
Pero Einstein, que sin duda era genial, también
presentía que la teoría de la luz podría
llegar a interpretarse como una fusión
entre las teorías
ondulatoria y corpuscular. Hasta ese momento nadie
prácticamente creía en los fotones. Como creer en
la existencia de una partícula de masa cero,
¿cuál es el significado de algo que no tiene masa?.
Algo ocurrió a mediados de los años 20, la
aparición de Louis de Broglie. Este influido por Einstein
que de alguna manera hablaba de la posibilidad de una dualidad
para entender la luz, extrapolo este concepto a la materia
diciendo que esta también tendría un
carácter dual, es decir la materia en ciertas
circunstancias tendrá un comportamiento ondulatorio. Esta
hipótesis produciría otra gran
unificación en el mundo de la física. Lo que de
Broglie imagino fue una onda asociada a las partículas y
que las acompaña a través del espacio y el tiempo
de manera que siempre sincroniza el proceso
interno, a estas ondas el las denomino ondas guía u ondas
piloto. Dijo también que estas ondas no eran meras
abstracciones sino que están asociadas con el movimiento
real de la partícula y que se pueden medir.

Basado en la analogía de los fotones, de
Broglie desarrolla un álgebra
sencilla para expresar sus ideas:

Partiendo de Einstein ( E =mc2=(mc).(c),

(mc)=p el impulso de un fotón

c = (.f (la longitud de onda por la frecuencia da
la velocidad de la onda (ver ondas)(

(E=(p).((.f), como también sabemos que
para los fotones E = h.f (Planck/Einstein),

(h. f = p.(.f

( (= h / p

De Broglie aplico la misma formula para las
partículas materiales, por ejemplo los electrones,
diciendo entonces que los mismos tienen una onda asociada de
longitud de onda (= h / p, donde p es el impulso del
electrón en cuestión. Si quisiéramos
calcular la longitud de onda de una onda asociada a una
partícula de 10 microgramos, que se mueve a 1 cm/seg,
aplicando la formula de de Broglie, llegaríamos a un valor
de ( ( 6,6 x 10-22, medida muy pequeña para que pueda ser
percibida en el mundo cotidiano .Esta es la razón por la
que el comportamiento ondulatorio de la materia no es detectable
a nivel macro.

Esta tesis
parecía a ojos de todos los físicos absurda. Un
miembro del comité de evaluación
de la misma, envió por adelantado una copia a Einstein
quien dijo que de Broglie había levantado un gran velo.
Mas tarde y en forma experimental la tesis fue corroborada para
los electrones en los experimentos de difracción e
interferencia de las dos ranuras. Paradójicamente esta
comprobación la hizo G. Thompson hijo de J.J.Thompson
quien fuera el que demostró la propiedad
corpuscular de los electrones.

De Broglie tenia una idea particular respecto al
comportamiento ondulatorio de los electrones alrededor del
núcleo. La onda asociada al electrón es una onda
estacionaria, es decir una onda con sus extremos fijos formando
un circulo. Recordando lo expresado en la sección ondas, y
radiación del cuerpo negro, cuando hablamos de ondas
estacionarias (extremos fijos) decíamos que todas las
ondas estacionarias formadas y superpuestas, eran: la llamada
fundamental y los armónicos de dicha fundamental,
apareciendo estos con la presencia de nodos que son aquellos
puntos que no se apartan de su condición de reposo.
Así dentro del perímetro de la circunferencia
orbital del electrón en cuestión para el que
asociamos una onda, podrán ubicarse un numero entero de
longitudes de onda, según el concepto anterior de la
fundamental y los armónicos. Matemáticamente esto
se expresa como:

2(.r=n.( (1(

donde r es el radio de la
circunferencia orbital del electrón, n es un numero entero
y (, la longitud de onda de la onda asociada al electrón.
En el perímetro de la circunferencia orbital, entran
números enteros de longitudes de onda.

Como sabemos que:

(= h / p= h / mv,

reemplazando este valor de ( en la
ecuación (1(, llegamos a:

mv.r=n.(h/2() (2(

esta igualdad, si
bien no lo habíamos establecido o dicho anteriormente, es
el primer postulado de Bohr cuando explicaba la existencia de
orbitas estables o estados estacionarios del electrón en
la composición de la estructura del átomo. Este
postulado se había establecido a los efectos de poder
explicar porque un electrón, que es una carga en
movimiento, no pierde su energía emitiendo
radiación electromagnética como postulaban las
ecuaciones de
Maxwell. Bohr dijo que el impulso angular L de un electrón
no puede tomar cualquier valor arbitrario, sino determinados
valores exclusivos según en la orbita que estuviera
girando. Existían ciertos estados permitidos para que el
electrón se estableciera, caracterizados por valores del
impulso angular L=mv.r múltiplos de un impulso angular
mínimo correspondiente a la primera orbita, que era igual
a h / 2(;

es decir mv.r = n.(h/2(). Ecuación que
surge del razonamiento de de Broglie (2(.

Lo que había sido un postulado sin
demostración (algo que Bohr saco de la galera) ahora
quedaba matemáticamente demostrado.

Intentemos ahora imaginarnos que significado
tiene la onda asociada a un electrón que se mueve en
línea recta. La mejor forma de entender esto, es pensar a
la partícula como un pequeño cuerpo que se mueve
igual que un cuerpo clásico (como una bola de billar),
salvo cuando sobre ella actúa alguna fuerza; cuando esto
ocurre, se moverá de acuerdo con las ecuaciones
resultantes de su carácter ondulatorio. La onda no es una
entidad física tangible (en realidad es un numero complejo
matemáticamente hablando, de la forma a+bi), sin embargo
controla el movimiento del electrón – la
partícula en este caso-, haciendo que este no se mueva
como un cuerpo clásico. La terminología de "ondas
guía" u "ondas piloto" es incorrecta, porque las ondas de
de Broglie no son ondas que viajan junto con y "guiando" un
corpúsculo clásico. La onda de de Broglie y la
partícula son la misma cosa , tal vez al principio de la
elaboración de este concepto se pensó en entidades
diferentes, pero ahora se sabe que esto no es así. La onda
es simplemente una representación matemática
de la partícula en el espacio-tiempo, la intensidad de
dicha onda, que según la mecánica ondulatoria se calcula como el
cuadrado de la amplitud de la onda, mide la probabilidad
de encontrar al electrón en una posición
determinada, en un momento determinado. Imaginemos un paquete de
ondas de amplitud A, aproximadamente localizados en una cierta
región del espacio en un instante dado. La propiedad de
esta onda es que solo será apreciable en cierta
región limitada del espacio, pero su amplitud decrece
rápidamente tendiendo a cero. Un paquete de ondas de este
tipo representa a una partícula que se encuentra
aproximadamente confinada en una región finita del
espacio. Naturalmente suponemos que donde será mas
probable encontrar la partícula experimentalmente es en
aquellas regiones del espacio en la que la función de
onda es grande.

El nacimiento de
la cuántica como teoría

Entre 1925 y 1926 se publicaron tres trabajos
independientes que resultaron ser desarrollos equivalentes de una
teoría cuántica completa:

  • Mecánica matricial de Werner
    Heisenberg.

  • Mecánica ondulatoria de Erwin
    Schrodinger.

  • Álgebra cuántica de Paul
    Dirac.

Heisenberg un físico de 20 años,
expreso que su carrera comenzó en un encuentro con Bohr
donde este le dijo que los átomos no eran cosas. Entonces
Heisenberg se preguntaba ¿de qué sirve hablar de
trayectorias invisibles para electrones que se desplazan dentro
de átomos también invisibles?

Así intento diseñar una suerte de
código
que relacionara los números cuánticos de Bohr y los
estados de energía de un átomo, con las frecuencias
y los brillos de los espectros de luz que se determinaban
experimentalmente. Al igual que Planck, Heisenberg considero al
átomo como un oscilador (un resorte) virtual capaz de
producir a través de las oscilaciones, todas las
frecuencias del espectro. Desecho así la imagen del
átomo como un pequeño sistema solar. A
partir de un desarrollo de
álgebra matricial bastante complejo, Heisenberg desarrollo
una teoría cuántica completa, incorporando
también su famoso principio de incertidumbre. Como ya
mencionamos, este principio establece que para pares de valores
denominados conjugados, tales como el momento (m.v) y la
posición, las entidades cuánticas (electrón,
fotón, átomos) no pueden tener valores determinados
precisos de dichas variables
conjugadas simultáneamente. Es decir cuando puedo detectar
con precisión la ubicación de un electrón,
en ese instante este (electrón) no tiene una velocidad
determinada. Esto no es un resultado de deficiencias o errores en
las mediciones, sino una característica intrínseca,
una imposibilidad propia de las denominadas entidades
quánticas. De su desarrollo matricial, Heisenberg
determino un valor numérico para su principio de
incertidumbre, diciendo que la incertidumbre de una variable
conjugada, por Ej. la posición, multiplicada por la
incertidumbre en la otra variable conjugada, el momento,
será siempre mayor que una constante: (x.(p>h/2(.
Físicamente esto lo podemos entender como que a medida que
reduzco la incertidumbre en la determinación de la
posición (se reduce (x), el momento de la entidad
quántica será mas incierto(aumenta (p), de manera
tal que la desigualdad que expresa el principio de incertidumbre
se mantenga.

Paralelamente a los desarrollos de Heisenberg,
otro físico, Erwin Schrodinger, prefería basar sus
investigaciones a partir de las conclusiones de de
Broglie, sobre todo por que la teoría de Heisenberg le
resultaba extremadamente compleja, carente de figuras y con
muchas complicaciones matemáticas. Así y todo su
concepción –tampoco sencilla- fue una
ecuación diferencial (cuya solución es una
función y no un valor numérico), denominada
ecuación de Schrodinger. La solución de esta
ecuación resulta ser una onda que describe
"mágicamente" los aspectos cuánticos del sistema. La
interpretación física de esta onda
fue uno de los grandes problemas
filosóficos de la mecánica
cuántica.

(2(/(x2 +8(2m/h2.(E-V).(= 0

Donde ( es la solución de la
ecuación de Schrodinger. Fue Max Born quien finalmente le
dio a la función de onda el concepto de probabilidad
estableciendo que la intensidad de la función de onda, es
decir el cuadrado de la amplitud, mide la probabilidad de
encontrar a la entidad quántica descripta por la onda en
una posición determinada del espacio, la onda ( determina
la factibilidad
de que el electrón este en una posición
determinada. A diferencia el campo electromagnético, ( no
se corresponde con una realidad física. Este concepto es
realmente complejo, dado que establece que una entidad
cuántica tal como un electrón existe en una
superposición de estados cuánticos, cada uno de
ellos con una probabilidad de ocurrencia determinada a
través de la función de onda correspondiente. Esta
idea de la superposición es la que Schrodinger no aceptara
por parecerla absurda y que tratara de rebatirla con su famoso
experimento de pensamiento
conocido como el gato de Schrodinger.

En 1925 Heisenberg dio una conferencia en
Cambridge donde menciono sus trabajos acerca de la teoría
cuántica. Una copia de sus borradores acerca de la
mecánica matricial llego a manos del joven
Paul Dirac. Este a partir de los mismos, desarrollo su propia
versión de la teoría cuántica que resulto
ser mas amplia que las versiones de Heisenberg y Schrodinger, en
realidad estas resultaban casos particulares incorporados en el
desarrollo de Dirac, conocido como Teoría del Operador o
Álgebra Cuántica. Los tres desarrollos considerados
como una teoría cuántica completa producían
los mismos resultados, por caminos diferentes. Mas adelante,
Dirac logra incorporar a los conceptos de la teoría
cuántica los requerimientos de la teoría especial
de la relatividad para así llegar a dar una descripción completa del electrón.
En estos trabajos, la solución matemática de sus
ecuaciones llevaba a la conclusión de la necesidad de la
existencia de una nueva partícula, de iguales
características que el electrón, pero con carga
positiva. Fue así como Dirac predijo así la
existencia de la antimateria a pesar de que no tenia claro su
significado físico. Finalmente en 1932 Carl Anderson
descubre el positrón o anti-electrón confirmando
los resultados teóricos de Dirac.

Paul Dirac también trabajo en las reglas
estadísticas que describen los
comportamientos de grandes números de partículas
cuyos valores de spin son valores medios de
números enteros (el electrón tiene s=1/2).
Investigaciones similares fueron llevadas a cabo en forma
independiente por el físico Enrico Fermi, de allí
que estas reglas estadísticas que explican el
comportamiento de cierto tipo de partículas se denomina
estadísticas de Fermi-Dirac, y a las partículas se
las denomina genéricamente Fermiones, concepto este que se
desarrollara mas adelante.

Estos desarrollos teóricos de Heisenberg,
Schrodinger y Dirac, si bien proporcionaron una perfecta
descripción matemática de los fenómenos
atómicos, no iluminaban el cuadro físico.
¿Cuál era el significado de las ondas y las
matrices?
¿Cómo están estas relacionadas con nuestras
nociones de sentido común acerca de la materia y el mundo
en el cual vivimos? Heisenberg nos proporciona ciertas
respuestas. En un trabajo publicado en 1927, comienza su
argumentación haciendo referencia a la teoría de la
relatividad de Einstein, la cual cuando fue publicada, era
considerada como contradictoria para el sentido común por
muchos físicos. Luego, en un dialogo
imaginario con Kant, Heisenberg
continua diciendo: ¿qué es el sentido
común?, sentido común para Kant es la manera en que
las cosas tienen que ser. Pero entonces ¿qué
significa esta manera de ser de las cosas?, sencillamente, como
siempre fueron.

Einstein fue probablemente el primero en darse
cuenta de la importancia de saber que las nociones básicas
y las leyes de la
naturaleza, a pesar de estar bien establecidas, eran validas solo
dentro de los limites de la observación, y que no necesariamente
seguirían siendo validas fuera de estos limites. Para las
personas de la antigüedad, la tierra era
plana, pero no para Magallanes o para los astronautas. Las
nociones físicas básicas de espacio, tiempo y
movimiento, estaban bien establecidas y sujetas al sentido
común hasta que la ciencia
avanzo mas allá de los confines en los que trabajaron los
científicos del pasado. Entonces surgió una
contradicción drástica que forzó a Einstein
a abandonar las ideas del "viejo sentido común" respecto
al tiempo, la medida de las distancias y la mecánica; y
dirigirse hacia la creación de la teoría de la
relatividad fuera del "sentido común". Resulto entonces
que para muy altas velocidades, distancias muy grandes y largos
periodos de tiempo, las cosas no eran lo que "deberían
ser" porque "siempre habían sido así".

Heisenberg dice que la misma situación es
la que existe en el campo de la teoría cuántica, el
procedió a averiguar que era lo que fallaba con la
mecánica clásica de las partículas
materiales cuando la introducimos en el campo de los
fenómenos atómicos. Así como Einstein
comenzó el análisis critico del fracaso de la
física clásica en el campo relativista, Heisenberg
hizo lo propio con la mecánica clásica atacando la
noción básica de la trayectoria de un cuerpo en
movimiento. Durante tiempos inmemoriales, la trayectoria
había sido definida como el camino a lo largo del cual un
cuerpo se mueve a través del espacio. En el caso limite,
el cuerpo era un punto matemático sin dimensión de
acuerdo a la definición Euclidiana, mientras que el camino
o trayectoria era una línea matemática ,
también sin dimensión. Nadie dudaba que esta era la
mejor descripción de movimiento y que mediante la
reducción de los errores experimentales de medición de las coordenadas y la velocidad
de la partícula que se mueve, podríamos llegar a
una descripción exacta del movimiento. Heisenberg dijo que
esto solo es cierto en un mundo donde gobiernan las leyes de la
física clásica, pero no en un mundo
cuántico. Es por esta razón que en el mundo
cuántico es necesario desarrollar otro método
para describir el movimiento de las partículas diferente a
la trayectoria que utilizamos en la física clásica.
Aquí es donde la función de onda ( viene en nuestra
ayuda. Esta función de onda no representa una realidad
física y no es mas material que las trayectorias lineales
de la mecánica clásica. La función de onda
puede ser descripta como una línea matemática
ampliada. Ella guía el movimiento de las partículas
en mecánica cuántica, en el mismo sentido que las
trayectorias lineales guían el movimiento de las
partículas en la mecánica clásica.
Así como no consideramos que las orbitas de los planetas son
como rieles que obligan a los mismos a seguir trayectorias
elípticas, no debemos considerar a las funciones de
ondas como un campo de fuerza que influencia el movimiento de los
electrones. La función de onda de de Broglie-Schrodinger o
mejor dicho el cuadrado de su valor absoluto (((2, solo determina
la probabilidad de que la partícula sea encontrada en uno
u otro lugar del espacio y que se moverá con una u otra
velocidad.

Física
clásica vs. Física cuántica, sus
diferencias.

Durante mas de 200 años desde los
días de Newton, hasta
el final de del siglo XIX, los físicos habían
construido una visión del mundo increíblemente
elaborada y básicamente mecánica. El universo
entero se suponía que trabajaba como un gigantesco reloj,
en cuyo interior se podía conocer y predecir hasta el mas
mínimo detalle de funcionamiento. Por medio de las leyes
de la gravedad, del calor, de la luz y el magnetismo, de
los gases, los
fluidos y los sólidos; cada aspecto del mundo material
podía ser en principio parte de un vasto mecanismo
lógico. Cada causa física, generaba algún
efecto predecible, cada efecto observado podía ser
rastreado a una única y precisa causa. La tarea de los
físicos era justamente rastrear esas articulaciones
entre causa y efecto, de manera de poder hacer que el pasado
fuera entendible y el futuro predecible, la acumulación
del conocimiento
teórico-experimental se tomaba sin discusión para
brindar una visión coherente del universo aun con
un enfoque mas agudo y preciso. Cada nueva pieza de conocimiento
agregaba otro engranaje al reloj del universo. Esta era la
situación a final del siglo XIX, los físicos
clásicos aspiraban a explicar con una claridad cada vez
mas precisa hasta el ultimo confín de este universo
mecánico. A pesar de todo, como ya vimos había
algunas nubes oscuras que aun no podían explicarse desde
la visión clásica, y sobre todo cuando se quiso
extrapolar los conceptos clásicos al interior del
átomo, allí la debacle fue total. Dentro de la
física clásica, estamos acostumbrados a pensar
acerca de las propiedades físicas de las cosas como algo
intrínseco de ellas y con valores definidos, a los cuales
tratamos de medir. Pero en esta nueva rama de la física,
nos encontramos con que es el proceso de medición
utilizado el que dará un valor determinado para una
cantidad física. Para ponerlo en una forma mas clara: en
física clásica, convencionalmente pensamos a un
sistema físico como poseedor de ciertas propiedades y
así, imaginamos y llevamos a cabo experimentos que nos
proveen información acerca de ese sistema
pre-existente. En física cuántica, solo la
conjunción de un sistema con un mecanismo de
medición especifico nos dará un resultado definido,
y dado que diferentes mecanismos de medición
producirán resultados que tomados en conjunto son
incompatibles con la pre-existencia de algunos estados definidos,
no podemos definir o establecer ninguna clase de realidad
física a menos que describamos no solamente el sistema
físico bajo estudio, sino también y con igual
importancia, el tipo de medición que intentamos realizar.
Esto es lo que vimos cuando decíamos que la luz se
comporta como onda y como partícula según que tipo
de medición hagamos. Esta conclusión o diferencia
entre la física clásica y la cuántica, es
realmente difícil de aceptar y comprender. Durante siglos
nuestro conocimiento adquirido se fundamentaba en la premisa
básica que nos habla de la existencia de una realidad
externa objetiva y definida, independientemente de cuan poco o
mucho conozcamos de ella. Es difícil encontrar el lenguaje o
los conceptos para manejar una idea de realidad que solo llega a
materializarse en algo real (valga la redundancia) cuando es
medida, es decir cuando es observada. La luz es una
partícula cuando colocamos detectores para medir la
llegada de partículas, de lo contrario, la luz sufre
interferencias, refracción y difracción como su
comportamiento ondulatorio así lo determina.

Notemos otra diferencia crucial entre ambas
físicas, el principio de incertidumbre, que solo existe en
la cuántica. Este principio que dice que no podemos
conocer simultáneamente dos variables complementarias como
la velocidad y la posición de una partícula. Para
los clásicos si medimos una propiedad intrínseca de
una partícula, una vez realizada dicha medición,
sabremos con exactitud el estado de
dicha partícula y podríamos predecir el resultado
de cualquier medición futura. Para los cuánticos,
el acto de medición es un evento donde interactúan
el que mide/observador y lo que es medido/observado para
conjuntamente producir un resultado. El proceso de
medición no significa determinar el valor de una propiedad
física pre-existente. El principio de incertidumbre esta
íntimamente ligado a la naturaleza probabilística
de las mediciones cuánticas, esto significa que la
mecánica cuántica predice acerca de la probabilidad
de obtener tal o cual resultado, pero nunca puede con certeza
decir en un caso individual que es lo que va a ocurrir.

Avancemos un poco mas en este tema de los
comportamientos probabilísticos. Si arrojamos una moneda
al aire diremos
que las chances de obtener cara o seca serán de un 50 %.
Si tuviéramos un mecanismo perfecto de observación,
podríamos predecir cada vez que arrojamos las moneda cual
será el resultado ( si cara o seca). Podemos decir
entonces que el concepto de probabilidad aquí esta
cubriendo nuestra ignorancia en la medición por no contar
con un mecanismo perfecto. En física cuántica el
concepto probabilístico es diferente. La probabilidad no
cubre falta de información sino que es una
característica intrínseca de la naturaleza. Veremos
mas adelante cuando hablemos de Electrodinámica
Cuántica (QED), que un fotón dentro de un haz de
luz, tiene cierta probabilidad de pasar el vidrio o de
reflejarse en el, sin ninguna explicación racional de
porque algunos pasan y otros se reflejan, cuando todos provienen
de la misma fuente y forman parte del mismo haz en las mismas
condiciones. Bien esto que Einstein nunca acepto,
parecería ser como la naturaleza se comporta a nivel micro
sin importar si podemos entenderlo o no.

Realidad Local y
no local

La mayoría de los físicos en la
actualidad, utilizan los conceptos de la teoría
quántica, como una receta, sin importarle mayormente cual
es la "realidad" física que esta representa. Sin embargo
es difícil aceptar esta posición, dado que si esta
teoría es tan exacta en sus predicciones, tiene que tener
una base muy firme en el comportamiento real de la naturaleza.
Por este motivo es que la disputa entre dos hombres como Bohr y
Einstein acerca del significado de esta teoría es de suma
importancia. Su discusión se basaba fundamentalmente en
los conceptos de realidad local y no-local que ahora intentamos
explicar.

En primer lugar para ubicarnos imaginemos el
siguiente experimento: supongamos que tenemos dos cajas y en cada
una de ellas colocamos un guante del mismo par, en una el derecho
y en otra el izquierdo. Supongamos ahora que le entregamos las
cajas a dos individuos, Pepe y Juan, que viajan en avión a
las antípoda uno del otro, sin que ninguno sepa
que guante tiene su caja. Se le instruye también a uno de
ellos, Pepe, que si al llegar a su primer destino y abrir la caja
encuentra un guante derecho se dirija a la ciudad A, y si por el
contrario contiene un guante izquierdo se dirija a B. Esta
instrucción es también conocida por el otro
viajero, Juan. Una vez que llegan a su destino, Pepe abre su caja
y sigue las instrucciones. Inmediatamente después Juan
abre la caja e instantáneamente sabe hacia donde esta
viajando Pepe. ¿Cómo es que lo sabe?
¿quién le proporciono esta información? Al
ver un guante, supo en el acto que en la caja de Pepe estaba el
opuesto y por lo tanto hacia donde debía viajar. Nada hay
de extraño en esta situación pues lo que Juan hizo
fue deducir a partir de la información que ya tenia, no
hubo ninguna transferencia de información entre el y
Pepe.

Cambiemos un poco la historia. Supongamos que los
guantes son mágicos. Estos si bien se presentaran como
miembros de un par, derecho e izquierdo, cuando sean observados,
mientras están encerrados en las cajas, no tendrán
una forma determinada. Solo cuando la caja se abre y alguien mira
serán forzados a tomar la naturaleza de guante derecho o
izquierdo, con una chance de que esto ocurra del 50 % para cada
forma. La naturaleza mágica de estos guantes impide
también que podamos observar su estado indeterminado, dado
que ni bien los miramos, adoptan una forma. Si esto fuera
así, cuando Juan abre la caja (antes que Pepe) y ve un
guante derecho por ejemplo, sabe que en ese mismo momento el
guante de Pepe adopto la forma de izquierdo, dado que ambos son
miembros del mismo par. Paralelamente, Juan no puede determinar
si es que el fue el primero en abrir la caja o no. Siendo
así, dado el carácter reciproco de conexión,
podría haber ocurrido que Pepe abrió primero su
caja y su guante se materializo izquierdo, dando así la
forma al guante de Juan. Si bien esto es posible ni Juan ni Pepe
pueden decir que ocurrió primero sin comunicarse entre
ellos por TE o mail, a una velocidad que no supera la velocidad
de la luz.

¿Qué tiene que ver esta historia?
Los guantes no tienen esta característica, pero las
entidades cuánticas como los electrones, los fotones y
otras particulas elementales, si las tienen. Estas
partículas tienen ciertas propiedades que se mantienen en
un estado indeterminado sin manifestarse hasta tanto sean
forzadas a manifestarse debido a una medición
/observación que se realiza sobre ellas. No se puede saber
de antemano con seguridad cual
será el resultado de dicha medición. La
mecánica cuántica solo predice las probabilidades
de ocurrencia de determinados resultados. Antes de la existencia
de la cuántica, se daba por garantizado que cuando un
científico observaba y media algo, lo que estaba haciendo
era ganar conocimiento acerca de un estado pre-existente y
determinado; esto es que los guantes son o derechos o izquierdos
independientemente de que los observemos o no, y cuando los
observamos, y conocemos su forma, lo que estamos haciendo es
tomando nota de un dato independiente acerca del mundo. La
mecánica cuántica sin embargo dice otra cosa.
Algunas cosas, no están determinadas salvo cuando son
observadas/medidas, y solamente en ese momento es cuando toman un
valor definido y concreto.

Esta historia de los guantes aunque planteada con
un par de entidades cuánticas correlacionadas, sea un par
de electrones para medir sus spin, o un par de fotones para medir
sus polarizaciones, fue planteada por Einstein, Podolsky y Rosen
en la denominada Paradoja EPR, donde Einstein discutía con
Bohr la irracionalidad de lo que los cuánticos afirmaban.
Para Einstein no podia existir este mecanismo de transferencia
instantánea de información (el guante de Pepe,
adopta su forma ni bien Juan abre la caja de su guante; a pesar
de estar en las antípoda uno de otro) dado que esto
significaría que la información viaja a mayor
velocidad que la de la luz. Tampoco aceptaba la posibilidad de
que una acción
a distancia sin ningún mecanismo de mediación.

Y aquí podemos introducir el concepto de
realidad local. Einstein y el sentido común es decir a lo
que estamos acostumbrados defienden el concepto de realidad
local:

Realidad significa que las cosas tienen
características intrínsecas propias, las cuales no
dependen de que sean observadas/medidas; es decir los guantes en
nuestro ejemplo, son derecho e izquierdo por mas que estén
en cajas cerradas.

Local significa que ninguna transferencia de
información entre dos puntos puede hacerse a una velocidad
superior a la de la luz. Este concepto también se conoce
como la no acción a distancia, la no existencia de
conexiones ocultas entre las cosas, las entidades
cuánticas en nuestro caso (fotones, electrones o
partículas subatómicas).

Ahora bien experimentos realizados (Aspect, Bell)
con entidades cuánticas (fotones) demostraron que el
concepto de realidad local no es valido para dichas
partículas, o sea o no son reales, no tienen ninguna
característica intrínseca hasta tanto se las
observe (esto afirmaba Bohr), o entre ellas existe transferencia
de información a una velocidad superior a la de la luz,
violando los postulados de la teoría de la relatividad, o
tienen algún tipo de conexión entre ellas
desconocida, que les permite interactuar en forma
instantánea (Ver la analogía de D.Bohm de la pecera
en el capitulo de Variables no Conocidas). La aceptación
de la no realidad o mejor dicho de que ciertas entidades se
mantienen en un estado indeterminado, esta vinculado con el
asociar a dichas entidades una función de onda
(Schrodinger) que me indica cual es la probabilidad de que dicha
entidad cuando sea observada adopte una característica
concreta. Para los guantes mágicos, la función de
onda me diría 50 % que sea guante derecho y 50% que sea
guante izquierdo. Al abrir la caja- lo que significa observar o
realizar una medición- se dice que la función de
onda colapsa dando una de las características posibles en
forma concreta. La función de onda de los guantes
mágicos colapsa por ejemplo, en el guante derecho. Estos
conceptos de colapso de la función de onda son propios de
la mecánica cuántica y de la interpretación
que hace de la misma Bohr, denominada interpretación de
Copenhague: La realidad es indeterminada, la velocidad
máxima de transmisión de información es la
de la luz. Fíjense que decimos interpretación,
porque también podríamos interpretar que la
realidad existe objetivamente pero que la información se
transmite entre estas partículas o entidades
correlacionadas a una velocidad superior a la de la luz. O bien
que existe alguna conexión misteriosa entre ambas
partículas.

En resumen lo que la teoría
cuántica parece mostrar es que el concepto de realidad
local es erróneo para el mundo cuántico, contra lo
que Einstein discutió hasta su muerte con
Bohr, diciendo que esta situación solo se debía a
la existencia de las denominadas variables desconocidas.

El teorema o la Inecuación de Bell, es una
demostración de que Einstein estaba equivocado y que por
extraño que resulte, algo debe abandonarse, o el concepto
de realidad objetiva o el de la velocidad de la luz como limite
superior a cualquier transferencia de información.

Lo que miro es lo
que mido. La influencia del observador.

Si afirmamos que la mecánica
cuántica establece que el acto de medir no brinda
información acerca de un estado pre-existente de la
variable medida, sino que por el contrario, fuerza a un sistema
indeterminado a tomar una apariencia definitiva; entonces debe
haber razones empíricas para que esta afirmación
sea valedera. Aun en el campo de la física teórica,
no se podría lanzar una idea tan extraña y
contraria a la intuición y sentido común, si no
hubiera algo muy fuerte que la demostrara.

Una de estas primeras demostraciones y tal vez la
mas sencilla de comprender, fue llevada a cabo en Alemania en
1921 por Otto Stern y Walter Gerlach. Para el propósito de
esta explicación, imaginemos a los átomos como
pequeños imanes en forma de barritas. Lo que S&G
hicieron fue enviar un chorro de átomos a través de
un campo
magnético, para luego registrar en que
dirección estos átomos salían de dicho
campo. Si dicho campo magnético fuera uniforme es decir
con la misma intensidad en toda la región por donde pasan
los átomos, a estos nada les ocurriría, dado que la
fuerza magnética de atracción ejercida por el campo
sobre un polo del imancito, se equilibraría con la de
repulsión ejercida sobre el otro polo. Por eso S&G
regularon la intensidad de su campo magnético, digamos que
desde arriba hacia abajo. De esta manera según como entran
los imancitos al campo magnético, la fuerza hacia arriba
será la de mayor intensidad, entonces algunos
átomos (imancitos) saldrán hacia arriba, otros
hacia abajo, y aquellos que entraron verticalmente no
serán afectados. Para conocer como salen ,se coloca una
pantalla fosfórica como de TV o una placa
fotográfica para detectar donde los átomos
impactan. Cuando realizamos este experimento vemos que lo
pronosticado no ocurre. Lo que se observa es que los
átomos son desviados en dos direcciones, de igual magnitud
respecto del centro del campo magnético. Es como si los
átomos fueran forzados a alinearse en paralelo o en
antiparalelo con el campo magnético. Además si el
campo magnético se rota 900 de manera que ahora sus
líneas de fuerza sean horizontales en lugar de verticales,
los átomos se marcaran en la pantalla en dos posiciones a
la izquierda y a la derecha de la línea central del campo.
Lo que S&G descubrieron, fue que no importa como estaban
alineados los átomos a la entrada, a la salida siempre
adoptaban dos posiciones equidistantes y ambos lados de la
línea central del campo. Este resultado que no puede
explicarse con los conceptos clásicos, se explica en
física cuántica de la siguiente manera: al pasar un
átomo por este mecanismo ideado por S&G, lo que
estamos haciendo es medir el alineamiento magnético de los
átomos con el campo, hasta ese momento de la
medición o paso a través del campo, no tiene
sentido hablar del alineamiento o hacia donde apunta el campo
magnético de nuestro imancito (átomo) porque no
existe. Los clásicos dicen que los átomos en este
experimento tienen una alineación o dirección
determinada de su campo magnético aunque es desconocida, y
que estas orientaciones de todos los átomos se distribuyen
al azar, algunos hacia arriba, otros hacia abajo, otros
intermedios, etc y que entre todas estas orientaciones de la
alineación de los átomos, encontramos la totalidad
posible de alineamiento o dirección magnética, que
es la propiedad que estamos midiendo. Por eso nos resulta
inexplicable ver que los átomos al salir luego de
traspasar un campo magnético, no tengan todos
orientaciones diferentes. Lo que los cuánticos afirman, es
que las orientaciones magnéticas de los átomos no
son desconocidas y azarosas, sino que son indeterminadas, es mas,
no existen hasta tanto se realice una medición de las
mismas. Aun mas, algunos dicen que el termino orientación
magnética no tiene sentido hasta tanto no realicemos la
medición. Así debemos definir la orientación
magnética, no como una propiedad del átomo
indeterminada o desconocida, sino que es el resultado que
obtenemos cuando realizamos una medición que , valga la
redundancia, intenta medir la orientación magnética
del átomo. Si bien esto resulta como un circulo vicioso o
una tautología, en mecánica cuántica, una
medición significa solamente el resultado del acto de
medir.

Este es el corazón
del asunto. En física clásica estamos acostumbrados
a pensar que las propiedades físicas tienen valores
definidos, los cuales intentamos conocer a través del
proceso de medición. Mientras que en física
cuántica, solo el proceso de medición puede rendir
un resultado o numero definido para una cantidad física, y
la naturaleza de la medición cuántica es tal que no
es posible pensar que una propiedad física definida, tal
como la orientación magnética de los átomos,
pueda tener una realidad definitiva y comprobable antes de
realizar el proceso de medición correspondiente.

Para ponerlo de otra forma, en física
clásica, pensamos en forma convencional que los sistemas
físicos tienen ciertas propiedades, y así
imaginamos y llevamos a cabo experimentos que nos brindan
información acerca de dicho sistema físico
pre-existente. Pero en física cuántica, es solo la
conjunción de dos cosas de igual importancia: un sistema
físico, y un mecanismo de medición, lo que nos
brindara un resultado definitivo. Debido a que diferentes
mediciones brindan resultados que son incompatibles con la
existencia de un estado o características del sistema que
sean pre-existentes, no podemos entonces definir ninguna clase de
realidad física a menos que describamos el sistema
físico que estamos investigando (átomos en este
caso) y el tipo de medición que estamos llevando a cabo
sobre dicho sistema. Esta conclusión es realmente
asombrosa, dado que nuestro intelecto ha sido educado a basarse
en la premisa de la existencia de una realidad externa, objetiva
y definitiva, sin importar cuanto o cuan poco conociéramos
de ella. Es difícil aprehender el concepto de que la
realidad de algo solo llega a ser real, se materializa en el acto
de medir/observar, hasta tanto eso no ocurre no existe esa
realidad. Cuando miro, lo que veo es lo que mido. Mas adelante
veremos que esta es una de las interpretaciones de la realidad
quántica, y que tiene mucho peso dado que estos conceptos
fueron defendidos por algunos de los mas notables personajes de
esta nueva rama de la ciencia, tales
como Bohr, Heisenberg y Born.

El gato de
Schrödinger.

Creo necesario mencionar este tema que
consistió en un ejercicio de pensamiento ideado por
Schrodinger, dado que aparece mucho en todos los escritos que
tiene que ver con la física cuántica. Cuando
Schrodinger estableció su función de onda para las
entidades cuánticas, esperaba dar una explicación
mas racional o con mayor sentido común a la teoría
cuántica. En particular no aceptaba lo que se mencionaba
como superposición de estados, donde se decía que
en realidad las entidades cuánticas solo existían
en una superposición de estados con una probabilidad de
ocurrencia para cada uno y que solamente se materializaban en
algo real cuando se realizaba –por medio de un observador
inteligente- una observación de la entidad
cuántica; en ese preciso momento y no antes, se afirmaba
que la función de onda colapsaba en un valor determinado,
el cual tenia una cierta probabilidad de ocurrencia. Esta
probabilidad podía calcularse a partir de la propia
función de onda.

Imaginemos dijo Schrodinger un sistema que tiene
solo dos eventos posibles
ambos con la misma probabilidad (50%) de ocurrencia. Por ejemplo
el decaimiento de un núcleo radioactivo.
¿Qué es esto?. Cuando un núcleo radioactivo
decae, se liberan partículas u ondas
electromagnéticas , pasando o transmutándose a otro
elemento diferente. Es decir el elemento cuyo núcleo
radioactivo decae, cambia su naturaleza debido al cambio en su
estructura atómica (en el núcleo). Las
partículas u ondas electromagnéticas pueden
fácilmente detectarse, es decir se sabe cuando se produjo
el llamado decaimiento por la aparición o detección
de dichas partículas u ondas.

El razonamiento con el cual Schrodinger no
acordaba, era el que decía que en realidad dicho
núcleo se encuentra en los dos estados posibles la mitad
que decayó y la mitad que no hasta tanto alguien mida si
el núcleo decayó o no. Esta sustancia radioactiva
podría encerrarse en una cámara hermética y
sin ventanas (una caja) con un detector que permite monitorear si
el núcleo decae o no. Este monitor a su
vez se encuentra conectado a un recipiente que contiene gas venenoso y
que se abrirá cuando se detecte la presencia del
decaimiento del núcleo radioactivo. En dicha cámara
hermética con todos esos mecanismos de detección y
conexión con el recipiente que contiene el gas venenoso,
vive el famoso gato de Schrodinger. Mientras nadie mire en la
cámara, Schrodinger dice que de acuerdo a la
interpretación que daban acerca de los estados
superpuestos, el núcleo decayó y no decayó,
con una probabilidad del 50% para cada uno de los estados, y por
ende el gas venenoso salió y no salió, y finalmente
el gato murió y no murió, es decir esta en un
cierto limbo coexistiendo el gato vivo y el gato muerto hasta que
alguien abra la cámara.

Lo que a Schrodinger le resultaba absurdo es la
proposición de Bohr diciendo que la función de onda
no colapsa en un estado determinado hasta tanto un observador
inteligente hiciera una medición u observara lo que pasa.
Por eso ideo esta historia preguntándose si el gato es o
no es un observador inteligente, porque entonces es necesario
mantener la afirmación que el gato es mitad muerto y mitad
vivo hasta que alguien abra la cámara, cosa que suena
realmente descabellada. Esto es aun mas descabellado cuando se
agrega a un observador que a su vez esta solo o no es observado,
entonces este mirando el experimento del gato, ¿provocara
el colapso de la función de onda o debe aparecer otro
observador? ¿dónde termina todo? ¿ donde
ponemos el limite entre estados superpuestos y realidad
concreta?

Inecuación
de Bell y la paradoja de EPR

Habíamos mencionado anteriormente que
Einstein junto con otros dos científicos (Podolsky y
Rosen) idearon un llamado experimento de pensamiento, conocido
como la paradoja de EPR, para explicar la imposibilidad de las
acciones a
distancia o también para demostrar que el concepto de
realidad local era correcto incluso dentro del mundo
cuántico. Este experimento se logro desarrollar
experimentalmente en Paris en 1980 por el científico Alain
Aspect, y a través de ciertos cálculos llevados a
cabo por John Bell, se arribo a la conclusión, contra lo
que el sentido común indica, que a nivel cuántico
la realidad es no local, esto es que existen conexiones
misteriosas entre las partículas, o bien que entre ellas
intercambian información a velocidades superiores a la de
la luz. Estos tres puntos, la Paradoja EPR, el experimento de
Aspect y la inecuación de Bell es lo que se desarrolla a
continuación.

En el experimento de Aspect se mide una propiedad
que cuentan los fotones de luz, denominada polarización.
Algo de esta se describió en el capitulo de ondas, por lo
que lo que aquí diremos para entender el experimento, es
que la polarización para cada fotón se la
representa y así debemos imaginarla como una
pequeña flecha que, saliendo del fotón, apunta en
una dirección determinada (arriba, abajo, o en diagonal).
La polarización de dos fotones emitidos desde el mismo
átomo esta correlacionada en sentido cuántico, de
manera tal que si por ejemplo en uno apunta hacia arriba, en el
otro apuntara en diagonal, pero no hay nada que nos permita decir
que fotón tendrá polarización en uno u otro
sentido. Cuando dos fotones son emitidos desde un átomo,
existen como el gato de Schrodinger en estados superpuestos hasta
que alguien mida la polarización de alguno de ellos. En
ese momento, la función de onda del fotón medido
colapsa en uno de los estados de polarización posible;
digamos para nuestro caso hacia arriba. En dicho momento, la
función de onda del otro fotón también
colapsa en el otro estado de polarización, en diagonal.
Nadie ha mirado a este segundo fotón, y en realidad en el
momento que se realiza la medición sobre el primero,
podría ser que ambos fotones estén en los extremos
opuestos del universo, así cuando la función de
onda de uno colapsa, la del otro hace lo mismo en el mismo
momento; esto es lo que se denomina acción a distancia y
contra la cual Einstein se oponía. Es como si las dos
entidades quánticas, los fotones, permanecieran en un
estado de conexión misteriosa, para siempre. La pregunta
era ¿cómo se podía observar esta
conexión a distancia? Era evidente que a través de
la medición simultanea de ambos fotones esto no se
lograría por que siempre observaríamos las
polarizaciones tal como tienen que ser, hacia arriba en uno y en
diagonal en el otro, pero no podríamos distinguir el
instante de la conexión entre ambos. Quedaría
siempre la duda si realmente existe esa conexión o
acción a distancia; o por el contrario, que la
polarización de cada fotón queda determinada en el
preciso momento que son emitidos desde el átomo, siendo
así que cada fotón nace con una polarización
determinada careciendo de sentido el concepto de estados
superpuestos.

El truco para captar sea el fenómeno de la
acción a distancia, o el fenómeno no-local, es
trabajar con tres medidas conectadas, por ejemplo tres
ángulos de polarización, tal como lo pensó
Aspect en su experimento, pero solo medir dos de ellos uno para
cada fotón.

Para hacer un ejemplo mas familiar que la
polarización, llamaremos a esta color. Supongamos que un
átomo en lugar de emitir fotones de a pares con
polarizaciones correlacionadas, emite partículas de
colores de a
pares. Estos colores pueden ser ROJO, AMARILLO, AZUL. Ahora bien
por definición, cada par de partículas emitidas
simultáneamente deben tener colores diferentes.

Expresando esto en términos
cuánticos, diremos que cuando el átomo emite un par
de partículas de color, la interpretación de
Copenhague (Bohr) dirá que ninguna de las dos
partículas tiene un color determinado sino que existen en
una superposición de tres estados (colores) posibles.
Cuando el que realiza el experimento mira a una partícula
, allí su función de onda colapsa adoptando un
color determinado entre los tres posibles. Al mismo tiempo, la
función de onda de la otra partícula también
colapsa adoptando esta un color determinado entre los ahora dos
posibles. Este debe ser diferente al que adopto la
partícula observada, aunque no sabemos tal como realizamos
el experimento cual de los dos posibles, dado que no estamos
observando a esta partícula.

Veamos como proceder en nuestra investigación: Utilicemos la siguiente
notación y las preguntas que siguen:

  • PO es la partícula observada.

  • PNO es la partícula no observada.

  • A = azul, AM = amarillo, R = rojo

  • NA = no azul, NAM = no amarilla, NR = no
    rojo

  • ¿PO es A?

  • SI PO es A

  • Por lo tanto, PNO = R o AM.

  • NO, PO es NA, aunque no sabemos aun de que
    color es.

  • Por lo tanto PNO = R o AM o A, pero con mayor
    probabilidad de que sea A.

Calculemos algunas probabilidades:

  • Si la PO es A, entonces la PNO tiene una
    probabilidad del 50% de ser AM y una probabilidad del 50% de
    ser R.

  • Si la PO es NA puede ser R o AM.

  • Si es R entonces la PNO podrá ser AM o
    A.

  • Si es AM entonces la PNO podrá ser R o
    A.

Vemos entonces que si la PO es NA hay cuatro
posibles resultados para la PNO, dos Azules, un Amarillo y un
Rojo, por lo tanto la probabilidad de Azul será 50 %
(2/4), mientras que la de Amarillo y Rojo será 25 % para
cada una (1/4).

El hecho de que el estado de la primer
partícula este determinado tal como sucede cuando la
observamos y decimos es AZUL, implica que para la PNO, la
probabilidad de adoptar determinados resultados R o AM,
será del 50% para cada estado (color). Sin embargo, si el
estado de la primer partícula no esta determinado, las
probabilidades de encontrar un color particular al observar la
segunda partícula varían respecto a la primer
situación. Fíjense que aquí estas
probabilidades será dl 50 % para un color y 25 % para cada
uno de los otros dos. Para observar como las probabilidades van
cambiando de acuerdo a la forma que realizamos la medición
sobre la primer partícula, debemos realizar muchas
mediciones sobre muchas partículas, tal como
haríamos para calcular la probabilidad de que una moneda
salga cara o seca, repetiríamos la tirada muchas veces
anotando lo que sale en cada una de ellas. El punto crucial es
que Bell mostró que el patrón estadístico
que debería surgir si el fenómeno es no-local, es
decir si las partículas no salen del átomo con una
condición prefijada (polarización o color en
nuestro ejemplo) es diferente al patrón que surge si el
fenómeno es local, esto es que cada partícula
adopta su color en el mismo momento que se emite desde el
átomo y permanece en ese color todo el tiempo. Utilizando
esta terminología de los colores, el experimento consiste
en preguntar pares de preguntas acerca de ambos fotones en
conjunto en la siguiente línea:

  • ¿Es el fotón 1 azul o no, y es
    el fotón 2 amarillo o no?

  • ¿Es el fotón 1 azul o no, y es
    el fotón 2 rojo o no?

Llevando a cabo este experimento con muchos pares
de partículas se puede construir una lista de respuestas
especificando con que frecuencia las partículas se aparean
en categorías: " A y NAM ", "A y NR", "NA y NAM", etc. Lo
que Bell demostró (¿?) es que si se hacen las
preguntas de esta manera muchas veces, utilizando muchos pares de
fotones, hay un patrón estadístico que aparece en
las respuestas obtenidas. Se puede averiguar con que frecuencia
la combinación "A y NAM" apareció, comparada con la
combinación "NA y NR". Y todas las otras combinaciones
posibles. Debido a que las entidades cuánticas no
deciden que color adoptar hasta tanto sean observadas,
contrariamente a lo que harían las partículas
comunes de adoptar un color en su origen; el patrón
estadístico resultante para ambos tipos de
partículas será diferente. Bell mostró que
si las partículas fueran comunes, el patrón
estadístico A debería prevalecer, es decir el
patrón A > el patrón B. Pero en el experimento
realizado en Paris por Alain Aspect, donde se trabajo con fotones
de diferente polarización, se demostró que esto no
ocurría; es decir que la desigualdad anterior se violaba,
siendo el resultado experimental que el patrón A < el
patrón B. El argumento, si bien desarrollado
matemáticamente, esta basado en una lógica del
sentido común. Esta lógica del sentido
común, aplicada a un ejemplo trivial, nos dice lo
siguiente:

Siendo TA, la cantidad total de adolescentes
en todo el mundo; FA la cantidad de adolescentes mujeres en todo
el mundo, MA la cantidad de adolescentes hombres en todo el
mundo, Madu la cantidad de adultos hombres en todo el mundo y TM
la totalidad de personas de sexo
masculino; entonces se debe dar que:

TA < FA + TM, (1)

Por que TA = FA + MA (2) y TM = MA + Madu
(3),

Por lo tanto al reemplazar (2) y (3) en (1) ( FA
+ MA < FA + MA + Madu ( FA< FA + Madu

Los resultados del experimento de Aspect son
equivalentes en términos de la lógica
del sentido común, a descubrir que en realidad la
inecuación que se comprueba en nuestro ejemplo es TA >
FA + TM; es decir que en el mundo hay mas adolescentes que
mujeres adolescentes mas todos los hombres. Este resultado,
ejemplificado aquí con personas, es lo que se conoce como
la violación de la desigualdad de Bell, y es lo que
confirma que para las entidades cuánticas existe una
conexión misteriosa, denominada realidad no-local, a pesar
de que aun no entendemos cual es el significado de todo esto. El
propio Bell considero a la teoría cuántica como
temporaria, y siempre espero que los físicos alcanzaran
alguna teoría que pudiera explicar estos resultados
extraños en términos del mundo real que todos
conocemos, es decir en el cual las cosas tiene
características objetivas y no indeterminadas.

Variables no
conocidas. (hidden variables)

La lucha por parte de Einstein de mantener una
idea de realidad objetiva, llevo a el y alguno de sus
discípulos como David Bohm a explicar lo inexplicable de
la física cuántica por la existencia de variables
desconocidas que agregarían conocimiento para poder dar
una explicación lógica a los comportamientos y
resultados de los experimentos cuánticos. Si se conocieran
estas variables escondidas, los físicos podrían dar
resultados precisos y no probabilísticos como hasta ahora.
En realidad esta interpretación de la cuántica a
través de las variables ocultas, esta mucho mas de acuerdo
con nuestro sentido común, que todas las otras
interpretaciones que se desarrollaron con mayor extensión.
Siendo así ¿por qué no se desarrolló
mas esta idea para explicar la cuántica, en lugar de
utilizar otras explicaciones tan contrarias al sentido
común? Esto se debe a que durante mucho tiempo, se
demostraba matemáticamente que esta explicación no
era correcta dentro del mundo cuántico (von Neumann).
Cuando Bohm retoma esta explicación, su fundamento
principal era que el mundo es no-local, esto significa que lo que
ocurre en un lugar del universo a una partícula afecta
instantáneamente al resto de las partículas del
universo. Es decir todo forma parte de un único sistema
interconectado. La hipótesis de Bohm era entonces que
variables ocultas eran las que explicaban las misteriosas
conexiones que se detectaban entre las partículas
subatómicas. Para Bohm lo que percibimos como
partículas separadas, en un sistema subatómico, no
lo están, sino que en un nivel mas profundo de la realidad
son meramente extensiones del mismo algo fundamental. El nivel de
la realidad en que las partículas parecen estar separadas,
es decir el nivel en el cual vivimos, Bohm lo denomino el nivel
explicado o explicitado. El sustrato mas profundo de la realidad,
aquel en el que la separación desaparece y todas las cosas
parecen convertirse en parte de una totalidad sin
discontinuidades, Bohm lo llamo el orden implicado. Para ilustrar
como un nivel de totalidad continua puede aclarar esas
correlaciones sin apelar a transmisiones de señales
mas veloces que la luz, Bohm ofreció el siguiente ejemplo.
Imaginemos una pecera donde nada un pez. El mismo es filmado por
dos cámaras de TV una enfocada hacia el frente y la otra
hacia el costado de la pecera. Cada una de estas, esta conectada
a un televisor. Imaginemos también que nosotros no vemos
las cámaras dado que están detrás de unas
mamparas, y solo tenemos conocimiento de la pecera por lo que
vemos proyectado en los dos televisores. Es así que
podemos suponer que estamos mirando dos peces
diferentes, y que cuando uno de ellos realiza un movimiento el
otro también realiza otro movimiento. Si el pez A esta de
frente, el pez B estará de costado, y si de repente el pez
A se pone de costado, el pez B se pondrá de frente. Si
seguimos suponiendo que son dos peces diferentes,
podríamos deducir que entre ambos existe una
correlación que se manifiesta en forma instantánea,
o también que uno mediante algún mecanismo oculto,
le informa al otro instantáneamente cuando realizara un
cambio de posición. Esto, conociendo como esta establecido
el experimento sabemos que no es correcto, no hay tal
transmisión de información, ni un grado de
correlación perfecta; ocurre que a un nivel profundo y
desconocido para nosotros (atrás de las mamparas), ambos
peces son la misma cosa, es decir están interconectados
como parte de un todo. Esto que dice Bohm es aproximadamente
análogo a lo que nos ocurre, cuando medimos las
correlaciones de dos partículas subatómicas
separadas entre si por una distancia tal que solo transmitiendo
la información a una velocidad superior a la de la luz, o
mediante alguna conexión misteriosa entre ambas,
podrían darse los resultados de los experimentos tal como
se dan. Las dos pantallas corresponden al mundo tal como lo
conocemos, es el orden explicado. La pecera donde esta el pez tal
como es, es el orden implicado. Las imágenes
que ofrecen las pantallas de TV son proyecciones bidimensionales
de una realidad tridimensional. Según Bohm, nuestro mundo
tridimensional es la proyección de una realidad
multidimensional aun mas alta.

La
interacción luz y materia. Electrodinámica
Cuántica (QED). Los fotones.

Los físicos y los científicos en
general, saben que no importa cuanto pueda gustar o no gustar una
teoría, sino que lo que distingue a una buena
teoría de una mala , es si puede predecir con cierta
exactitud los resultados experimentales. Pues bien , la
teoría de la electrodinámica cuántica (QED),
describe a la naturaleza como absurda desde el punto de vista del
sentido común, y sin embargo, predice con una exactitud
asombrosa todos los experimentos para los cuales fue utilizada.
Por eso y en palabras de Richard Feynman, debemos aceptar a la
naturaleza tal como es: absurda.

Comenzando por la luz, Newton descubrió
que la luz blanca es una mezcla de luces de diferentes colores
puros, en el sentido de que los mismos no pueden descomponerse en
otros. Cuando en esta teoría decimos luz, nos referimos a
todo tipo de ondas electromagnéticas, de las cuales la luz
visible es una porción dentro de un rango determinado de
frecuencias. Newton también dijo que la luz estaba
compuesta por partículas, a pesar de que el razonamiento
que uso para deducir esto era equivocado. Actualmente sabemos que
la luz esta compuesta por partículas, porque podemos
utilizar un instrumento muy sensible que hace click cada vez que
la luz le llega; cuando se reduce a un mínimo la
intensidad de la luz que irradiamos sobre este instrumento,
escuchamos el click con la misma intensidad aunque ahora mucho
mas espaciados en el tiempo porque son menos las
partículas que están llegando al mismo. La luz es
como gotas de lluvia y a cada una de estas gotas de luz se la
denomina fotón. Cuando la luz es del mismo color (misma
frecuencia) es como si las gotas fueran todas del mismo
tamaño.

El ojo humano es un instrumento muy bueno solo
necesita cinco o seis fotones para activar una célula
nerviosa y enviar un mensaje al cerebro. Si
hubiéramos evolucionado algo mas y tener una visión
diez veces mas sensitiva, no seria necesario explicar todo esto
dado que lo veríamos con nuestros propios ojos. El
instrumento utilizado para detectar un solo fotón se
denomina foto multiplicador. Valga toda esta explicación
para reafirmar nuevamente que la luz esta hecha, se comporta,
como un haz de partículas.

Existen una serie de fenómenos que
muestran las propiedades de la luz, que son conocidos por todos,
tales como que la luz se mueve en línea recta, que cuando
entra en el agua se
dobla, que se refleja en ciertas superficies como el espejo, que
en el caso de la luz blanca se puede descomponer en diferentes
colores (arco iris), que al pasar a través de un lente se
puede focalizar en un punto. Conociendo estos fenómenos
veremos el comportamiento verdaderamente extraño de la
luz.

  • 1. Reflexión parcial: Cuando la luz se refleja
    en un bloque de vidrio, vemos como una parte atraviesa el
    vidrio y otra se refleja como si fuera un espejo. Cuando los
    fotones chocan contra el vidrio, interactúan con los
    electrones del vidrio, no solo de la superficie sino
    también del interior, aunque el resultado neto es como
    sí solo interactuaran en la superficie. Si hacemos un
    experimento poniendo foto multiplicadores para detectar los
    fotones que se reflejan y los que traspasan el vidrio,
    comprobaremos que por cada 100 fotones que lanzamos contra el
    vidrio, 96 pasan y 4 se reflejan (rebotan). Aquí viene
    la primera duda, si todos los fotones son iguales, y todos
    fueron lanzados desde el mismo lugar y en la misma forma,
    como sabe un fotón que tiene que pasar o rebotar. Esto
    fue un gran misterio para Newton. Cuando el experimento se
    realiza con laminas de vidrio de diferentes espesores, la
    primera idea o hipótesis seria que un 8 % de los
    fotones se deberían reflejar, 4 % en la primera
    superficie, y 4 % en la segunda. Lo que comprobamos es que
    según sea el espesor de la lamina de vidrio, la
    cantidad de fotones que se reflejan, es decir rebotan
    fluctúa entre un mínimo de cero y un
    máximo de 16, y que si seguimos aumentando los
    espesores lo que ocurre es que los fotones reflejados siguen
    un ciclo, a medida que sigo aumentando el espesor. Ese ciclo
    esta entre 0 y 16 % de los fotones lanzados se reflejan.
    Así, el promedio de fotones reflejados es de un 8 %.
    La situación hoy en día es que no tenemos un
    buen modelo
    para explicar la reflexión parcial en laminas de dos
    superficies, simplemente podemos calcular la probabilidad de
    que un fotón pase o se refleje. Podemos explicar como
    hacer para calcular estas probabilidades, lo que no podemos
    hacer es deducir como los fotones "deciden" si pasar o
    rebotar. Esta forma de calcular en forma exacta los
    resultados es lo que permite la teoría de
    electrodinámica quántica (QED), pero no
    esperemos que la misma nos explique porque esto ocurre.

  • 2. Reflexión total: En este caso sabemos que
    la luz se refleja en un espejo en su punto medio y que el
    ángulo de incidencia es igual al de salida. La QED nos
    permite hacer el mismo tipo de cálculos que en el caso
    anterior, estableciendo como premisa, que en realidad los
    fotones pueden seguir cualquier camino hacia el espejo y
    desde allí reflejarse hacia un mecanismo detector
    también por cualquier camino, las probabilidades de
    que cada fotón siga un camino definido son todas
    iguales, aunque aquellos caminos que, con igual probabilidad
    de ocurrencia, se refuerzan entre si (se suman las
    probabilidades de ocurrencia) son los de recorrido mas corto.
    Estos están situados en la región central del
    espejo, de allí que la realidad de la reflexión
    total esta dada porque los fotones , si bien pueden recorrer
    el camino que les plazca con igual probabilidad, el resultado
    final será que para el conjunto de todos los fotones
    que componen el haz de luz, el camino más probable
    será aquel que impacta y refleja con el mismo
    ángulo sobre el espejo.

  • 3. Otros fenómenos luminosos: Tales como la
    refracción, la difracción, la interferencia,
    también fueron explicados por Feynman de la misma
    manera, es decir teniendo en cuenta que podemos conocer lo
    que hará un numero grande de fotones (entidades
    quánticas) probabilisticamente, pero que es un
    misterio cual es el comportamiento individual de cada uno de
    ellos.

La
Cromodinámica cuántica (QCD) como analogía
de la QED

Así como esta teoría de la
electrodinámica cuántica (QED) describe como las
partículas cargadas interactúan a través del
intercambio de fotones; al desarrollar el estudio de los Quarks
(que veremos en la próxima sección), uno de los
tipos de partículas componentes de la materia conocida
(protones y neutrones), se creo por analogía, la
teoría de la Cromodinámica quántica (QCD).
Esta teoría describe como los quarks interactúan
entre ellos a través del intercambio de gluones. El nombre
cromo surge de una propiedad particular que los quarks y los
gluones tienen la cual es análoga a la carga
eléctrica, y a la que se le da el nombre de carga de
color. No significa que tengan color sino que se utiliza esta
nomenclatura
como una forma de distinguir una propiedad característica
de estas partículas al estudiar el tipo de fuerzas por las
que se unen o se rechazan. Los tres colores que se usan para
denominar o distinguir a los quarks son rojo, azul y verde;
algunos físicos cambian este ultimo por el amarillo.

El fundamento de esta teoría, soportado por un
desarrollo matemático complejo y avanzado, es que
solamente pueden existir combinaciones de quarks que sean
incoloras. Esto se logra de dos formas diferentes:

  • Tres quarks de diferentes colores dan una unión
    posible al ser incolora, tal como la combinación de un
    electrón (-) y un protón (+) da una
    combinación estable de carga neutra.

  • Una combinación de un par quark-antiquark
    también es incolora y por lo tanto posible.

Estas reglas de combinación se aplican a la
conformación de todas las partículas, es así
como veremos en la conformación de los protones y los
neutrones mediante quarks, que el tema del color de los mismos
debe tenerse en cuenta.

Partes: 1, 2, 3, 4
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter