La Mecánica Cuántica

La mecánica cuántica es la rama de la física relativa a lo muy pequeño.

Lo que puede parecer ser algunas conclusiones muy extrañas sobre el mundo físico. En la escala de átomos y electrones, muchas de las ecuaciones de la mecánica clásica, que describen cómo las cosas se mueven en tamaños y velocidades cotidianas, dejan de ser útiles.

En la mecánica clásica, los objetos existen en un lugar específico en un momento específico. Sin embargo, en la mecánica cuántica, los objetos en su lugar existen en una nube de probabilidad.

Tienen una cierta posibilidad de estar en el punto A, o de encontrarse en el punto B y así sucesivamente.

Tres principios revolucionarios

​La mecánica cuántica (MQ) se desarrolló hace algunas décadas, comenzando como un conjunto de polémicas explicaciones matemáticas de experimentos que la mecánica clásica no podía explicar.

Comenzó a principios del siglo XX, aproximadamente en la misma época en que Albert Einstein publicó su teoría de la relatividad, una revolución matemática separada en la física que describe el movimiento de las cosas a altas velocidades.

A diferencia de la relatividad, los orígenes de la MQ no pueden atribuirse a ningún científico. Más bien, varios científicos contribuyeron a una fundación de tres principios revolucionarios que gradualmente ganaron aceptación y verificación experimental entre 1900 y y 1930. Siendo las:

Propiedades cuantificadas, Partículas de luz y Ondas de materia.

Propiedades cuantificadas.

Ciertas propiedades, como la posición, la velocidad y el color, a veces sólo pueden ocurrir en cantidades fijas específicas, al igual que un dial que “hace clic” de número a número. Esto desafió un supuesto fundamental de la mecánica clásica, que dijo que tales propiedades deben existir en un espectro liso, continuo.

Para describir la idea de que algunas propiedades “hicieron clic” como un dial con configuraciones específicas, los científicos acuñaron la palabra “cuantizada”.

Partículas de luz.

La luz a veces puede comportarse como una partícula. Esto fue inicialmente recibido con duras críticas, ya que se opuso a 200 años de experimentos que muestran que la luz se comportó como una ola; como las ondulaciones en la superficie de un lago tranquilo.

La luz se comporta de manera similar, aunque rebote de las paredes y se dobla alrededor de las esquinas, y que las crestas y los valles de la ola pueden sumarse o anularse.

Las crestas de ola agregadas dan como resultado una luz más brillante, mientras que las ondas que se anulan producen oscuridad. Una fuente de luz puede ser pensada como una pelota en un palo que se sumerge rítmicamente en el centro de un lago. El color emitido corresponde a la distancia entre las crestas, que se determina por la velocidad del ritmo de la bola.

Ondas de materia.

La materia también puede comportarse como una onda. Esto iba en contra de los aproximadamente 30 años de experimentos que demuestran que la materia (como los electrones) existe como partículas.

En 1900, el físico alemán Max Planck trató de explicar la distribución de los colores emitidos sobre el espectro en el resplandor de objetos candentes como los filamentos de bombillas. Planck se dio cuenta de que, al hacer sentido físico de la ecuación que había derivado para describir esta distribución, implicaba que se emitían combinaciones de sólo ciertos colores (aunque gran parte de ellos), específicamente aquellos que eran múltiplos enteros de algún valor base.

De alguna manera, los colores fueron cuantificados. Esto era inesperado porque se entendía que la luz actuaba como una onda, lo que significaba que los valores de color debían ser un espectro continuo.

¿Qué podría estar prohibiendo a los átomos producir los colores entre estos múltiplos de número entero?

Esto parecía tan extraño que Planck consideraba la cuantización como nada más que un truco matemático. Según Helge Kragh en su artículo de 2000 en la revista Physics World, “Max Planck, el revolucionario renuente”, “Si una revolución ocurrió en la física en diciembre de 1900, nadie parecía notarlo.” Planck no fue la excepción.

La cuantización ayudó a explicar otros misterios de la física. En 1907, Einstein utilizó la hipótesis de Planck de cuantificación para explicar por qué la temperatura de un sólido cambiaba por diferentes cantidades si se introducía la misma cantidad de calor en el material pero se cambiaba la temperatura de partida.

Desde principios del siglo XIX, la ciencia de la espectroscopia había demostrado que diferentes elementos emitían y absorbían colores específicos de luz llamados “líneas espectrales“. Aunque la espectroscopia era un método confiable para determinar los elementos contenidos en objetos tales como estrellas lejanas, los científicos estaban perplejos acerca de por qué cada elemento desprendía esas líneas específicas en primer lugar.

En 1888, Johannes Rydberg derivó una ecuación que describía las líneas espectrales emitidas por el hidrógeno, aunque nadie podía explicar por qué funcionaba la ecuación. Esto cambió en 1913 cuando Niels Bohr aplicó la hipótesis de Planck de cuantificación al modelo “planetario” de 1911 de Ernest Rutherford del átomo, que postulaba que los electrones orbitaban el núcleo de la misma manera que los planetas orbitan al Sol.

Según Physics 2000 (una web de la Universidad de Colorado), Bohr propuso que los electrones estuvieran restringidos a órbitas “especiales” alrededor del núcleo de un átomo. Podían “saltar” entre órbitas especiales, y la energía producida por el salto causaba colores específicos de luz, observados como líneas espectrales. Aunque las propiedades cuantificadas se inventaron como un mero truco matemático, dieron la explicación, convirtiéndose en el principio fundador.

“Principio de incertidumbre de Heisenberg”

El principio de incertidumbre, también en 1927, Heisenberg hizo otra contribución importante a la física cuántica. Razonó que, dado que la materia actúa como ondas, algunas propiedades, como la posición y la velocidad de un electrón, son “complementarias”, lo que significa que hay un límite (relacionado con la constante de Planck) con qué exactitud se puede conocer la precisión de cada propiedad, a lo que se llamaría:

Se razonó que cuanto más se conoce la posición de un electrón, menos se puede conocer su velocidad y viceversa. Este principio de incertidumbre se aplica también a los objetos de tamaño cotidiano, pero no se nota porque la falta de precisión es extraordinariamente pequeña.

De acuerdo con Dave Slaven de Morningside College (Sioux City), si la velocidad de una pelota de béisbol es conocida dentro de una precisión de 0.1 mph, la máxima precisión a la que es posible conocer la posición de la pelota es 0.000000000000000000000000000008 milímetros.

Los principios de cuantificación, la dualidad onda-partícula y el principio de incertidumbre introdujeron una nueva era. En 1927, Paul Dirac aplicó una comprensión cuántica de campos eléctricos y magnéticos para dar lugar al estudio de la “teoría del campo cuántico” (QFT en Inglés), que trataba partículas (como fotones y electrones) como estados excitados de un campo físico subyacente.

El trabajo en QFT continuó durante una década hasta que los científicos alcanzaron un obstáculo: Muchas ecuaciones en QFT dejaron de hacer sentido físico porque produjeron resultados del infinito.

Después de una década de estancamiento, Hans Bethe hizo un gran avance en 1947 usando una técnica llamada “renormalización”. Bethe se dio cuenta de que todos los resultados infinitos se relacionaban con dos fenómenos:

La “auto-energía de electrones” y “polarización de vacío”

De este modo los valores observados de masa de electrones y carga de electrones pudieran utilizarse para hacer desaparecer todos los infinitos.

Desde el descubrimiento de la renormalización, ha servido de base para desarrollar teorías cuánticas sobre las cuatro fuerzas fundamentales de la naturaleza:

1) Electromagnetismo

2) Fuerza nuclear débil

3) La fuerza nuclear fuerte

4) La gravedad

La primera visión proporcionada por la teoría del campo cuántico fue una descripción cuántica del electromagnetismo a través de la “electrodinámica cuántica” (QED en Inglés), que hizo avances a finales de los años cuarenta y principios de los cincuenta.

A continuación fue una descripción cuántica de la fuerza nuclear débil, que se unificó con el electromagnetismo para construir la “teoría electrofuga” (EWT en Inglés) a lo largo de los años sesenta.

Finalmente llegó un tratamiento cuántico de la fuerza nuclear fuerte usando “cromodinámica cuántica” (QCD en Inglés) en los años 60 y 70. Las teorías de QED, EWT y QCD juntos forman la base del Modelo Estándar de la física de partículas.

Desafortunadamente, la teoría del campo cuántico todavía no ha producido una hipótesis cuántica de la gravedad. En esa búsqueda continúan hoy los estudios de la teoría de cuerdas y la gravedad cuántica del bucle.​

Deja un comentario