Realidad Cuántica

Un Extracto del Libro Quantum Sorcery
Por David Smith

“Aquellos que no quedan impactados cuando por primera vez se encuentran con la mecánica cuántica posiblemente es porque no lo han comprendido.”– Niels Bohr

En el primer capítulo, analicé la opinión de que el acto de adivinar el futuro a través de los métodos oraculares tiene como consecuencia influenciar el futuro. Esto significa que los acontecimientos que son observados pueden ser cambiados por el mismo acto de observación. En 1927, una teoría nueva de cómo la mecánica de la realidad opera reveló que de forma implícita esta creencia podría ser cierta. En este capítulo, presentaré una introducción muy breve a algunos de los conceptos y teorías de la mecánica cuántica y así proveer un fundamento para comprender conceptos que se presentarán a lo largo del resto de este libro. Contundentemente promuevo ulterior investigación de estos temas. Una mayor comprensión de cómo interactúan la materia y la energía puede ser un valor invaluable para un brujo.

La mecánica cuántica como disciplina debe su desarrollo a una procesión de matemáticos y físicos distinguidos. Muchos de ellos fueron adversarios que estaban activamente dando apoyo a modelos distintos a los de la disciplina emergente. En un gran número de casos, los descubrimientos importantes se hicieron por individuos o grupos que trataban de desmentir teorías oposicionistas. En algunos casos, fueron rivalidades cordiales, mientras en otros hubo muchísimo rencor.

Se pueden rastrear los comienzos de la mecánica cuántica en el estudio de la radiación. En 1859, Gustav Kirchhoff propuso una teoría sobre radiación térmica que él más tarde llamó radiación de cuerpo negro. Un cuerpo negro es un objeto que absorbe y emite perfectamente toda energía que lo golpea, y Kirchhoff concluyó que la cantidad de energía emitida se basaba en la temperatura y la frecuencia de la energía. Cuándo fue publicado, al teorema le faltaba todavía la función que describía precisamente cómo estos valores se relacionaban con la energía total, y Kirchhoff desafió a otros físicos a encontrar esto. Un gran número de soluciones parciales fueron sugeridas durante los siguientes cuarenta años, pero ninguna satisfizo la relación de todas las longitudes de onda de energía. No fue hasta el año 1900 que la solución fue finalmente descubierta por Max Planck.

Para escribir su fórmula, Planck supuso que los átomos pueden absorber o pueden emitir energía sólo en paquetes discretos, a los cuáles llamó quanta (plural de cuanto). Esta teoría refutó ideas en la física clásica, como el punto de vista de que la energía fluía como líquido en una corriente continua. No fue hasta 1905 que ganó más amplia aceptación luego de ser citada por Albert Einstein para explicar el efecto fotoeléctrico. Planck resolvió que hay una constante de proporcionalidad entre la frecuencia de una onda y su energía mínima. Esto es conocido como la constante de Planck, y tiene un valor de 1.05 x 10-27 gram-cm por segundo.

Durante ese tiempo, la comprensión de la estructura del átomo mismo fue también transformada totalmente. El modelo simple planteado por Ernest Rutherford y refinado por Niels Bohr, en el que los electrones orbitaban alrededor de un núcleo como los planetas alrededor de una estrella mostró ser incorrecto. Un descubrimiento fue que se descubrió que los electrones se ejercen interferencia uno sobre otro, comportándose como si fuesen ondas más bien que como partículas. Además, fue hallado que en vez de seguir una órbita estable y previsible alrededor del núcleo, las posiciones de los electrones individuales sólo podrían ser acertadamente representadas como campos de probabilidad, donde cada uno tenía más probabilidad de ser localizado en cualquier tiempo dado de observación. Además, los electrones parecían no seguir un camino previsible ya que, en efecto, saltaban de un campo de probabilidad a otro.

La implicación de que un observador tiene un efecto mensurable en el comportamiento de la materia al nivel subatómico era contraria al modelo del universo que la mayoría de científicos habían estado utilizando desde los comienzo del siglo diecinueve. Este modelo, planteado por Marquis de Laplace, sostenía que el universo era completamente determinista. Esto quería decir que si el estado del universo pudiese ser determinado en cualquier punto en el tiempo, entonces debería existir un conjunto de leyes que permitirían el cálculo de cualquier estado anterior o futuro. Si la mecánica cuántica es cierta, entonces este modelo es rebatido; El universo es no determinista, y la habilidad de predecir estados pasados y futuros basados en el presente es eliminada.

Una de las propiedades físicas de la aparente materia sólida que fue revelada a través de experimentación es que tiene una naturaleza dual. Dependiendo de las circunstancias bajo la cuál es observada, la materia parece comportarse ya sea como una partícula o como una onda. Si un único electrón es proyectados hacia una superficie con dos hendijas paralelas en ella, y una superficie sólida detrás de las hendijas, los patrones de interferencia pueden ser observados como si ese electrón fuera una onda. Si una de las hendijas es cubierta, y el experimento es repetido, entonces el patrón de interferencia desaparece. Esto significa que cada electrón pasa a través de ambas hendijas simultáneamente y interfiriendo consigo mismo. Pero ese mismo electrón también puede ser observado como una partícula con propiedades como masa y el impulso con el que puede ser medido. Cuando un electrón es observado de esta manera, se dice que su campo de probabilidades de su forma de onda ha colapsado en una única posición en el espacio. Hasta entonces, su estado exacto no puede ser predicho.

Werner Heisenberg se ocupó de este fenómeno en un ensayo publicado en 1927. Él indicó que cuanto más precisamente la posición de una partícula es determinada, menos precisamente su momentum o ímpetu es conocido. En otras palabras, si la posición de un electrón es observada, entonces sus propiedades de onda pierden relevancia, y si el momentum de su forma de onda es observado, entonces su posición como partícula en el espacio se vuelve más difícil de predecir. Esto llegó a ser conocido como el "Principio de Incertidumbre".

El nuevo modelo que emergió en 1927 fue conocido como la Interpretación de Copenhague de la mecánica cuántica. Esto fue debido al trabajo que Bohr, Heisenberg, y otros habían realizado en el instituto de Bohr en Copenhague, Dinamarca. Este modelo incorporó la dualidad de la partícula/onda y la influencia basada en la observación en los estados cuánticos, y fue tanto defendido como condenada por algunos de los físicos más prominentes y los matemáticos de su tiempo. Al defender el modelo, Heisenberg admitió que “ el aparato de medición se ha construido por el observador, y tenemos que acordarnos de que lo que observamos no es la naturaleza en sí, excepto naturaleza expuesta a nuestro método de cuestionar.” Dentro de las existentes limitaciones matemáticas y basadas en la observación, los modelos de la mecánica cuántica se desempeñaron bien al explicar cómo la materia y la energía interactúa a un nivel atómico, pero la teoría todavía era considerada deficiente por muchos físicos clásicos.

Erwin Schrödinger consideró que la habilidad de la mecánica cuántica para describir el comportamiento de materia a una mayor escala era incompleta . Él ilustró esto en un experimento de reflexión famoso en 1935 en los cuales un gato es colocado en una caja con una fuente de radiación y una cápsula del gas de cianuro. Si la fuente de radiación emite una partícula en un lapso de tiempo dado, entonces la cápsula del gas será rota, matando al gato. Hasta que la caja sea abierta, y el estado del sistema sea observado, hay igual de probabilidades de que la partícula haya sido emitida, y así de que el gato esté ya sea vivo o muerto. De acuerdo con la mecánica cuántica, la probabilidad no será precipitada al estado real hasta que la caja sea abierta, de esa manera es el acto de observación misma el que es considerado el responsable de esta precipitación. También Einstein vigorosamente resistió esta teoría, y de hecho se burló de ella. Él preguntó si el universo cambiaba o no cada vez que un ratón lo miraba.

Las Fuerzas y Partículas Fundamentales

En mucha oportunidades los físicos habían creído haber identificado las partículas más básicas de la materia, pero en cada caso, posteriores análisis han producido otro grupo aun más pequeño de partículas que se combinan para contener aquellos anteriores componentes primordiales. Al principio, se pensaba que el átomo era la unidad mínima de la materia. Esta creencia había sido mantenida desde su concepción por el filósofo griego clásico Demócrito que bautizó a esta unidad fundamental con el nombre de átomos, o indivisible. El átomo fue convertido en el núcleo y una horda de electrones (lo cuáles son solamente una de las seis variedades de una familia de partículas relacionadas conocidas como Leptones) por Ernest Rutherford en 1911. Luego, en 1932, James Chadwick descubrió que el núcleo consistía de protones y neutrones. En 1964, Murray Gell Mann matemáticamente dedujo la teoría de que los protones y los neutrones consistía cada uno de tres quarks, y así la idea de qué es lo que exactamente constituye una partícula básica fue reducida en escala otra vez. Otros quarks han sido con posterioridad identificados, e investigaciones en CERN en Suiza, el Centro del Acelerador Lineal Stanford (SLAC) en California, y Fermilab en Illinois han revelado todavía más partículas que resultan de la descomposición y colisión de partículas mayores a altos niveles de energía.

No todas la partículas que han sido teorizadas pueden ser detectadas. Algunas, como los gravitones y los gluones, son virtuales, y se usan para conceptualizar mejor las interacciones de fuerza entre otras partículas. Conjuntamente, estos partículas que acarrean fuerza son llamados bosones en honor de la física india Satyendra Bose.

Una de las propiedades atribuidas a las partículas fundamentales es el espín (giro). Se considera que es análogo a la velocidad angular, como si la partícula girara alrededor de un eje. Esta propiedad fue concebida en 1925 por George Uhlenbeck y Samuel Goudsmit para resolver la observación de que los electrones exhibían propiedades magnéticas. El espín es una propiedad intrínseca de cada tipo de partícula, y se a demostrado que cada partícula gira a un rango constante, idéntico a aquel de todas las demás partículas y teniendo el mismo valor de giro. Se ha descubierto que todas las partículas de la materia, como el electrón mismo, tienen un espín semi-entero. Estas partículas son conjuntamente conocidas como fermiones en honor de físico americano en italiano Enrico Fermi. Se ha hallado que la mayor parte de los bosones portadores de fuerza tiene un espín entero, excepto el gravitón, que tiene un espín par. Un grupo de bosones teorizados que no han sido experimentalmente verificados - se piensa tienen una espín de cero, u otras fracciones que no incluyan la mitad.

Basadas en el intercambio de los bosones que portan fuerza entre partículas, cuatro fuerzas básicas han sido identificadas las cuáles describen la forma en que la materia interactúa. Éstas son gravitación, electromagnetismo, la fuerza nuclear fuerte, y la fuerza nuclear débil. Es posible que haya otras fuerzas, aún sin descubrir e inobservadas, pero éstas cuatro son capaces de explicar el comportamiento de la materia en el estado corriente del universo. En un universo muy joven, fracciones de segundo infinitesimales después del “ Big Bang, ” se piensa de que todas las cuatro fuerzas surgieron de una, así es que es teóricamente factible sugerir de que como el universo continúa enfriándose y expandiendo, otras fuerzas aún podrían emerger.

La fuerza gravitacional tiene lugar en todas las partículas con masa, atrayendo equitativamente sin importar la carga o estado. Es capaz de actuar a largas distancias. El bosón para esta fuerza, el gravitón, es una partícula sin masa que viaja en la velocidad de luz. A un nivel cuántico, se ha hallado que esta fuerza es mucho más más débil que las otras tres. La Teoría-M, modelo de la materia, que es discutida en mayor detalle más adelante, ha sugerido de que esta debilidad es debida a la pérdida de mucha de la energía del gravitón en el espacio extradimensional.

La fuerza electromagnética afecta sólo partículas cargadas tal como los electrones, y no tiene influencia en las partículas que no tienen carga. Esta fuerza también tiene una polaridad, ya sea una negativa o una positiva. Las cargas con polaridades contrarias son atraídas una a otra, mientras que las cargas idénticas se repelen. Esta fuerza es mucho más fuerte que la gravedad, y mantiene a los electrones en órbita alrededor de los protones positivamente cargados en el núcleo atómico. El bosón del electromagnetismo, el fotón, es carente de masa, y representa el cuanto de energía mínimo posible de esta fuerza.

La fuerza nuclear débil afecta a las partículas que consisten de materia, como los electrones, los protones, y los neutrones. Su fuerza está limitada a distancias más pequeñas que un núcleo atómico. Esta fuerza es también responsable de la propiedad de radioactividad. Esta fuerza es portadas por dos partículas, los bosones W y Z. Estos son comparativamente grandes y de corta vida comparados con las otras partículas que portan fuerza.

La fuerza nuclear fuerte une a los quarks para formar protones y neutrones, también manteniendo unidas estas partículas resultantes en el núcleo atómico. Esta es la más fuerte de las fuerzas elementales, y su bosón es conocido como el gluón.

Cada tipo de partícula también tiene una antipartícula asociada, la cual tiene la misma masa, pero espín, fuerza nuclear y carga contrarias. Paul Dirac propuso la primera antipartícula, el positrón, como parte de un ensayo en 1928 explicando el espín de los electrones. Esta partícula fue más tarde observada experimentalmente por Carl Anderson en 1932. Si una partícula y su antipartícula entran en contacto una con la otra, se aniquilarán la una a la otra, emitiendo partículas secundarias y una gran cantidad de energía.

Conjuntamente, todas estas partículas y las fuerzas no gravitacionales han sido incorporadas en lo que es conocido como el Modelo estándar de física de partículas. Sin embargo, este modelo está todavía incompleto. Para reconciliar las fuerzas y partículas comprendidas hay diecinueve parámetros que deben ser definidos e introducidos en las ecuaciones cuánticas para dar lugar a las ecuaciones que igualan los resultados experimentalmente derivativos. El modelo también fracasa al tratar de incluir la fuerza gravitacional. Incluir a esta última fuerza en este modelo, y esencialmente cuantizar la relatividad general se ha convertido en lo que algunos físicos se han referido como “ el Santo Grial de la física.”

Unificación

En los más pequeño niveles teorizados de la realidad, toda dimensionalidad y todo tiempo se compone de lo que ha sido llamado espuma cuántica. La escala en la cual este efecto es considerado manifestarse está por debajo de aproximadamente los 10 -35 de longitud, una distancia conocido como la longitud Planck. Debajo de este nivel ultramicroscópico, las fluctuaciones cuánticas desestabilizan campos electromagnéticos y gravitacionales que se ven estables a una mayor escala. Es a este nivel donde el refinado modelo de espacio-tiempo de la relatividad general fracasa. En un intento de reconciliar los irreconciliables modelos, los físicos comenzaron a considerar nuevos métodos de describir matemáticamente las dos teorías irreconciliables, lo mismo que han hecho con las fuerzas fundamentales.

En 1967, varios investigadores trabajando independientemente propusieron teorías que combinaban la fuerza nuclear débil con la fuerza electromagnética. Después de este avance hubo intentos de combinar estas fuerzas con la fuerza nuclear fuerte para crear una gran teoría unificada, o TGU. Como Stephen Hawking comentó; “Este título es más bien una exageración: Las teorías resultantes no son tan grandiosas, ni son completamente unificados, como que no incluyen la gravedad.” Además, el nivel de energía requerido para reconciliar estas tres fuerzas como una es aproximadamente 1013 veces mayores que la capacidad de los aceleradores de partículas existentes, así que cualquier solución teórica es en la actualidad imposible de verificar experimentalmente. Tratar de combinar la gravedad en el TGU ha producido un gran número de teorías, incluyendo la teoría de la supergravedad y la de cuerdas...

La teoría de la supergravedad combina otra teoría, conocida como la supersimetría con relatividad general tradicional. En el modelo de supersimetría, se piensa que cada de partícula fundamental de la materia, o fermión tiene como contrapartida a un bosón portador de fuerza conocido como una partícula super compañera. En el caso concreto de la supergravedad, el gravitón se piensa que tiene una contraparte, el gravitino que es demasiado pequeño para ser detectado aún. La teoría Supergravedad también abarca el concepto propuesto por primera vez por Theodore Kaluza en 1919 de que hay imperceptibles dimensiones adicionales “acurrucadas” adentro del espacio infinitesimal. En 1995, Edward Witten teorizó acerca de que la supergravedad era un caso específico de uno de los modelos de la teoría de cuerdas.

La teoría de cuerdas representa los componentes menores de la materia como filamentos vibrantes de una sola dimensión en vez de como partículas punto. Se piensa que las cuerdas aparecen como partículas de punto sólo debido a las limitaciones de los instrumentos para distinguir tal dimensionalidad a escala ultramicroscópica. Esta visualización pone más énfasis en la naturaleza de onda de la materia que las teorías precedentes. Las diferentes frecuencias vibracionales de las cuerdas individuales - se piensa - es el motivo de la presencia y las diferencias de las numerosas partículas básicas. Surgieron cinco modelos diferentes de esta teoría, satisfaciendo cada uno los parámetros del modelo global. Se pensaba al principio de que una estaba en lo correcto, y que las otras cuatro con el tiempo se descartarían experimentalmente, pero la investigación ha mostrado que las cinco parece ser formas diferentes de describir la misma teoría global.

En 1995, Edward Witten creó la Teoría M en un intento de reconciliar las cinco teorías individuales de cuerdas con la supergravedad. Según Witten, la letra “ M simboliza magia, misterio o matrix (matriz), conforme al gusto de cada uno.” Esta teoría combinada asume la existencia de once dimensiones, diez de espacio y una de tiempo, y también supone que las cuerdas son los bloques constructivos fundamentales de la materia. Además de cuerdas, dos membranas dimensionales y estructuras super-dimensionales conocidas genéricamente como P-branas son también parte de la teoría. Una estructura brana que contiene una cantidad masiva de energía podría volverse lo suficientemente grande como para contener el entero universo conocido. Esta brana masiva tendría que existir como una característica en un mayor y superior espacio dimensional.

Hay desacuerdo todavía entre los físicos en lo que se refiere a cuál de los varios modelos de realidad tiene más probabilidad de contestar el máximo número de preguntas, así como también explicar interacciones entre partículas polémicas pero experimentalmente observadas que contradicen teorías ampliamente aceptadas en las posturas clásicas de la física.

Entrelazado Cuántico

Una de estas propiedades en las cuales los sistemas cuánticos aparentemente violan anteriores modelos es conocida como el entrelazamiento cuántico. Este estado ocurre en ciertas situaciones en las cuales las propiedades observables de una partícula están inseparablemente vinculadas a las propiedades de otra. Este efecto es también llamada no-localidad, ya que viola el principio de localidad que indica que acontecimientos ocurriendo en un punto en el espacio deberían no tener efecto inmediato en aquellos en otra localización. Ésta es una consecuencia de la teoría de relatividad especial, la cual afirma de que la información no puede viajar más rápido que la velocidad de luz.

Una implicación de la no-localidad es de que los estados cuánticos pueden ser medidos o alterados sin observación directa. Si dos partículas son entrelazadas, entonces el estado de una de éstas puede ser determinado o alterado observando o manipulando a su par. Einstein consideró que la posibilidad de este fenómeno propuesto por la mecánica cuántica indicaba que la teoría debía estar incompleta, y debía contener variables ocultas. Si esto fuera cierto entonces la teoría no era una descripción precisa de la realidad, sino que solamente una aproximación estadística.

En un debate con Bohr, Einstein aludió a esta violación propuesta de la localidad como “ acción fantasmagórica a distancia.” Él publicó un ejercicio de pensamiento con Boris Podolsky y Nathan Rosen en 1935 para refutar el amplitud de la mecánica cuántica, el cual ha llegado a ser conocido como la paradoja EPR. En 1964, John Bell disputó la incorporación de variables ocultas. Él publicó una colección de relaciones matemáticas, ahora conocidas como las desigualdades de Bell para apoyar su posición e ilustrar la validez de los efectos no locales en un par de partículas entrelazadas.

En 1982, un equipo de investigación liderado por Alain Aspect experimentalmente verificó que dos fotones del mismo átomo emitidos en direcciones opuestas fueron capaces de afectar su comportamiento el uno al otro a distancia sin intercambiar alguna tipo de señal detectable a través del espacio. Como Aspect indica en un posterior artículo:

Debemos concluir de que un fotón par EPR entrelazado es un objeto no separable; Es decir, es imposible asignarle propiedades locales individuales a cada fotón (realidad física local). En algún sentido, ambos fotones se mantienen en contacto a través del espacio y tiempo.

En 1998, otro grupo de investigación liderado por Gregor Weihs confirmó las conclusiones del equipo de Aspect en un experimento que incrementó la distancia entre los puntos de observación de las partículas etrelazadas de los doce metros de distancia usados en el anterior estudio a 400 metros para más hacer valer las condiciones de la escenario EPR original más rigurosamente.

Resumen

El estudio de la radiación condujo al descubrimiento de Planck de que los átomos pueden absorber o emitir energía sólo en paquetes discretos que él nombró quanta. Al mismo tiempo, se descubrió que la estructura del átomo mismo es más compleja que lo que se pensaba originalmente. Se hallo que el movimiento de los electrones orbitando alrededor del núcleo es mejor expresado como regiones de probabilidad en lugar de como trayectorias rígidas. Además, se encontró que los electrones se interferencian unos a otros a medida que orbitan, como si fuesen ondas en vez de partículas. La naturaleza dual de la materia fue además verificada por el experimento de las hendijas gemelas que alternativamente causó que los electrones se manifiesten en estas dos formas.

Al intentar definir el funcionamiento de lo recién descubierto Werner Heisenberg formuló su Principio de Incertidumbre en 1927 que indicaba que las propiedades fundamentales de una partícula subatómica, como su posición exacta ysu velocidad no pueden ser conocidos simultáneamente, ya que el acto de medir una de estas propiedades disminuye la relevancia de la otra.

En 1927, Heisenberg colaboró con Niels Bohr y otros físicos en Dinamarca para producir lo que es conocido como la Interpretación de Copenhague de la mecánica cuántica. Esta explicó de forma adecuada cómo interactúan la materia y la energía a un nivel atómico, pero fue con todo y eso criticado por otros físicos, incluyendo a Albert Einstein y Erwin Schrödinger quien creó su experimento de reflexión del " gato en una caja " para ilustrar sus limitaciones.

A medida que se adquiría una mayor comprensión de las partículas básicas, también lo hacía la definición de las fuerzas básicas de la gravedad, el electromagnetismo, y las fuerzas nucleares fuertes y débiles que actúan sobre ellos. Las tres últimas fuerzas fueron incorporadas al Modelo Estándar de la física de partícula, pero la gravedad permaneció sin reconciliarse con las demás. El deseo por describir las relaciones entre las tres fuerzas estándar condujo a la Gran Teoría Unificada, la cual en la actualidad no puede ser verificada experimentalmente.

Tentativas matemáticas en relacionar la gravedad en la Gran Teoría Unificada llevaron a la creación las teorías de la supergravedad y la teoría de cuerdas, siendo esta última la que declaró que la materia estaba compuesta de filamentos vibratorios de una sola dimensión dimensionados en distancia Planck. Cinco versiones diferentes de la teoría de cuerdas fueron finalmente desarrolladas. La teoría M finalmente, emergería para unificar todo así como también a la supergravedad.

Mientras que las teorías actuales han provisto explicaciones para muchos de los comportamientos observados de la materia y la energía, hay todavía numerosas preguntas sin responder y propiedades de interacción de partículas inexplicadas. El estado de entrecruzamiento cuántico, originalmente citado por Einstein para ilustrar la incompletitud de la mecánica cuántica fue analizado matemáticamente por John Bell, quien creó un conjunto de funciones que parecen validar los efectos no locales en un par de partículas entrecruzadas. Alain Aspect y otros investigadores han ejecutado una serie de experimentos que han probado la capacidad de percepción no local de información entre partículas entrecruzadas, aparentemente violando la teoría de la relatividad especial de Einstein.

Una comprensión de la física puede proveer al Mago de un poderoso juego de herramientas para la visualización, así como también un set de símbolos que pueden servir para manipular la realidad. A una escala ultramicroscópica, el tejido del espacio y el tiempo son teorizados como una tormenta caótica de espuma cuántica dónde fluctuaciones violentas desestabilizan campos electromagnéticos y gravitacionales. A este nivel de abstracción, posibilidad y probabilidad son funcionalmente intercambiable y dimensiones ocultas yacen envueltas dentro de sí mismas en todos los puntos del espacio conocido. Esto es materia y energía en su forma más primitiva, en donde podrán ser forzadas a tomar el lugar de la probabilidad.

 
Creative Commons License
Perfect Red King by Caoslectivo Rey Rojo is licensed under a Creative Commons Reconocimiento-No comercial-Sin obras derivadas 3.0 España License
.