Incertidumbre de Heisenberg
El principio de incertidumbre de Heisenberg es uno de los resultados más célebres de la mecánica cuántica y afirma que uno (a menudo, pero no siempre) no puede saber todas las cosas sobre una partícula (tal y como la define su función de onda) al mismo tiempo. Este principio se manifiesta matemáticamente como operadores no conmutativos.
El Principio de Incertidumbre de Heisenberg afirma que existe una incertidumbre inherente en el acto de medir una variable de una partícula. Aplicado comúnmente a la posición y el momento de una partícula, el principio afirma que cuanto más precisa es la posición conocida, más incierto es el momento y viceversa. Esto es contrario a la física newtoniana clásica, que sostiene que todas las variables de las partículas pueden medirse con una incertidumbre arbitraria si se dispone de equipo suficiente. El Principio de Incertidumbre de Heisenberg es una teoría fundamental de la mecánica cuántica que define por qué un científico no puede medir múltiples variables cuánticas simultáneamente. Hasta los albores de la mecánica cuántica, se consideraba un hecho que todas las variables de un objeto podían conocerse simultáneamente con precisión exacta en un momento dado. La física newtoniana no ponía límites a la forma en que mejores procedimientos y técnicas podían reducir la incertidumbre de las mediciones, de modo que era concebible que, con el cuidado y la precisión adecuados, se pudiera definir toda la información. Heisenberg hizo la audaz proposición de que existe un límite inferior a esta precisión que hace que nuestro conocimiento de una partícula sea inherentemente incierto.
El efecto Heisenberg
En mecánica cuántica, el principio de incertidumbre (también conocido como principio de incertidumbre de Heisenberg) es cualquiera de una variedad de desigualdades matemáticas[1] que afirman un límite fundamental a la precisión con la que los valores de ciertos pares de magnitudes físicas de una partícula, como la posición, x, y el momento, p, pueden predecirse a partir de las condiciones iniciales.
Tales pares de variables se conocen como variables complementarias o variables canónicamente conjugadas; y, dependiendo de la interpretación, el principio de incertidumbre limita hasta qué punto tales propiedades conjugadas mantienen su significado aproximado, ya que el marco matemático de la física cuántica no admite la noción de propiedades conjugadas simultáneamente bien definidas expresadas por un único valor. El principio de incertidumbre implica que, en general, no es posible predecir el valor de una cantidad con una certeza arbitraria, aunque se especifiquen todas las condiciones iniciales.
Introducido por primera vez en 1927 por el físico alemán Werner Heisenberg, el principio de incertidumbre afirma que cuanto más precisa sea la determinación de la posición de una partícula, menos preciso será predecir su momento a partir de las condiciones iniciales, y viceversa. En el artículo publicado en 1927, Heisenberg concluyó originalmente que el principio de incertidumbre era ΔpΔq ≈ h utilizando la constante de Planck completa[2][3][4][5] La desigualdad formal que relaciona la desviación típica de la posición σx y la desviación típica del momento σp fue derivada por Earle Hesse Kennard[6] ese mismo año y por Hermann Weyl[7] en 1928:
Transformada de Heisenberg
En 1927, Werner Heisenberg se encontraba en Dinamarca trabajando en el instituto de investigación de Niels Bohr en Copenhague. Los dos científicos colaboraban estrechamente en investigaciones teóricas sobre la teoría cuántica y la naturaleza de la física. Bohr estaba de vacaciones esquiando y Heisenberg tuvo que reflexionar. Se dio cuenta de los límites del conocimiento físico: el acto de observar altera la realidad observada. Al menos a nivel subatómico. Para medir las propiedades de una partícula, como un electrón, hay que utilizar un dispositivo de medición, normalmente luz o radiación. Pero la energía de esta radiación afecta a la partícula observada. Si se ajusta el haz de luz para medir con precisión la posición, se necesita un haz de corta longitud de onda y alta energía. Le indicaría la posición, pero su energía desviaría el momento de la partícula. Entonces, si se ajusta el haz a una longitud de onda más larga y una energía más baja, se podría medir con más precisión el momento, pero la posición sería inexacta.
Principio de incertidumbre deutsch
Es una ley fundamental de la teoría cuántica que define el límite de precisión con el que pueden determinarse dos magnitudes físicas complementarias. Si una de las magnitudes se mide con gran precisión, la otra magnitud correspondiente sólo puede determinarse necesariamente de forma imprecisa. En otras palabras, es imposible medir simultáneamente ambas magnitudes complementarias con mayor precisión que el límite definido por el principio de incertidumbre de Heisenberg.
Un ejemplo de estas magnitudes complementarias son la posición y el momento de una partícula cuántica: Una determinación muy precisa de la localización imposibilita afirmaciones precisas sobre su momento y viceversa.
Nube de etiquetasAgujeros negros & Co. Cosmología Detección de ondas gravitacionales Einstein Energía Relatividad general Teoría general de la relatividad Geometría Gravitación Fuentes de ondas gravitacionales Ondas gravitacionales Cómo rastrear objetos compactos La luz en la relatividad general Masa Materia Movimiento Newton Relatividad y cuántica Espaciotiempo Relatividad especial Relatividad especial y tiempo Teoría de cuerdas Fundamentos de la relatividad general Tiempo