Angel "Java" Lopez en Blog

Ciencia


Publicado el 27 de Julio, 2015, 7:10

Anterior Post

Mencionaba en el anterior post que en 1897, casi al terminar el siglo XIX, Joseph John Thomson llevaba a cabo su experimento con rayos catódicos. En ese experimento, Thomson pudo determinar la razón e/m entre la carga y la masa de los componentes de esos rayos.

Con ese experimento demostró que los rayos catódicos estan compuestos de partículas, hasta ese entonces desconocidas. Vió que eran más pequeñas que los átomos, y con alta razón carga/masa. Con este descubrimiento apareció por primera vez evidencia de que los átomos no son indivisibles, que puede haber partículas subatómicas.

Tomo de la Wikipedia la imagen original de Thomson describiendo su aparato:

El cátodo C emanaba rayos catódicos (hoy sabemos que eran electrones). A las placas D y E se les cargaba eléctricamente y entonces, el haz se desviaba hacia arriba o hacia abajo, dependiendo del signo de la carga de cada placa. Cuando la placa D se cargaba negativamente, el haz era desviado hacia abajo. De ahí dedujo Thomson que los componentes del haz tenían carga negativa. Antes de este experimento, también había detectado que el haz se desviaba bajo un campo magnético. Combinando ambos resultados, pudo calcular la razón entre carga y masa de cada uno de los elementos de los rayos.

Curiosamente, al cambiar la composición del cátodo, la razón carga/masa seguía siendo la misma, lo que mostraba que los componentes descubiertos eran parte de toda la materia, no importaba la composición del cátodo. Cuando Thomson estudió la emisión de ánodos, ahí descubrió que la razón carga/masa variaba según la materia del ánodo usado. Eso se debía a que en este caso, lo emitido eran iones positivos, con distinta composición según el material del ánodo.

Notablemente, Hertz ya había intentado el experimento de arriba, pero sin detectar ninguna desviación del rayo, llegando a la conclusión de que era neutro eléctricamente. Thomson también al inicio no detectó ninguna desviación, pero reconoció que se debía al insuficiente vacío dentro del tubo. Cuando ese vacío fue mejorado pudo comenzar a detectar la desviación del rayo.

El valor de e/m que Thomson obtuvo era miles de veces más grande que los valores correspondientes para los iones bajo electrólisis. Llegó a la conclusión de que los rayos catódicos estaban compuestos por partículas más pequeñas que los iones y de carga negativa. Los llamó "corpúsculos", y a su carga, la llamó "electrón". Más tarde, las partículas mismas pasaron a llamarse electrones.

Veremos en el próximo post, como todo esto y otros resultados llevaron a Thomson a postular un modelo atómico.

Ver también:

http://www.nyu.edu/classes/tuckerman/adv.chem/lectures/lecture_3/node1.html

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 26 de Julio, 2015, 19:01

Anterior Post

En el anterior post apareció el concepto matemático de operador lineal para obtener valores medios de magnitudes físicas de cada función de estado. Estudiamos por ahora el caso discreto. No podemos obtener más que valores medios, porque un estado cuántico es una superposición de estados. En el caso discreto, los estados de base representan uno de los valores discretos posibles. Entonces vimos que para la función de estado que representa ese estado discreto n de una magnitud física, su valor medio es:

Es decir, que coincide con el valor de la magnitud física que ese estado representa.

Un físico espera que los valores de una magnitud física (energía, momento, posición) sean valores reales, no complejos. Recordemos que las funciones de estado devuelven valores complejos. Entonces, para un físico, el valor de arriba, fn, debe ser real. Eso pone una restricción adicional a los operadores para poder considerarlos como operadores que nos permiten obtener valores medios de magnitudes físicas.

Para entender el tipo de restricción que tenemos que imponer a los operadores, examinemos el concepto de operador traspuesto. Dadas dos funciones arbitrarias, tenemos la aplicación del operador a las mismas con la integral:

Si invertimos las funciones, podemos definir el operador traspuesto de f como aquel que cumple, para cualesquiera par de funciones:

Donde representamos el operador traspuesto con una tilde arriba. La existencia y unicidad de ese operador traspuesto de f para cada f es una cuestión matemática, pero la igualdad de arriba es la DEFINICION de ese operador traspuesto.

Todas estas integrales dan como resultado un número, que puede ser real o complejo. Tomemos el conjugado complejo de la integral original:

Podemos considerar el resultado de la integral como la "suma" de la expresión que está bajo el signo integral. Pasemos la conjugación complejo, indicada por un asterisco,  adentro de ese signo.

Definimos el operador complejo conjugado de f por aquel que cumple con la igualdad:

Lo indicamos con un asterisco.

Cuando el resultado de la integral debe ser igual a su conjugado, debe ser:

Pero ya sabemos que, por definición de operador traspuesto, se tiene:

Igualando los términos derechos de ambas igualdades queda:

Para toda función de estado. Es decir, que los operadores traspuestos y complejo conjugado DEBEN coincidir para que los autovalores del operador sean reales:

Los operadores lineales que cumplen con esta condición se llaman hermíticos.

Veremos en el próximo post que las autofunciones del operador que corresponden a distintos autovalores son, en algún sentido, ortogonales. Tenemos que estudiar qué es eso de ortogonalidad.

Todo lo anterior ha sido bastante matemático. Pero ya vamos viendo que los operadores que importan son los operadores hermíticos. Esos son operadores que permiten tener autovalores que son valores reales, no complejos.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez


Por ajlopez, en: Ciencia

Publicado el 23 de Julio, 2015, 7:08

Anterior Post

Si bien esta serie trata de lagrangianos y hamiltonianos, a nivel de notas, sin profundidad de desarrollo, tengo que confesar que la mayor parte de las referencias han sido a lagrangianos. Cuando se plantea la hamiltinoniana, de nuevo una función como la lagrangiana de la que se PUEDEN DERIVAR las ecuaciones de movimiento de un sistema, ¿qué es lo que cambia? La lagrangiana es función de n variables coordenadas (cartesianas o generalizadas), n variables adicionales que son las derivadas de las anteriores por el tiempo (las velocidades de esas coordenadas), y del tiempo. En cambio, veremos que la hamiltoniana es función de n variables coordenadas, n variables momento (generalizados), y el tiempo. Lo interesante es que las variables coordenadas y las variable momentos están relacionadas ENTRE sí, mediante el propio hamiltoniano. No voy a exponer hoy la fórmula de relación (eso aparecerá en la serie matemática). Pero esto hace que las 2n variables se puedan considerar de alguna forma dos grupos de n variables, uno el espejo del otro. Leo hoy en el excelente "Mecánica Clásica" de Goldstein (capítulo 8):

Los métodos de Hamilton no son particularmente superiores a las técnicas de Lagrange en la solución directa de problemas mecánicos. La utilidad del punto de vista de Hamilton consiste, más bien, en proporcionar un marco para extensiones teóricas en muchos campos de la Física. En la Mecánica clásica constituye la base para desarrollos ulteriores, tales como la teoría de Hamilton-Jacobi y los métodos de perturbaciones. Fuera de la Mecánica clásica, la formulación de Hamilton proporciona gran parte del lenguaje con el cual se construyen la Mecánica estadística y la Mecánica cuántica de hoy en día...

En la formulación de Lagrange no relativista, un sistema con n grados de libertad posee n ecuaciones de movimiento ....

De la forma:

Como las ecuaciones son de segundo orden, el movimiento del sistema estará siempre determinado cuando se especifiquen 2n valores iniciales [x y x derividad por tiempo] en un instante particular t, o las [n x] en dos instantes de tiempo t1 y t2. El estado del sistema lo representamos por un punto en un espacio de configuraciones de n dimensiones cuyas coordenadas son las n coordenadas generalizas [x] y seguimos el movimiento del punto figurativo del sistema en el transcurso del tiempo cuando recorre su trayectoria en el espacio de las configuraciones. Físicamente, desde el punto de vista de Lagrange, un sistema con n grados de libertad independientes es un problema de n variables independientes [xi(t)] y [xi-punto(t)] es sólo una abreviatura de la derivada de [xi] respecto del tiempo.

La formulación de Hamilton se basa en una visión fundamentalmente diferente. Queremos describir el movimiento mediante ecuaciones de movimiento de primer orden. Como el número de condiciones iniciales que determinan el movimiento ha de seguir siendo 2n, deberá haber 2n ecuaciones independientes de primer orden expresadas en función de 2n variables independientes. Por tanto, las 2n ecuaciones del movimiento describen el comportamiento del punto figurativo del sistema en un espacio fásico cuyas coordenadas son las 2n variables independientes. En una tal duplicación de nuestro sistema de cantidades independientes es natural (aunque no inevitable) tomarlas de manera que la mitad de ellas sean las n coordenadas generalizadas qi. Según veremos, la formulación resulta casi simétrica si tomamos para la otra mitad las cantidades de movimiento conjuntas o generalizadas pi... Las cantidades (q, p) se denominan variables canónicas.

Sin embargo, desde un punto de vista matemático, podemos pretender que se traten como variables distintas las q y las q-punto. En las ecuaciones de Lagrange... la derivada parcial de L respecto a qi significa una derivada calculada considerando constantes todas las demás q y todas las q-punto. Análogamente, en las derivadas parciales respecto a q-punto, se mantienen constantes las q. Tratada estrictamente como problema matemático, la transición de la formulación de Lagrange a la de Hamilton corresponde a cambiar las variables de nuestras funciones mecánicas de (q, q-punto, t) a (q, p, t), donde p está relacionado con q y q-punto mediante ecuaciones [a ver en la serie matemática de posts]. El método para conmutar las variables de esta manera lo proporciona la transformación de Legendre, planeada precisamente para este tipo de cambios de variable.

Una nota al pie

Una interpretación geométrica de la transformación de Legendre y del papel que desempeña en la teoría de las ecuaciones diferenciales la tenemos en R. Courant y D. Hilbert, Methods of Mathematical Physics, Vol. II, pp/ 32-39, 1962

Escribo q-punto para referirme a q con un punto arriba, que significa q derivada por tiempo. Habrá más detalle de estos temas, como la transformación de Legendre, en la serie matemática de posts.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com/
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 19 de Julio, 2015, 8:46

Anterior Post

Mencioné en el anterior post la necesidad de buscar nuevas formulaciones matemáticas y conceptos para modelar lo que la física cuántica nos ha traído, desde sus experimentos y resultados, y los primeros atisbos de modelos matemáticos.

Para representar un estado físico, hubo que buscar nuevas formas de hacerlo. El principio de superposición (ver Matemáticas y Física Cuántica (3) Superposición de Estados) y el tener que resolver un estado compuesto de varios estados apelando a la probabilidad, son los dos principales motivos para esa necesidad. Dirac adoptó el concepto matemático de vector para representar un estado físico cuántico. Los vectores son elementos abstractos que se pueden sumar entre sí, con lo que dan soporte natural al principio de superposición. Pero uno podría decir: los números reales también se pueden sumar, ¿por qué entonces es necesario apelar a los vectores? La respuesta es larga, pero lo primero a atisbar es que los vectores, en el caso de ser finitos (más precisamente, ser elementos de un espacio vectorial de dimensión finita), en su uso, suma y otras operaciones, no se olvidan de ser entes compuestos de varios otros vectores elementales básicos, al igual que los estados físicos, que pueden representarse como la combinación de estados físicos de base. Y lo mismo pasa con los vectores de espacios de dimensión infinita, adoptando algunos recaudos. Eso es lo que vió Dirac: los vectores son instrumentos matemáticos donde la superposición de estados puede ser expresada, sin dilución, cosa que no pueden lograr los simples números reales ni aún los números complejos.

Recordemos algunas definiciones matemáticas, sin pretender una rigurosidad extrema. Un espacio vectorial líneal (ver Espacios Vectoriales) es un conjunto de elementos, llamados vectores, que pueden sumarse entre sí y pueden multiplicarse por números, dando como resultado otros vectores. En matemática, esos números son  elementos de un cuerpo; en nuestro tema, de aplicación física, nos bastaran los números complejos, tendremos que estudiar alguna vez por qué no alcanzan los números reales para este cometido). Tenemos que ver cómo, en la teoría de Dirac, podemos obtener algún valor físico de esos vectores que representan estados. Por ejemplo, dado un vector de estado, ¿cómo obtenemos la energía de ese estado? ¿o qué valores de magnitudes físicas podemos obtener de un vector? Pues bien, una de las sorpresas que dio la cuántica es que había magnitudes que podía tomar solo un valor discreto, no continuo, y otras que podían tomar un valor continuo. Estudiaremos que en la teoría de la transformación, esa cantidad discreta (finita o no) o continua de valores posibles está relacionada con la dimensión del espacio vectorial de estados. Pero no nos adelantemos.

Pongamos algunos ejemplos de vectores en general. Los hay discretos, que pueden ser representados por una columna de valores (complejos en nuestro caso):

Los valores en columna pueden aparecer en una cantidad finita, pero no descartemos que puedan ser infinitos.
Y también podemos poner como ejemplo el espacio de funciones de cierto tipo, por ejemplo, las funciones diferenciables de una variable, con rango un intervalo definido. Es claro que la suma de dos de tales funciones también pertenece al mismo espacio, así como la función obtenida por multiplicar una función de tal tipo por un número escalar.

Se dice que un conjunto de vectores:

Es linealmente independiente, si cualquier suma de los mismos:

Es cero SI Y SOLO los coeficientes c son iguales a cero. Es decir, los vectores no pueden anularse entre sí, a no ser de la forma trivial, multiplicando a todos por cero. Si esta condición no se cumple, se dice que ese conjunto de vectores es linealmente dependiente.

El número máximo de vectores linealmente independiente que se puede encontrar en un espacio se llama la dimensión de ese espacio. Un conjunto maximal de vectores linealmente independiente se llama base del espacio. Decimos maximal en el sentido: no le podemos agregar ningún vector y que siga siendo linealmente independiente. O lo que es lo mismo: todos los demás vectores se pueden expresar por este conjunto.
Todavía no queda claro cómo los vectores pueden aplicarse como modelo en la mecánica cuántica de los tiempos de Dirac. En el próximo post seguiremos todavía con algunos preliminares matemáticos. Tenemos que estudiar el producto interno, una forma de tomar dos vectores y conseguir un escalar, nuestro primer indicio para obtener valores físicos a partir de estados. Y luego operadores lineales, una forma de transformar vectores en otros vectores, llegando en su momento a su significado físico.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 16 de Julio, 2015, 7:38

Anterior Post

Sigo leyendo, traduciendo y comentando brevemente lo que escribe Dirac sobre la superposición de estados, una característica cuántica no explicable clásicamente:

In the two preceding sections examples were given of the superposition principle applied to a system consisting of a single photon. § 2 dealt with states differing only with regard to the polarization and § 3 with states differing only with regard to the motion of the photon as a whole.

En las dos secciones precedentes fueron presentados ejemplos del principio de superposición aplicados a un sistema de un solo fotón. La sección 2 trataba con estados que diferían solamente en la polarización y la sección 3 con estados que diferían solamente con respecto al movimiento de un fotón como un todo.

Esas secciones las presenté en:

Polarización del Fotón
Interferencia de Fotones

The nature of the relationships which the superposition principle requires to exist between the states of any system is of a kind that cannot be explained in terms of familiar physical concepts. One cannot in the classical sense picture a system being partly in each of two states and see the equivalence of this to the system being completely in some other state. There is an entirely new idea involved, to which one must get accustomed and in terms of which one must proceed to build up an exact mathematical theory, without having any detailed classical picture.

La naturaleza de las relaciones que el principio de superposición requiere que existan entre los estados de cualquier sistema es de una clase que no puede ser explicada en términos de conceptos físicos familiares. Uno no puede en el sentido clásico describir un sistema como estando parcialmente en cualquiera de dos estados y ver la equivalencia de esto con el sistema estando completamente en algún otro estado. Hay una nueva idea involucrada en esto, a la cual uno debe acostumbrarse y en términos de la cual uno debe proceder a construir una teoría matemática exacta, sin dar ninguna imagen clásica detallada.

Dirac prefiere la teoría matemática "exacta" que una imagen clásica que no puede conciliarse con lo que se sabe de los resultados experimentales: la única explicación encontrada a éstos es la superposición de estados, no pueden ser explicados imaginando que un sistema tan simple como un fotón ESTE en un estado determinado. Es típico de Dirac buscar la teoría matemática, mas que la imagen física, como por otro lado, estaba acostumbrado Bohr, a quien Dirac no entendía por apelar cada tanto a analogías y vaguedades, en lugar de plasmar sus ideas en teorías matemáticas.

Aparecen dos conceptos a describir por la teoría: los pesos relativos de cada estado en la superposición, y un valor nuevo, la diferencia de fase, que pasa a explicar con un ejemplo:

When a state is formed by the superposition of two other states, it will have properties that are in some vague way intermediate between those of the two original states and that approach more or less closely to those of either of them according to the greater or less 'weight' attached to this state in the superposition process. The new state is completely defined by the two original states when their relative weights in the superposition process are known, together with a certain phase difference, the exact meaning of weights and phases being provided in the general case by the mathematical theory. In the case of the polarization of a photon their meaning is that provided by classical optics, so that, for example, when two perpendicularly plane polarized states are superposed with equal weights, the new state may be circularly polarized in either direction, or linearly polarized at an angle 1/4 pi, or else elliptically polarized, according to the phase difference.

Cuando un estado está compuesto por la superposición de otros dos estados, tendrá propiedades que están en algún vago modo intermedio entre los dos estados originales y esta aproximación será más o menos cercana a cualquiera de ellos de acuerdo a lo mayor o menor del 'peso' asociado a este estado en el proceso de superposición. El nuevo estado está completamente definido por los dos estados originales cuando sus pesos relativos en el proceso de superposición son conocidos, junto con una cierta diferencia de fase, siendo provistos en el caso general los significados exactos de los pesos y fases por la teoría matemática. En el caso de la polarización de un fotón su significado es provistos por la óptica clásica, por ejemplo, cuando dos estados planos polarizados perpendiculares se superponen con iguales pesos, el nuevo estado puede ser polarización circular en una dirección, o polarización lineal en ángulo de un cuarto de pi, o elípticamente polarizado, de acuerdo con la diferencia de fase.

Es ahí, en el ejemplo de la polarización, donde se pone en juego la influencia de la diferencia de fase en el resultado final. Esa diferencia de fase le da a la teoría cuántica un sabor especial, pues LA INTERFERENCIA entre estados dependerá de esa diferencia de fase, no sólo de sus pesos.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 12 de Julio, 2015, 17:10

Anterior Post

Sigo leyendo y comentando a Dirac en su sección Superposition and indeterminacy de su Principles of Quantum Mechanics:

There remains an overall criticism that one may make to the whole scheme, namely, that in departing from the determinacy of the classical theory a great complication is introduced into the description of Nature, which is a highly undesirable feature. This complication is undeniable, but it is offset by a great simplification, provided by the general principle of superposition of states, which we shall now go on to consider. But first it is necessary to make precise the important concept of a 'state' of a general atomic system.

Aún queda una crítica que puede aplicar al esquema completo, basada en que al apartarce de la determinación de la teoría clásica se introduce una gran complicaicón en la descripción de la Naturalez, lo que es una característica altamente indeseable. Esta complicación no puede negarse, pero se ve compensada por una gran simplicación, provista por el principio general de superposición de estados, que ahora vamos a considerar. Pero primero es necesario hacer preciso el importanto concepto de 'estado' en un sistema atómico general.

Y típico de Dirac, aclara lo más posible qué es lo que entiende por estado, clásico y cuántico:

Let us take any atomic system, composed of particles or bodies with specified properties (mass, moment of inertia, etc.) interacting according to specified laws of force. There will be various possible motions of the particles or bodies consistent with the laws of force. Each such motion is called a state of the system. According to classical ideas one could specify a state by giving numerical values to all the coordinates and velocities of the various component parts of the system at some instant of time, the whole motion being then completely determined. Now the argument of pp. 3 and 4 shows that we cannot observe a small system with that amount of detail which classical theory supposes. The limitation in the power of observation puts a limitation on the number of data that can be assigned to a state. Thus a state of an atomic system must be specified by fewer or more indefinite data than a complete set of numerical values for all the coordinates and velocities at some instant of time. In the case when the system is just a single photon, a state would be completely specified by a given translational state in the sense of § 3 together with a given state of polarization in the sense of § 2.

Tomemos un sistema atómico, compuesto de partículas o cuerpos con propiedades especificadas (masa, momento de inercia, etc) interactuando de acuerdo a leyes de fuerza especificadas. Habrá varios posibles movimientos de las partículas o cuerpos que sean consistentes con las leyes de fuerza. Cada uno de esos movimientos se llama un estado del sistema. De acuerdo a las ideas clásicas uno podría especificar un estado dando valores numéricos a todas las coordinadas y velocidades de los varias partes componentes del sistema, dadas en algún instante del tiempo, quedando el movimiento entero completamente determinado. Ahora el argumento de los párrafos 3 y 4 muestra que no podemos observar un sistema pequeño con tal cantidad de detalle como la teoría clásica supone. Entonces el estado de un sistema atómico debe ser especificado con menos o más indefinidos datos en vez de un conjunto completo de valores numéricos para todas las coordinadas y velocidades en un instante de tiempo. En el caso de un fotón simple, un estado podría ser completamente especificado por un estado de traslación en el sentido de la sección 3, junto con un estado dado de polarización en el sentido de la sección 2.

La gran diferencia: en un estado clásico, conociendo las posiciones y velocidades iniciales, y las características de las partes del sistema (como la masa), el movimiento posterior queda completamente determinado. En el estado cuántico, no basta. No hay conjunto de valores numéricos que nos de como resultado un movimiento determinado. Eso es lo que tiene que resolver la mecánica cuántica: cómo describir un estado, y como asociarlo a movimientos posibles. En la mecánica clásica hay una relación prácticamente uno a uno entre valores iniciales y movimiento posible.

A state of a system may be defined as an undisturbed motion that is restricted by as many conditions or data as are theoretically possible without mutual interference or contradiction. In practice the conditions could be imposed by a suitable preparation of the system, consisting perhaps in passing it through various kinds of sorting apparatus, such as slits and polarimeters, the system being left undisturbed after the preparation. The word 'state' may be used to mean either the state at one particular time (after the preparation), or the state throughout the whole of time after the preparation. To distinguish these two meanings, the latter will be called a 'state of motion' when there is liable to be ambiguity.

Un estado de un sistema puede ser definido como un movimiento sin perturbar que está restrigido por tantas condiciones o datos como es teóricamente posible sin tener mutua interferencia o contradicción. En la práctica las condiciones pueden ser impuestas por una adecuada preparación del sistema, consistente quizás en pasar a través de varios arreglos de aparatos, como ranuras y polarímetros, dejando sin perturbar al sistema luego de la preparación. La palabra 'estado' puede ser usado para significar tanto el estado en un particular tiempo (luego de la preparación), o el estado a través de todo el tiempo luego de la preparación. Para distinguir entre estos dos significados, el último será llamado 'estado de movimiento' cuando haya ambigüedad.

Es interesante que Dirac mencione "sin perturbar". Al pasar por la preparación, y salir de ella, el sistema queda en un estado, que es superposición de otros. Otro problema de la mecánica cuántica es ver si ese estado superpuesto es el mismo durante todo el tiempo posterior a la perturbación, o si cambia de alguna manera determinada por las leyes cuánticas.

The general principle of superposition of quantum mechanics applies to the states, with either of the above meanings, of any one dynamical system. It requires us to assume that between these states there exist peculiar relationships such that whenever the system is definitely in one state we can consider it as being partly in each of two or more other states. The original state must be regarded as the result of a kind of superposition of the two or more new states, in a way that cannot be conceived on classical ideas. Any state may be considered as the result of a superposition of two or more other states, and indeed in an infinite number of ways. Conversely any two or more states may be superposed to give a new state. The procedure of expressing a state as the result of superposition of a number of other states is a mathematical procedure that is always permissible, independent of any reference to physical conditions, like the procedure of resolving a wave into Fourier components. Whether it is useful in any particular case, though, depends on the special physical conditions of the problem under consideration.

El principio general de superposición de la mecánica cuántica se aplica a estados, en cualquiera de esos dos significados, de cualquier sistema dinámico. Requiere de nosotros que asumamos que entre esos estados hay una relación peculiar, que es: cuando el sistema esté definitivamente en un estado podremos considerarlo como estando parcialmente en cada uno de dos o más estados, de una forma tal ue no puede ser concebirse con las ideas clásicas. Cualquier estado puede ser considerado como el resultado de la superposición de dos o más estados, incluso en una cantidad infinita de formas. También, al revés, cualquiera dos o más estados pueden ser superpuesto para obtener un nuevo estado. El procedimiento de expresar un estado como el resultado de la superposición de un número de otros estados es un procedimiento matemático que siempre es permisible, independientemente de cualquier referencia a las condiciones físicas, de forma similar al procedimiento de resolver una onda en sus componentes de Fourier. Sin embargo, la utilidad de este procedimiento aplicado en un caso en particular, depende de las especiales condiciones físicas del problema bajo consideración.

Es MUY interesante que Dirac haga la analogía con los componentes de Fourier. Ya en su primer "paper" influyete, comentando el trabajo de Heisenberg, toma de éste los desarrollos de Fourier para expresar un movimiento periódico. Ahora expresa que una superposición de estados sirve de la misma forma, para describir un estado que ya no puede considerarse clásicamente.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez


Por ajlopez, en: Ciencia

Publicado el 11 de Julio, 2015, 11:50

Anterior Post
Siguiente Post

Desde el año pasado que no agrego algo a estas notas. Me he dedicado directamente a investigar lagrangianos y hamiltonianos. Me encuentro esta semana leyedo el excelente "Mecánica clásica" de Goldstein (tengo edición de Reverté en español). En la sección 2.6 presenta un lagrangiano, lo expone, sin asociarlo a un sistema físico en particular. Luego lo interpreta como un circuito eléctrico y como un sistema mecánico de resortes. Leo ahí:

Esta descripción de dos sistemas físicos diferentes por lagrangianas de la misma forma significa que todos los resultados y técnicas ideados para investigar uno de los sistemas se pueden asumir inmediatamente y aplicar al otro. En este caso particular, se ha proseguido intensamente el estudio del comportamiento de circuitos eléctricos y se han desarrollado algunas técnicas especiales, las cuales pueden aplicarse directamente a los sistemas mecánicos correspondientes. Se ha progresado mucho en la formulación de problemas eléctricos equivalentes para sistemas mecánicos o acústicos y recíprocamente. Expresiones que normalmente se reservan para circuitos eléctricos (reactancia, susceptancia, etc) constituyen los modos de expresión aceptados en gran parte de la teoría de vibraciones de sistemas mecánicos.

Y ahora viene algo más interesante, cómo ha pasado que estas ideas se aplican más allá de la mecánica clásica, en otros temas donde ha aparecido un principio variacional:

Pero, además, existe un tipo de generalización de la Mecánica que se debe a una forma más sutil de equivalencia. Hemos visto que la Lagrangiana y el principio de Hamilton juntos forman una manera invariante compacta de implicar las ecuaciones del movimiento mecánicas. Esta posibilidad no está reservada solamente a la Mecánica; en casi todos los campos de la Física se pueden utilizar principios variacionales para expresar las "ecuaciones de movimiento", tanto si son ecuaciones de Newton, ecuaciones de Maxwell o la ecuación de Schrödinger. En consecuencia, cuando se utiliza un principio variacional como base de la formulación, todos esos campos presentarán, al menos hasta cierto grado, una analogía estructural. Cuando los resultados experimentales muestran la necesidad de alterar el contenido físico de la teoría de un campo, este grado de analogía ha indicado muchas veces como pueden efectuarse alteraciones semejantes en otros campos. Así, los experimentos realizados a principios de siglo indicaron la necesidad de cuantizar la radiación electromagnética y las partículas elementales. Sin embargo, los métodos de cuantización se desarrollaron primero para la Mecánica de partículas, partiendo en esencia de la formulación de Lagrange de la Mecánica clásica. Describiendo el campo electromagnético mediante una lagrangiana y el correspondiente principio variacional de Hamilton, es posible pasar a los métodos de cuantización de partículas para construir una Electrodinámica cuántica.

Hay ejemplos de esa cuantización en las secciones 12.5 y 12.6 del mismo libro. Es interesante ver como la misma forma, la lagrangiana y las ecuaciones de Euler, permiten describir distintos sistemas físicos. Y es de destacar cómo en la realidad física a cada momento nos encontramos con principios variacionales. Eso parece ser parte básica de cómo "funciona" el cosmos.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 9 de Julio, 2015, 19:34

Siguiente Post

Hace unos días comencé a escribir sobre la teoría de la transformación de Dirac. Antes de eso, comenté dos temas de Dirac de su Principles of Quantum Mechancis:

Polarización del Fotón
Interferencia de Fotones

Quisiera completar ese comentario, exponiendo y traduciendo la sección Superposition and indeterminacy de ese libro. Leo:

The reader may possibly feel dissatisfied with the attempt in the two preceding sections to fit in the existence of photons with the classical theory of light....

El lector posiblemente se sienta insatisfecho por el intento de las dos secciones precedentes para conciliar la existencia de fotones con la teoría clásica de la luz...

Esas dos secciones anteriores son las que comenté en los enlaces mencionados, la polarización de fotones y la interferencia de fotones.

... He may argue that a very strange idea has been introduced—the possibility of a photon being partly in each of two states of polarization, or partly in each of two separate beams— but even with the help of this strange idea no satisfying picture of the fundamental single-photon processes has been given. He may say further that this strange idea did not provide any information about experimental results for the experiments discussed, beyond what could have been obtained from an elementary consideration of photons being guided in some vague way by waves. What, then, is the use of the strange idea ?

... Podría argüir que una idea muy extraña ha sido introducida - la posibilidad de un fotón estando parcialmente en uno de dos estados de polarización, o parcialmente en dos haces separados - pero aún con la ayuda de esta idea extraña no se ha dado una imagen satisfactoria de los procesos fundamentales de un fotón aislado. Podría todavía agregar que esta idea extraña no provee ninguna información sobre los resultados experimentales discutidos, más allá de lo que podría ser obtenido por la consideración elemental de los fotones como guiados de alguna vaga manera por ondas. ¿Cuál es, entonces, el uso de esta extraña idea?

Y acá viene una postura muy típica de Dirac: aceptar el modelo matemático, sin necesidad de un modelo clásico del proceso:

In answer to the first criticism it may be remarked that the main object of physical science is not the provision of pictures, but is the formulation of laws governing phenomena and the application of these laws to the discovery of new phenomena. If a picture exists, so much the better; but whether a picture exists or not is a matter of only secondary importance. In the case of atomic phenomena no picture can be expected to exist in the usual sense of the word 'picture', by which is meant a model functioning essentially on classical lines. One may, however, extend the meaning of the word 'picture' to include any way of looking at the fundamental laws which makes their self-consistency obvious. With this extension, one may
gradually acquire a picture of atomic phenomena by becoming familiar with the laws of the quantum theory.

En respuesta a la primera crítica puede notarse que el principal objeto de la ciencia física no es la provisión de imágenes, sino la formulación de leyes que gobiernen los fenómenos y la aplicación de estas leyes al descubrimiento de nuevos fenómenos. Si una imagen existe, mejor, pero que una imagen exista o no es asunto de segunda importancia. En el caso de los fenómenos atómicos no hay imagen que pueda esperarse que existe en el sentido usual de la palabra 'imagen', entendida como un modelo funcionando esencialmente de acuerdo a las líneas clásicas. Sin embargo uno puede extender el significado de la palabra 'imagen' para incluir cualquier modo de ver a las leyes fundamentales que muestre como obvia a su auto-consistencia. Con esta extensión, uno puede gradualmente adquirir una imagen de los fenómenos atómicos al habituarse a las leyes de la teoría cuántica.

Es una postura fuerte. Yo cambiaría 'imagen' por 'modelo'. Para Dirac, le basta la auto-consistencia de lo que va a proponer, y la adecuación a los experimentos. En otros artículos, llegó a preferir la lógica de la teoría, a su adecuación a los resultados experimentales, por ejemplo, cuando explicó el efecto Compton: sus resultados indicaban un valor que difería en un 25% de los experimentos conocidos hasta entonces. En una actitud típica de Dirac, afirmó que los valores deberían estar equivocados, y la teoría correcta. Tenía razón, Compton al tiempo le escribió confirmando los nuevos valores.

With regard to the second criticism, it may be remarked that for many simple experiments with light, an elementary theory of waves and photons connected in a vague statistical way would be adequate to account for the results. In the case of such experiments quantum mechanics has no further information to give. In the great majority of experiments, however, the conditions are too complex for an elementary theory of this kind to be applicable and some more elaborate scheme, such as is provided by quantum mechanics, is then needed. The method of description that quantum mechanics gives in the more complex cases is applicable also to the simple cases and although it is then not really necessary for accounting for he experimental results, its study in these simple cases is perhaps a suitable introduction to its study in the general case.

Con respecto a la segunda crítica, puede notarse que para muchos experimentos simples con la luz, una teoría elemental de las ondas y fotones conectados de una manera estadística vaga podría ser adecuada para explicar los resultodas. En el caso de esos experimentos, la mecánica cuántica no tiene más información para ofrecer. Sin embargo, en la gran mayoría d los experimentos las condiciones son tan complejas para que una teoría sencilla de ese tipo pueda ser aplicable, y se necesita un esquema más elaborado, como el que es provisto por la mecánica cuántica. El método de descripción que la mecánica cuántica provee para esos casos complicado es aplicable también a los casos simples y aunque no es realmente necesaria para dar cuenta de esos resultados experimentales, su estudio en estos casos simples es posiblemente una introducción adecuada al estudio del caso general.

Es interesante notar que Dirac busca explicar más casos que los considerados simples, por ejemplos, los casos relativísticos.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 6 de Julio, 2015, 7:50

Siguiente Post

La historia de la física cuántica, y la mecánica cuántica en particular, ya saben, es fascinante. Y sus conceptos también. Algo que nació a fines de la tercera década del siglo pasado, es la teoría de la transformación de Dirac, de la que el autor se sentía particularmente orgullo: la podía armar a partir de principios generales, como a Dirac le gustaba. Y estoy tratando otras formulaciones en:

Entendiendo a Heisenberg
La Ecuación de Schrödinger
Física cuántica (a la Feynman)

y al propio Dirac en:

Polarización del Fotón
Interferencia de Fotones

La formulación matemática, más orientada a las funciones de onda, en:

Matemáticas y Física Cuántica

Hoy quisiera comenzar una serie de posts para divulgar las ideas de Dirac, basadas en espacios vectoriales, directos y duales, así como operadores.

Al querer entender la física cuántica, los físicos plantean modelos conceptuales con formulaciones matemáticas. A principios del siglo pasado, hubo que abandonar modelos mecánicos, al verse que los fenómenos cuánticos no admitían explicación de ese tipo.

Antes de eso, se suponía que los principios de la mecánica newtoniana proveerían una base para la descripción de todos los fenómenos físicos. Pero se vió que no se aplicaban en todos los ámbitos. Por ejemplo, en el caso de altas velocidades, con la aparición de fenómenos relativistas. Había que encontrar nuevas explicaciones, no basadas completamente en la física de Newton y sus extensiones. Esto llevó a la aparición no sólo de nuevos modelos conceptuales, sino también a nuevas formulaciones matemáticas.

La mecánica cuántica es un ejemplo paradigmático de estos cambios. Requirió que los estados de un estado dinámico y las variables dinámicas estuvieran interconectados en modos extraños que no se podían entender desde un punto de vista clásico. Los estados y variables dinámicos tuvieron que representarse de formas distintas a la clásica. Hubo que construir un nuevo modelo matemático y mapear sus conceptos a conceptos físicos. Lo que hizo Dirac con su teoría de la transformación es construir todo ese modelo matemático a partir de axiomas y reglas, y ver su consistencia con el experimento. El estaba orgulloso de ese tipo de deducción.

Uno de sus puntos de partida fue preguntarse: ¿cómo explicar el principio de superposición de estados de forma matemática? Recordemos que un estado cuántico puede describirse como una superposición de estados, ver:

Matemáticas y Física Cuántica (3) Superposición de Estados
Física Cuántica (Parte 10) Primer Experimento Real

Veremos en el próximo post la solución de Dirac, usar vectores en un espacio vectorial, para representar estados cuánticos. El otro problema que encaró es cómo conseguir algún valor para las variables dinámicas. Su solución: ponerlas en correspondencia con operadores lineales que operan sobre los vectores del espacio.

Mis principales fuentes para esta serie son:

Principles of Quantum Mechanics, del propio Dirac
Quantum Mechanics: A Modern Development, de Leslie E. Ballantine

Este último libro es el que me anima a encarar esta tarea, porque desarrollo las ideas de Dirac, con un enfoque moderno, y hay que decirlo, también más claro y didáctico. Dirac no siempre es fácil de seguir. No es que Dirac sea obscuro, él trataba de ser lo más preciso posible, pero a veces hay que tener el genio de Dirac para entender por dónde quiere ir al tomar el camino de un desarrollo. Ballantine se toma más tiempo y exposición escalonada para explicar los principales resultados de la teoría de la transformación.

Una de las características de esta formulación de Dirac, es su extensión a la relatividad especial, lo que dio lugar a la famosa ecuación de Dirac, que espero aparezca en esta serie de posts. En su forma no relativista, se puede mostrar su equivalencia con las formulaciones de Schrödinger y Heisenberg.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 28 de Junio, 2015, 13:25

Anterior Post

Quedó pendiente el tema de explicar cómo se puede detectar un solo fotón. Hubo un tiempo en que los fenómenos de la física cuántica, como la interferencia de partículas actuando como ondas, se pensó que era de naturaleza estadística, fruto de la interacción entre muchas partículas (en el caso que estamos tratando, la luz, esas partículas serían los fotones, pero no quiero adelantarme mucho). Pero luego se vió que aún la interferencia (un fenómeno de ondas) aún se producía con una sola partícula. No tengo los detalles históricos, ya alrededor del 30 de siglo pasado se sabía esto. Desconozco cuándo se comprobó experimentalmente por primera vez, pero ahora paso a describir una forma de detectar fotones "de a uno".

Para eso, se apela a un fotomultiplicador, toma la imagen de la Wikipedia:

Un fotón llega al fotocátodo de la izquierda, un material preparado para emitir electrones al recibir fotones con cierta energía, debido al efecto fotoeléctrico. El electrón liberado es arrastrado por el campo existente hacia el ánodo del extreme derecho, ganando energía cinética. Puede alcanzar el primer elemento llamado dinodo, que entonces libera más electrones. Estos electrones se siguen acelerando, pudiendo alcanzar el segundo dinodo, y liberando entonces más electrones. El proceso se repite, de tal forma que al ánodo de la derecha llega una cataracta de electrones, fácilmente detectables.

Todo esto depende de muchas variables, como la energía del fotón incidente, y la sensibilidad del fotocátodo y los dinodos. Pero el instrumento se puede calibrar, para que la catarata resultante sea proporcional a la cantidad de fotones incidentes. Cuando SOLO UN FOTON incide en un tiempo determinado, se lo sabe por la intensidad de la corriente de electrones que llegan al ánodo. Lo importante para nosotros: en los experimentos, sólo se registre o cero catarata, o una catarata proporcional a UN FOTON, nunca una media catarata o un cuarto de catarata.

Esa es la evidencia experimental que nos permite afirmar cosas sobre un sólo fotón. En experimentos más complicados, se colocan varios fotomultiplicadores, distribuidos espacialmente para detectar los fotones que surgen de algún experimento, y cuando esos fotones "salen de a uno", sólo un fotomultiplicador a lo sumo lo detecta, nunca se detecta "medio fotón acá" y "medio fotón allá".

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 27 de Junio, 2015, 20:38

Anterior Post

Hubo un tema que quedó sin explicar y es el principio de correspondencia de Bohr, mencionado en el tercer post. Si bien Heisenberg lo menciona, no lo explica. Sería interesante plantearlo en concreto, porque muy pocas veces he encontrado un ejemplo explicado en detalle.

Comenzemos con algunas ideas del modelo atómico de Bohr, propuesto en 1913, donde todavía había órbitas circulares para los electrones. Se tiene que cumplir la ley de Newton:

O sea, fuerza igual a masa por aceleración. Si tenemos un átomo de hidrógeno, con carga eléctrica e  en el electrón y en el núcleo, la fuerza de atracción de Coulomb es:

Donde Z = 1 en un átomo de hidrógeno (es la carga del núcleo). Y la aceleración en un movimiento circular es:

Con lo que nos queda:

Según el modelo de Bohr, el impulso angular es constante e igual:

Pero está cuantizado, es decir, no puede tomar cualquier valor, sino que toma:

Donde n es un número natural, y por conveniencia escribo:

(en la literatura no van a ver h barra, sino h con una barra horizontal tachando el tramo superior de la hache, pero no tengo ese carácter acá).

Entonces se deduce que:

Donde podemos despejar el radio r de la órbita como:

Y la velocidad es:

El principio de correspondencia, según

https://en.wikipedia.org/wiki/Correspondence_principle

dice que la conducta de un sistema descripta por la teoría cuántica antigua reproduce los resultados físicos de la teoría clásica en el límite de números cuánticos grandes. No queda muy claro así, porque sin un ejemplo concreto no se sabe bien qué es eso de "en el límite" y por qué números cuánticos aparece en plural.

Según la teoría clásica, el electrón que describimos tiene un tiempo de revolución igual a longitud de la órbita dividida por la velocidad. Y el inverso de ese tiempo, es la frecuencia de revolución, que queda expresada entonces por:

Como el electrón es una carga en movimiento, la teoría clásica predice que va a emitir radiación, con la misma frecuencia que la frecuencia de revolución que encontramos en la anterior fórmula.

Pero según Bohr, la frecuencia depende del salto entre dos estados cuánticos, el estado inicial y final, caracterizados por su energía:

Según el modelo de Bohr, cada nivel de energía corresponde a un número cuántico n:

(les debo la deducción detallada de Bohr). Con lo cual, la frecuencia a emitir entre los dos niveles inicial y final es:

Supongamos que esos números son grandes. Tienen que ser distintos, para no anular la expresión anterior, entonces lo más grande que puede ser el número final es cumpliendo:

Llamando a ni (n inicial) directamente n, queda:

Y si hacemos n muy grande, la expresión:

Tiende a:

Con lo que la expresión clásica para la frecuencia, y la expresión cuántica para números cuánticos grandes, se aproximan para valores grandes de los n.

El principio de correspondencia también dice que esa relación entre n inicial y n final, llamada regla de selección, también se aplica con números cuánticos chicos. Pero acá en el átomo de hidrógeno eso no basta para explicar que hay saltos entre estados donde los n difieren en MAS de una unidad.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 21 de Junio, 2015, 19:31

Anterior Post

En el post anterior, vimos rotaciones en tres dimensiones. Y encontramos un generador de las rotaciones alrededor del eje z, lo llamamos Mz:

Pudimos obtener cualquier rotación alrededor del eje z, aplicando ese generador, de forma que cada rotación en ángulo theta, es:

Donde

Vemos que Mz es hermítica, es decir, que es igual a su traspuesta conjugada. Las matrices hermíticas sobre los complejos cumplen un papel similar a las matrices simétricas sobre los reales. Se sabe que se puede cambiar de base una matriz hermítica, y transformarla en una matriz diagonal. Todavía no necesitamos conocer ese hecho. Se expresa que H es hermítica:

Donde el asterisco indica trasposición y tomar complejo conjugado. Veamos que las rotaciones así obtenidas, tienen matrices unitarias, que cumplen que su transpuesta conjugada es su inversa, es decir:

Pues bien, operando formalmente:

Pero sabiendo que Mz es hermítica:

Queda:

Lo que muestra que la rotación es unitaria. Pero esto es operar formalmente. Tendríamos que calcular la transpuesta conjugada de la rotación:

Lo que da:

Y tener en cuenta que Mz es hermítica:

Y al multiplicar esta expansión por la expansión original de R(theta), obtener la matriz unidad. Es algo trabajoso, pero se puede obtener los primeros coeficientes de la multiplicación de las dos series infinitas de sumas de matrices, agrupando por potencia resultante de H. El término para I (o sea, H "elevada a la cero"), es el resultado de multiplicar dos términos de las series originales:

El término para H, es el resultado de sumar dos multiplicaciones de dos términos de las series originales:

El término para H al cuadrado es:

Y así podemos seguir, comprobando que cada coeficiente termina siendo cero. De esta forma queda demostrado que U es unitaria, cuando Mz es hermítica.

Los otros generadores son (se pueden deducir de la misma forma que Mz) Mx:

Y My:

Todas las rotaciones generadas por cada generador Mx, My, Mz, es unitaria. Y la multiplicación de unitarias es también unitaria. Resulta entonces que nuestras rotaciones en tres dimensiones, con coeficientes complejos, se expresan todas con matrices unitarias.

En el próximo post veremos algunas relaciones entre los generadores Mi, si conmutan entre sí, y otras relaciones. Estamos todavía un poco lejos de su relación con las partículas elementales, pero ya vamos teniendo idea de cómo las rotaciones en un espacio abstracto complejo pueden ser caracterizadas por los generadores correspondientes. Vamos a descubrir el papel de esos generadores en la física de partículas.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 8 de Junio, 2015, 7:04

Sigo leyendo el libro "The Quantum Revolution: A Historical Perspective", de Kent A. Peacock, que mencioné en el post de ayer. Al comienzo, el autor comenta la importancia del estudio de la historia en una ciencia.

Learning a little history of science is one of the most interesting and painless ways of learning a little of the science itself, and knowing something about the people who created a branch of science helps to put a human face on the succession of abstract scientific concepts.

Furthermore, knowing at least the broad outlines of the history of science is simply part of general cultural literacy, since we live in a world that is influenced deeply by science. Everyone needs to know something about what science is and how it developed. But the history of modern physics, especially quantum physics, presents an especially interesting puzzle to the historian. In the brief period from 1900 to 1935 there occurred one of the most astonishing outbursts of scientific creativity in all of history. Of course, much has been done in science since then, but with the perspective of hindsight it seems that no other historical era has crammed so much scientific creativity, so many discoveries of new ideas and techniques, into so few years. Although a few outstanding individuals dominate—Albert Einstein (of course!), Niels Bohr, Werner Heisenberg, Wolfgang Pauli, Paul Dirac, and Erwin Schrödinger stand out in particular—they were assisted in their work by an army of highly talented scientists and technicians.

La historia de este tema, el surgimiento de la mecánica cuántica, es fascinante. El aspecto científico de su desarrollo lo estoy tratando en mi serie Hacia la Mecánica Cuántica. Pero también me gustaría tratar el tema del desarrollo personal, las relaciones que se tejieron, las ideas en lucha, los modelos propuestos, las influencias recibidas por cada uno de los protagonistas. Es interesante lo que menciona el autor a continuación, sobre la aceptación de la sociedad por el desarrollo de la ciencia:

This constellation of talented people arose precisely at a time when their societies were ready to provide them with the resources they needed to do their work, and also ready to accept the advances in knowledge that they delivered. The scientists who created quantum theory were (mostly) not embattled heretics like Galileo, because they did not have to be—their work usually was supported, encouraged, and welcomed by their societies (even if their societies were at times a bit puzzled as to what that work meant). The period in which quantum mechanics was created is thus comparable to a handful of other brilliant episodes in history—such as ancient Athens in her glory, or the England of Elizabeth I—when a multitude of historical factors somehow
combined to allow the most talented people to do the best work of which they were capable.

Exactly why do these amazing outbursts of creativity occur? And what could we do to make them happen more regularly? These questions certainly can"t be answered in this modest book, but the history of quantum mechanics is an outstanding case study for this large and very important problem.

Lo bueno de esta historia, es que es relativamente reciente, y bastante documentada. Y pone en juego todo lo que conocemos como actividad científica, principalmente la creación de modelos, la compulsa con el experimento, y la formación de conceptos.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez


Por ajlopez, en: Ciencia

Publicado el 7 de Junio, 2015, 11:36

En estos días estoy leyendo el excelente "The Quantum Revolution: A Historical Perspective", de Kent A. Peacock. Es parte de lo que estoy estudiando como apoyo de mi serie Hacia la Mecánica Cuántica. Además, en estas semanas, han aparecido biografías de científicos relacionadas con el tema, publicadas acá en Argentina por el diario La Nación, como reimpresión de una serie española de RBA. Y ayer sábado, en esa serie, apareció el volumen que buscaba: la biografía de Dirac, un personaje fascinante de esta historia. Y además sigo estudiando el "paper" original de Heisenberg, para la serie Entendiendo a Heisenberg.

Me gustaría compartir hoy un texto del comienzo de libro de Peacock, que pone en sus palabras mucho de lo que quisiera suscribir yo mismo. Leo:

The history of a major branch of science like quantum physics can be viewed in several ways. The most basic approach to see the history of quantum mechanics is as the story of the discovery of a body of interrelated facts (whatever a "fact" is), but we can also view our story as a history of the concepts of the theory, a history of beautiful though sometimes strange mathematical equations, a history of scientific papers, a history of crucial experiments and measurements, and a history of physical models. But science is also a profoundly human enterprise; its development is conditioned by the trends and accidents of history, and by the abilities, upbringing, and quirks of its creators. The history of science is not just a smooth progression of problems being solved one after the other by highly competent technicians, who all agree with each other about how their work should be done. It is by no means clear that it is inevitable that we would have arrived where we are now if the history of science could be rerun. Politics, prejudice, and the accidents of history play their part (as we shall see, for instance, in the dramatic story of David Bohm). Thus, the history of quantum mechanics is also the story of the people who made it, and along the way I will sketch brief portraits of some of these brilliant and complex individuals.

Quantum mechanics is one of the high points in humanity"s ongoing attempt to understand and cope with the vast and mysterious universe in which we find ourselves, and the history of modern physics—with its failures and triumphant insights—is one of the great stories of human accomplishment of our time.

Eso es lo fascinante de la historia de la mecánica cuántica (que para mí abarca hasta alrededor de 1935, luego sigue la física cuántica en general, con la aparición de física de campos cuánticos y derivados, teorías gauge, modelo estándar y demás). No conozco a qué se refería con la "dramática historia" de David Bohm, si a su persecución política, o a sus episodios de depresión, con tratamiento eléctrico.

Pero así es la historia de la ciencia: no hay un progreso liso, constante, sino que es el entrecruzar de ideas, conceptos, modelos, prejuicios y actitudes humanas. La ciencia es una actividad humana, no el producto directo y claro de seguir unos pasos predeterminados. Hay creatividad, sentimiento e imaginación. Y trabajo duro, experimentos, recolección de datos, mejores instrumentos, y la humana actividad de creación de modelos explicativos de la realidad encontrada.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 24 de Mayo, 2015, 19:19

Anterior Post
Siguiente Post

En las expresiones clásicas del post anterior, apareció varias veces la frecuencia:

En realidad, son varias, una por cada estado estacionario n. La idea es que en los tiempos de Heisenberg se sabía que había "estados estacionarios" de los electrones en el átomo, desde el modelo de Bohr. Estados donde el electrón no radia energía. Era un postulado extraño, porque en la teoría clásica, cualquier carga eléctrica en movimiento debía radiar algo de energía en forma de radiación. Pero desde el modelo de Bohr, se vió que era útil suponer que hay estados así, que no emiten radiación. En ese caso, el electrón correspondiente no pierde energía por moverse en su "órbita".

La frecuencia omega(n) mencionada arriba correspondería a la frecuencia fundamental de ese electrón que tendría que radiar ese electrón. También cabría esperar que pueda radiar en múltiplos de esa frecuencia:

Donde alfa es un número entero. El análisis de Heisenberg trata a un electrón moviéndose en una sola dimensión. Por eso estuvimos hablando de calcular para cada n, la evolución de la coordenada de ese electrón en el tiempo. Suponiendo ese movimiento periódico con frecuencia omega(n), su expansión general en serie de Fourier es:

Recordemos: esta es la expresión más general del movimiento periódico en una dimensión. Desde Fourier, con algunas condiciones mínimas, se sabe que existe esta expansión, y luego, con los trabajos de Heine y notablemente Cantor (ver Series de Fourier, Heine y Cantor), se sabe que la expansión es única.

Supongamos que n está fija o determinada de antemano. Heisenberg se preguntó entonces: si x(t) (para un n dado) se puede representar con la fórmula de arriba, ¿cuál es la expresión para su cuadrado? Es decir para

Esta pregunta se la hace porque es común en física usar las potencias de las magnitudes físicas, y si quiere construir un símil cuántico a lo clásico, analiza primero cuál es la expansión clásica de esta expresión, para luego ver de buscar la expresión cuántica de su nueva teoría. Como x(t) = x(n, t) para n fijo, es una serie infinita, su cuadrado es la multiplicación de esas dos series. Y resulta una serie, de Fourier de nuevo, donde cada término tiene un factor que multiplica a la frecuencia, digamos beta:

Cada término de esta nueva expresión es la suma de todas las multiplicaciones de los factores originales, que de a pares producen un beta como resultado. Es decir:

Es decir, la frecuencia fundamental es la misma, omega(n). Los coeficientes beta recorren todos los enteros, igual que antes los alfa. Lo que cambian son los factores a beta, que podemos ver como el "peso" de cada término. Tenemos entonces:

Este sería el camino clásico: x(t) en un estado estacionario n es INDEPENDIENTE de todos los demás estados. Vamos a ver en los próximos post, que en el modelo cuántico no es tan simple: x(t) y sus potencias dependerán también de otros estados. ¿Por qué se da esto? Porque desde el modelo de Bohr se vió que LAS FRECUENCIAS emitidas/absorbidas NO SON DEPENDIENTES de un estado, de su frecuencia fundamental SINO que son la diferencia de frecuencias entre DOS estados. En el modelo cuántico hay un entrelazado de estados, y siempre un estado puede pasar a otro, con cierta probabilidad. Curiosamente, este concepto de probabilidad aplicado a lo que puede pasar en un estado físico fue introducido por Einstein, en un artículo de 1917, fundamental para entender desarrollos como el maser y el laser; pero a Einstein nunca le gustó que esa probabilidad fuera esencial, no explicable por algún otro estado interno.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 10 de Mayo, 2015, 17:18

Anterior Post
Siguiente Post

Comencemos nuestro camino investigando la luz. Cuando Newton estudió la luz, descubrió que la luz blanca es en realidad una mezcla de colores. Separó la luz blanca usando un prisma, en varios colores, pero cuando tomó la luz de un color, digamos roja, y la volvió a pasar por otro prisma, ya no obtuvo más colores. Algo en el prisma toma los colores y los separa, y esa propiedad que tiene la luz emergente se conserva hasta llegar al otro prisma, lo cual suena razonable. Es como que el prisma filtra la luz por alguna propiedad permanente, que no va cambiando con el tiempo. Los colores que encontró Newton se pueden llamar entonces puros (en realidad esa luz se puede separar más apelando a la polarización, ver algunos conceptos en La polarización del fotón, por Dirac).

Cuando hablamos de la luz, en esta serie de posts, no es sólo de la luz que podemos ver, de rojo a azul. La luz visible ha resultado ser sólo una parte de la radiación electromagnética, y corresponde a un rango de frecuencias. De hecho, los colores son la forma que tenemos de diferenciar las frecuencias en nuestros sentidos. No podemos ver la luz ultravioleta, pero afecta igual a las placas fotográficas. Es luz, solamente que su frecuencia es invisible a nuestros sentidos. Si seguimos explorando otras frecuencias, nos encontramos con rayos X, rayos gamma, y más. Si en vez de seguir más allá del azul, bajamos la frecuencia desde el rojo, encontramos luz infrarroja, ondas de televisión, y ondas de radio. Todas son "luz". Podemos usar la luz roja para muchos ejemplos, pero la teoría de la electrodinámica cuántica se extiende a todo el espectro de frecuencias.

Newton pensaba que la luz estaba constituída por partículas (él las llamaba corpúsculos) y el tiempo le dio la razón, aunque las razones que usó eran erróneas. Ahora sabemos que la luz está compuesta de partículas porque hemos conseguido construir y operar instrumentos delicados, donde detectamos la luz que incide. Cuando la luz llega al aparato, se producen "clicks". Cuando la luz disminuye, se producen menos "clicks". Pero por más que disminuya la luz, nunca se produce o detecta "medio click". Este es el gran descubrimiento de la física cuántica. Entonces, la luz es como gotas de lluvia, y todas las gotas de la luz de un color puro, son del mismo "tamaño".

El ojo humano es un gran instrumento. Con sólo cinco o seis fotones que reciba se activa una célula y se envía un mensaje al cerebro. Pero si hubiera sido más sensible, hubiéramos detectado la luz fotón a fotón, y no nos asombraría el hecho de que la luz son partículas.

En el próximo post, veremos cómo es posible detectar un fotón simple. Es importante la descripción, porque sino siempre queda como algo no bien explicado en la divulgación científica. Recordemos que una cosa es la teoría (el modelo propuesto) y otra los experimentos. Tenemos que examinar este experimento de "detectar un solo fotón" por vez.

Principal fuente: el excelente libro de Richard Feynman, "QED: the strange theory of light and matter"

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 4 de Abril, 2015, 15:30

Anterior Post
Siguiente Post

Mencionaba en el anterior post que la electrodinámica cuántica, de la mano de Julian Schwinger, Sin-Itiro Tomonaga, y Richard Feynman, consiguió dar un valor finito para el número de Dirac. El valor teórico resultante fue de 1.00116, muy cercano al valor experimental de 1.00118. Fue un gran triunfo de la teoría, que comenzó a evitar los infinitos. Esa es la teoría que tenemos que estudiar en esta serie de posts.

Con los años, se mejoraron los resultados experimentales. Por ejemplo, en la segunda mitad del siglo pasado se llegó a determinar experimentalmente el valor de 1.00115965221 (con incertidumbre de 4 en el último dígito) mientras que la teoría daba 1.00115965246. Para darnos una idea de lo impresionante que es el acuerdo entre experimento y teoría, si midiéramos las distancia entre Los Angeles y Nueva York CON LA MISMA PRECISION, sería exacta con sólo la incertidumbre de un cabello humano. Y no es el único acuerdo entre experimento y teoría. Durante décadas la electrodinámica cuántica ha sido puesta a prueba y ha salido airosa. Se han medido cosas desde el orden de cientos de veces el tamaño de la Tierra, hasta un centésimo del tamaño de un núcleo atómico.

La teoría describe un vasto rango de fenómenos físicos. Quedan exceptuados los efectos gravitacionales y los fenómenos radioactivos, que son debidos a cambios en el núcleo atómico, donde intervienen otras fuerzas. ¿Qué queda fuera de gravitación y radioactividad? El quemado de gasolina en los automóviles, la formación de espuma y burbujas, la dureza de la sal o del cobre, las características del acero. Los biólogos tratan de explicar la vida en términos químicos, y se ha descubierto que las propiedades químicas son consecuencia de la electrodinámica cuántica.

Ahora bien, cuando decimos que la teoría "explica", en realidad no es tan así. En muchos fenómenos intervienen tal cantidad de electrones que es difícil explicar la complejidad. Pero si hacemos experimentos con pocos electrones en circunstancias simples, podemos calcular lo que sucede con mucha aproximación usando la teoría. Cuando hacemos ese tipo de experimentos, la teoría trabaja muy bien. Podemos decir que es la joya de la física, su más preciada posesión.

Y sirve de prototipo a las teorías que intentan explicar el comportamiento del núcleo atómico. Los actores del universo no son sólo electrones y fotones, sino que en el núcleo hay quarks y gluones y se encontraron más particulas en la naturaleza y en experimentos. Y aunque actúan de distinta forma, igual su conducta tiene un estilo "cuántico". Pero por ahora, nos concentraremos en electrones y fotones.

Principal fuente: el excelente libro de Richard Feynman, "QED: the strange theory of light and matter"

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 3 de Abril, 2015, 17:16

Anterior Post

En el anterior post presenté más contexto sobre el uso de números complejos en física y en la ecuación de Schrödinger. Recordemos que la solución de esa ecuación es una función de onda. Era lo que buscaba Schrödinger: luego de dar una charla sobre la teoría de de Broglie, su colega Debye le señaló que si había ondas en esa teoría, debía haber una función de onda, y como en otras ramas de la física, debería satisfacer una ecuación de ondas. De ahí arranca el trabajo de Schrödinger, que siguió un camino distinto al que tomamos nosotros.

En nuestro anterior "deducción" de la ecuación (a partir de elementos plausibles) vimos que no pudimos resolverla apelando a una función de onda real. Eso se debe a que en la expresión de la ecuación interviene LA PRIMERA DERIVADA del tiempo, y LA SEGUNDA DERIVADA de las otras coordenadas. Ese es el quid de la aparición de los números complejos en nuestra solución. Schrödinger siguió un camino más esotérico, pero llegó también a lo mismo: aunque "se resistió" a poner números complejos, al final tuvo que claudicar y expresar, en el últimos de sus artículos de la serie de 1926, la solución de su ecuación usando un coeficiente i (según el anterior post, parece que espoleado por alguna pregunta de Lorentz).

Algunos pensaron que tener una función de onda compleja era un defecto de la teoría. Al fin y al cabo, las magnitudes físicas, las que podemos medir por experimento, son todas reales (en el sentido no filosófico, de realidad, sino en el sentido de ser expresables, medibles en números reales). Pero hubo algo bueno en que sea función compleja. Si recordamos la historia del electromagnetismo, las funciones de onda de esa teoría daban valores reales, y eso llevó a considerar, por tradición de la física, que "había algo" que vibraba según esas ondas, y se inventó la teoría del éter. Se tardó bastante tiempo para entender que no había tal éter. Con la teoría de Schrödinger no corremos ese peligro: al ser compleja, no se espera que haya algo que "vibre" ahí afuera en la realidad. Uno podría esperar separar la función compleja en parte real y parte imaginaria. Matemáticamente, es posible hacerlo. Pero usar cada función por separado no lleva a ningún resultado físico.

Notablemente, se tardó unos meses en dar con una conexión física firme entre la función de onda compleja y la evidencia física. Schrödinger consideraba que había una relación entre su función y la densidad de carga eléctrica. Pero fue Max Born el que dio más en la tecla, al poner su postulado:
Teniendo la función de onda, digamos, para una partícula, una dimensión:

Lo expresado por:

Es la densidad de probabilidad. Como la función de onda se multiplica en cada punto (x,y) por su conjugada compleja (de ahí el asterisco en la segunda psi), el resultado es un número real en cada punto.  ¿por qué se llama densidad de probabilidad? Por el postulado de Born, que se expresa:

Si en el instante t se realiza una medición para localizar la partícula descripta por la función de onda Psi(x,t), entonces la probabilidad P(x, t) dx de encontrarla entre x y x + dx, es igual a:

Lo mismo se puede extender a varias coordenadas, a un sistema de partículas, y un volumen infinitesimal de esas coordenadas. Siendo lo de arriba "la densidad" por "punto de volumen", la probabilidad se obtiene integrando en el volumen V de coordenadas:

Se pide en general, que si se extiende la integración a todo el volumen de coordenadas, el valor de la probabilidad sea siempre (en todo tiempo) uno. Se dice entonces que la función de onda está normalizada. Se podrían tomar otras funciones de la función de onda que den igualmente resultados reales. Por ejemplo, se podría poner como densidad de probabilidad a:

Usando el valor absoluto de la función de onda. Pero estas otras opciones quedan descartadas porque su aplicación no lleva a los resultados físicos esperados (parece que es necesario un largo razonamiento para descartar estas otras soluciones, ninguna de mis fuentes (Landau/Lifschitz, Eisberg/Resnick) los menciona explícitamente).

Born publica sus ideas en una nota al pie de uno de sus artículos. Esa idea inicial, de probabilidad de posición, luego se extiende a otras probabilidades asociadas a otras medidas, no sólo a posición.

Ver también mi serie más matemática: Matemáticas y Física Cuántica (2) Probabilidad

Y ver

What is Born's Postulate
The Born Rule
The Born rule and its interpretation
Mathematical foundation of quantum mechanics

Es interesante ver Derivation of the postulates of quantum mechanics from the first principles of scale relativity donde se enumeran los postulados de la mecánica cuántica, y se propone una derivación alternativa.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez


Por ajlopez, en: Ciencia

Publicado el 29 de Marzo, 2015, 13:02

Hoy encuentro este fragmento de Pascal, lo escribió en el prefacio de su Tratado del Vacío:

... From this, we see that by a particular prerogative, not only does each man advance day by day in the sciences, but all men together make continual progress as the universe ages, because the same thing happens in the aging of mankind as a whole as happens during the aging of a single man. Thus, the entire body of mankind, over many centuries, must be considered as a single man, who lives forever and continues to learn [...]. Those whom we call the ancients were truly new in all things, and form the childhood of mankind; as we have added to their knowledge the experience of the centuries which followed them, it is in ourselves that we should seek the antiquity which we dream of in others

En verdad, el avance humano de las ciencias (al menos en los últimos siglos) se basa en esa colaboración de todos los que tratan de ir armando ese edificio. Casi cualquier logro actual en ciencia tiene una rica historia, a lo largo de los siglos, de aciertos y fallos, de avance lento o rápido desarrollo. Por ejemplo, la teoría atómica, con las ideas iniciales (y equivocadas) de Demócrito, la clarificación de Lavoisier fundando la química moderna, la teoría de Dalton proponiendo el atomismo, las correcciones de varios a esa teoría, el uso de la hipótesis atómica por parte de Boltzman para explicar la entropía, y hasta el trabajo de Rutherford para ir desvelando la estructura atómica.

Encuentro el párrafo de Pascal, en el excelente libro Invitation to the mathematics of Fermat-Wiles, de Yves Hellegouarch.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 24 de Marzo, 2015, 17:38

Anterior Post
Siguiente Post

Heisenberg busca entonces explicar las intensidades de las líneas del espectro atómico, siendo las frecuencias ya "explicadas" por la teoría de Bohr y sus derivados. Digo "explicadas" entre comillas, porque tampoco estaba claro por qué la teoría de Bohr funcionaba (sobre el primer "paper" de esa teoría, estoy escribiendo Sobre la constitución de átomos y moléculas, por Niels Bohr).

Heisenberg no encara el problema general, sino un electrón moviéndose en una coordenada. Para la teoría clásica, un electrón en movimiento acelerado radía energía, según la fórmula de Larmor:

Donde e es la carga del electrón, c la velocidad de la luz, y x con dos puntos es la aceleración del electrón.

(ver una derivación de esta fórmula en http://home.strw.leidenuniv.nl/~michiel/ismclass_files/radproc07/chapter4.pdf)

Si tomamos el caso de un oscilador armónico clásico, tenemos:

(ver sección 4.6 en http://home.strw.leidenuniv.nl/~michiel/ismclass_files/radproc07/chapter4.pdf)
Con lo que la aceleración queda relacionada con la posición según:

Ver http://en.wikipedia.org/wiki/Harmonic_oscillator y http://en.wikipedia.org/wiki/Fundamental_frequency

Reemplazando en la fórmula de Larmor, el promedio emitido (según mi fuente hay un coeficiente 4, en vez de 2, supongo que insertado por la forma de calcular el promedio (Heisenberg's Quantum Mechanics, de Mohsen Razavy. Ver http://www.amazon.com/Heisenbergs-Quantum-Mechanics-Mohsen-Razavy/dp/9814304115)):

Pero en vez de vibrar en la frecuencia fundamental, bien podría vibrar en múltiplos de esa frecuencia, queda entonces:

Donde alfa es un número entero, que puede tomar cualquier valor, y x sub alfa es la posición del electrón, en este caso oscilando en la frecuencia alfa por omega (puede tomarse que la posición x depende de alfa).
En el sistema que quiere explicar Heisenberg, el electrón tiene estados estacionarios n, cada uno con una frecuencia fundamental omega(n) quedando el promedio de energía emitido como:

y que pueden expresarse no SOLO con la frecuencia fundamental, sino también como combinación de todos sus correspondientes armónicos. La expresión de la posición del estado estacionario n en función del tiempo, toma entonces la expresión:

Vemos que cada término de la suma tiene un coeficiente a sub alfa, que es el "peso" de ese término en el resultado final, y una frecuencia múltiplo de la fundamental omega(n). Los valores de x(n, t) oscilan en el tiempo pero con la frecuencia fundamental omega(n), porque ASI LO HACEN cada término de la sumatoria.

Tenemos que ver en los próximos posts, la aparición del número imaginario i, qué es eso del estado estacionario, y cómo aplicó Heinsenberg el principio de correspondencia para modificar la fórmula de arriba y usar los coeficientes que aparecen en la sumatoria de una forma ingeniosa.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Otros mensajes en Ciencia