Angel "Java" Lopez en Blog

Ciencia


Publicado el 10 de Mayo, 2015, 17:18

Anterior Post

Comencemos nuestro camino investigando la luz. Cuando Newton estudió la luz, descubrió que la luz blanca es en realidad una mezcla de colores. Separó la luz blanca usando un prisma, en varios colores, pero cuando tomó la luz de un color, digamos roja, y la volvió a pasar por otro prisma, ya no obtuvo más colores. Algo en el prisma toma los colores y los separa, y esa propiedad que tiene la luz emergente se conserva hasta llegar al otro prisma, lo cual suena razonable. Es como que el prisma filtra la luz por alguna propiedad permanente, que no va cambiando con el tiempo. Los colores que encontró Newton se pueden llamar entonces puros (en realidad esa luz se puede separar más apelando a la polarización, ver algunos conceptos en La polarización del fotón, por Dirac).

Cuando hablamos de la luz, en esta serie de posts, no es sólo de la luz que podemos ver, de rojo a azul. La luz visible ha resultado ser sólo una parte de la radiación electromagnética, y corresponde a un rango de frecuencias. De hecho, los colores son la forma que tenemos de diferenciar las frecuencias en nuestros sentidos. No podemos ver la luz ultravioleta, pero afecta igual a las placas fotográficas. Es luz, solamente que su frecuencia es invisible a nuestros sentidos. Si seguimos explorando otras frecuencias, nos encontramos con rayos X, rayos gamma, y más. Si en vez de seguir más allá del azul, bajamos la frecuencia desde el rojo, encontramos luz infrarroja, ondas de televisión, y ondas de radio. Todas son "luz". Podemos usar la luz roja para muchos ejemplos, pero la teoría de la electrodinámica cuántica se extiende a todo el espectro de frecuencias.

Newton pensaba que la luz estaba constituída por partículas (él las llamaba corpúsculos) y el tiempo le dio la razón, aunque las razones que usó eran erróneas. Ahora sabemos que la luz está compuesta de partículas porque hemos conseguido construir y operar instrumentos delicados, donde detectamos la luz que incide. Cuando la luz llega al aparato, se producen "clicks". Cuando la luz disminuye, se producen menos "clicks". Pero por más que disminuya la luz, nunca se produce o detecta "medio click". Este es el gran descubrimiento de la física cuántica. Entonces, la luz es como gotas de lluvia, y todas las gotas de la luz de un color puro, son del mismo "tamaño".

El ojo humano es un gran instrumento. Con sólo cinco o seis fotones que reciba se activa una célula y se envía un mensaje al cerebro. Pero si hubiera sido más sensible, hubiéramos detectado la luz fotón a fotón, y no nos asombraría el hecho de que la luz son partículas.

En el próximo post, veremos cómo es posible detectar un fotón simple. Es importante la descripción, porque sino siempre queda como algo no bien explicado en la divulgación científica. Recordemos que una cosa es la teoría (el modelo propuesto) y otra los experimentos. Tenemos que examinar este experimento de "detectar un solo fotón" por vez.

Principal fuente: el excelente libro de Richard Feynman, "QED: the strange theory of light and matter"

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 4 de Abril, 2015, 15:30

Anterior Post
Siguiente Post

Mencionaba en el anterior post que la electrodinámica cuántica, de la mano de Julian Schwinger, Sin-Itiro Tomonaga, y Richard Feynman, consiguió dar un valor finito para el número de Dirac. El valor teórico resultante fue de 1.00116, muy cercano al valor experimental de 1.00118. Fue un gran triunfo de la teoría, que comenzó a evitar los infinitos. Esa es la teoría que tenemos que estudiar en esta serie de posts.

Con los años, se mejoraron los resultados experimentales. Por ejemplo, en la segunda mitad del siglo pasado se llegó a determinar experimentalmente el valor de 1.00115965221 (con incertidumbre de 4 en el último dígito) mientras que la teoría daba 1.00115965246. Para darnos una idea de lo impresionante que es el acuerdo entre experimento y teoría, si midiéramos las distancia entre Los Angeles y Nueva York CON LA MISMA PRECISION, sería exacta con sólo la incertidumbre de un cabello humano. Y no es el único acuerdo entre experimento y teoría. Durante décadas la electrodinámica cuántica ha sido puesta a prueba y ha salido airosa. Se han medido cosas desde el orden de cientos de veces el tamaño de la Tierra, hasta un centésimo del tamaño de un núcleo atómico.

La teoría describe un vasto rango de fenómenos físicos. Quedan exceptuados los efectos gravitacionales y los fenómenos radioactivos, que son debidos a cambios en el núcleo atómico, donde intervienen otras fuerzas. ¿Qué queda fuera de gravitación y radioactividad? El quemado de gasolina en los automóviles, la formación de espuma y burbujas, la dureza de la sal o del cobre, las características del acero. Los biólogos tratan de explicar la vida en términos químicos, y se ha descubierto que las propiedades químicas son consecuencia de la electrodinámica cuántica.

Ahora bien, cuando decimos que la teoría "explica", en realidad no es tan así. En muchos fenómenos intervienen tal cantidad de electrones que es difícil explicar la complejidad. Pero si hacemos experimentos con pocos electrones en circunstancias simples, podemos calcular lo que sucede con mucha aproximación usando la teoría. Cuando hacemos ese tipo de experimentos, la teoría trabaja muy bien. Podemos decir que es la joya de la física, su más preciada posesión.

Y sirve de prototipo a las teorías que intentan explicar el comportamiento del núcleo atómico. Los actores del universo no son sólo electrones y fotones, sino que en el núcleo hay quarks y gluones y se encontraron más particulas en la naturaleza y en experimentos. Y aunque actúan de distinta forma, igual su conducta tiene un estilo "cuántico". Pero por ahora, nos concentraremos en electrones y fotones.

Principal fuente: el excelente libro de Richard Feynman, "QED: the strange theory of light and matter"

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 3 de Abril, 2015, 17:16

Anterior Post

En el anterior post presenté más contexto sobre el uso de números complejos en física y en la ecuación de Schrödinger. Recordemos que la solución de esa ecuación es una función de onda. Era lo que buscaba Schrödinger: luego de dar una charla sobre la teoría de de Broglie, su colega Debye le señaló que si había ondas en esa teoría, debía haber una función de onda, y como en otras ramas de la física, debería satisfacer una ecuación de ondas. De ahí arranca el trabajo de Schrödinger, que siguió un camino distinto al que tomamos nosotros.

En nuestro anterior "deducción" de la ecuación (a partir de elementos plausibles) vimos que no pudimos resolverla apelando a una función de onda real. Eso se debe a que en la expresión de la ecuación interviene LA PRIMERA DERIVADA del tiempo, y LA SEGUNDA DERIVADA de las otras coordenadas. Ese es el quid de la aparición de los números complejos en nuestra solución. Schrödinger siguió un camino más esotérico, pero llegó también a lo mismo: aunque "se resistió" a poner números complejos, al final tuvo que claudicar y expresar, en el últimos de sus artículos de la serie de 1926, la solución de su ecuación usando un coeficiente i (según el anterior post, parece que espoleado por alguna pregunta de Lorentz).

Algunos pensaron que tener una función de onda compleja era un defecto de la teoría. Al fin y al cabo, las magnitudes físicas, las que podemos medir por experimento, son todas reales (en el sentido no filosófico, de realidad, sino en el sentido de ser expresables, medibles en números reales). Pero hubo algo bueno en que sea función compleja. Si recordamos la historia del electromagnetismo, las funciones de onda de esa teoría daban valores reales, y eso llevó a considerar, por tradición de la física, que "había algo" que vibraba según esas ondas, y se inventó la teoría del éter. Se tardó bastante tiempo para entender que no había tal éter. Con la teoría de Schrödinger no corremos ese peligro: al ser compleja, no se espera que haya algo que "vibre" ahí afuera en la realidad. Uno podría esperar separar la función compleja en parte real y parte imaginaria. Matemáticamente, es posible hacerlo. Pero usar cada función por separado no lleva a ningún resultado físico.

Notablemente, se tardó unos meses en dar con una conexión física firme entre la función de onda compleja y la evidencia física. Schrödinger consideraba que había una relación entre su función y la densidad de carga eléctrica. Pero fue Max Born el que dio más en la tecla, al poner su postulado:
Teniendo la función de onda, digamos, para una partícula, una dimensión:

Lo expresado por:

Es la densidad de probabilidad. Como la función de onda se multiplica en cada punto (x,y) por su conjugada compleja (de ahí el asterisco en la segunda psi), el resultado es un número real en cada punto.  ¿por qué se llama densidad de probabilidad? Por el postulado de Born, que se expresa:

Si en el instante t se realiza una medición para localizar la partícula descripta por la función de onda Psi(x,t), entonces la probabilidad P(x, t) dx de encontrarla entre x y x + dx, es igual a:

Lo mismo se puede extender a varias coordenadas, a un sistema de partículas, y un volumen infinitesimal de esas coordenadas. Siendo lo de arriba "la densidad" por "punto de volumen", la probabilidad se obtiene integrando en el volumen V de coordenadas:

Se pide en general, que si se extiende la integración a todo el volumen de coordenadas, el valor de la probabilidad sea siempre (en todo tiempo) uno. Se dice entonces que la función de onda está normalizada. Se podrían tomar otras funciones de la función de onda que den igualmente resultados reales. Por ejemplo, se podría poner como densidad de probabilidad a:

Usando el valor absoluto de la función de onda. Pero estas otras opciones quedan descartadas porque su aplicación no lleva a los resultados físicos esperados (parece que es necesario un largo razonamiento para descartar estas otras soluciones, ninguna de mis fuentes (Landau/Lifschitz, Eisberg/Resnick) los menciona explícitamente).

Born publica sus ideas en una nota al pie de uno de sus artículos. Esa idea inicial, de probabilidad de posición, luego se extiende a otras probabilidades asociadas a otras medidas, no sólo a posición.

Ver también mi serie más matemática: Matemáticas y Física Cuántica (2) Probabilidad

Y ver

What is Born's Postulate
The Born Rule
The Born rule and its interpretation
Mathematical foundation of quantum mechanics

Es interesante ver Derivation of the postulates of quantum mechanics from the first principles of scale relativity donde se enumeran los postulados de la mecánica cuántica, y se propone una derivación alternativa.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez


Por ajlopez, en: Ciencia

Publicado el 29 de Marzo, 2015, 13:02

Hoy encuentro este fragmento de Pascal, lo escribió en el prefacio de su Tratado del Vacío:

... From this, we see that by a particular prerogative, not only does each man advance day by day in the sciences, but all men together make continual progress as the universe ages, because the same thing happens in the aging of mankind as a whole as happens during the aging of a single man. Thus, the entire body of mankind, over many centuries, must be considered as a single man, who lives forever and continues to learn [...]. Those whom we call the ancients were truly new in all things, and form the childhood of mankind; as we have added to their knowledge the experience of the centuries which followed them, it is in ourselves that we should seek the antiquity which we dream of in others

En verdad, el avance humano de las ciencias (al menos en los últimos siglos) se basa en esa colaboración de todos los que tratan de ir armando ese edificio. Casi cualquier logro actual en ciencia tiene una rica historia, a lo largo de los siglos, de aciertos y fallos, de avance lento o rápido desarrollo. Por ejemplo, la teoría atómica, con las ideas iniciales (y equivocadas) de Demócrito, la clarificación de Lavoisier fundando la química moderna, la teoría de Dalton proponiendo el atomismo, las correcciones de varios a esa teoría, el uso de la hipótesis atómica por parte de Boltzman para explicar la entropía, y hasta el trabajo de Rutherford para ir desvelando la estructura atómica.

Encuentro el párrafo de Pascal, en el excelente libro Invitation to the mathematics of Fermat-Wiles, de Yves Hellegouarch.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 24 de Marzo, 2015, 17:38

Anterior Post

Heisenberg busca entonces explicar las intensidades de las líneas del espectro atómico, siendo las frecuencias ya "explicadas" por la teoría de Bohr y sus derivados. Digo "explicadas" entre comillas, porque tampoco estaba claro por qué la teoría de Bohr funcionaba (sobre el primer "paper" de esa teoría, estoy escribiendo Sobre la constitución de átomos y moléculas, por Niels Bohr).

Heisenberg no encara el problema general, sino un electrón moviéndose en una coordenada. Para la teoría clásica, un electrón en movimiento acelerado radía energía, según la fórmula de Larmor:

Donde e es la carga del electrón, c la velocidad de la luz, y x con dos puntos es la aceleración del electrón.

(ver una derivación de esta fórmula en http://home.strw.leidenuniv.nl/~michiel/ismclass_files/radproc07/chapter4.pdf)

Si tomamos el caso de un oscilador armónico clásico, tenemos:

(ver sección 4.6 en http://home.strw.leidenuniv.nl/~michiel/ismclass_files/radproc07/chapter4.pdf)
Con lo que la aceleración queda relacionada con la posición según:

Ver http://en.wikipedia.org/wiki/Harmonic_oscillator y http://en.wikipedia.org/wiki/Fundamental_frequency

Reemplazando en la fórmula de Larmor, el promedio emitido (según mi fuente … hay un coeficiente 4, en vez de 2, supongo que insertado por la forma de calcular el promedio):

Pero en vez de vibrar en la frecuencia fundamental, bien podría vibrar en múltiplos de esa frecuencia, queda entonces:

Donde alfa es un número entero, que puede tomar cualquier valor, y x sub alfa es la posición del electrón, en este caso oscilando en la frecuencia alfa por omega (puede tomarse que la posición x depende de alfa).
En el sistema que quiere explicar Heisenberg, el electrón tiene estados estacionarios n, cada uno con una frecuencia fundamental omega(n) quedando el promedio de energía emitido como:

y que pueden expresarse no SOLO con la frecuencia fundamental, sino también como combinación de todos sus correspondientes armónicos. La expresión de la posición del estado estacionario n en función del tiempo, toma entonces la expresión:

Vemos que cada término de la suma tiene un coeficiente a sub alfa, que es el "peso" de ese término en el resultado final, y una frecuencia múltiplo de la fundamental omega(n). Los valores de x(n, t) oscilan en el tiempo pero con la frecuencia fundamental omega(n), porque ASI LO HACEN cada término de la sumatoria.

Tenemos que ver en los próximos posts, la aparición del número imaginario i, qué es eso del estado estacionario, y cómo aplicó Heinsenberg el principio de correspondencia para modificar la fórmula de arriba y usar los coeficientes que aparecen en la sumatoria de una forma ingeniosa.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 16 de Marzo, 2015, 9:26

Anterior Post

The Search For Neutrons That Leak Into Our World From Other Universes — The Physics arXiv Blog — Medium
https://medium.com/the-physics-arxiv-blog/the-search-for-neutrons-that-leak-into-our-world-from-other-universes-318bfff97f0f

A Quantum Of Physics by Léo Grimaldi • Kifi
https://www.kifi.com/leo/a-quantum-of-physics

El timo del motor cuántico de Vladímir Leónov, el superunificador | Ciencia | La Ciencia de la Mula Francis
http://francis.naukas.com/2015/01/20/el-timo-del-motor-cuantico-de-vladimir-leonov-el-superunificador/

A Marte en 42 horas: Científico ruso anuncia prueba exitosa de revolucionario propulsor cuántico - RT
http://actualidad.rt.com/ciencias/163886-marte-horas-cientifico-ruso-propulsor-cuantico-prueba

The Movie Life Story of Stephen Hawking Is Not Very Scientific - NYTimes.com
http://www.nytimes.com/2014/10/28/science/stephen-hawkings-movie-life-story-is-not-very-scientific.html?_r=1

TUM - TU München: Rasante Reise durch das Kristallgitter
http://www.tum.de/en/about-tum/news/press-releases/short/article/32059/

Sobre el colapso dinámico de la función de onda cuántica | Ciencia | La Ciencia de la Mula Francis
http://francis.naukas.com/2015/01/07/sobre-el-colapso-dinamico-de-la-funcion-de-onda-cuantica/

Geiger–Marsden experiment - Wikipedia, the free encyclopedia
http://en.wikipedia.org/wiki/Geiger%E2%80%93Marsden_experiment

Have We Been Interpreting Quantum Mechanics Wrong This Whole Time? | WIRED
http://www.wired.com/2014/06/the-new-quantum-reality/

Papers from the beginning of quantum mechanics - Institute for Theoretical Physics II / University of Erlangen-Nuremberg
http://theorie2.physik.uni-erlangen.de/index.php/Papers_from_the_beginning_of_quantum_mechanics

Matrix mechanics - Wikipedia, the free encyclopedia
http://en.wikipedia.org/wiki/Matrix_mechanics

On Matrix Mechanics
http://www.mathpages.com/home/kmath698/kmath698.htm

On the origins of the Schrodinger equation
http://phys.org/news/2013-04-schrodinger-equation.html

The Schrödinger Equation in One Dimension
http://www.colorado.edu/physics/TZD/PageProofs1/TAYL07-203-247.I.pdf

Mis Enlaces
http://delicious.com/ajlopez/quantum

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 14 de Marzo, 2015, 12:09

Siguiente Post

Inicio hoy esta serie, sobre un tema fascinante, una teoría física que nació en el siglo XX, usando todo lo nuevo de la mecánica cuántica. Quizás sea la teoría más satisfactoria que tenemos en física. Veamos de explorarla en algún detalle.

La historia de la física nos muestra el avance en la explicación de diversos fenómenos desde unas pocas teorías. Por ejemplo, el movimiento de los planetas, el movimiento de los proyectiles, el sonido, y el calor, terminaron siendo fenómenos explicables con la física newtoniana del movimiento de los cuerpos. Esa teoría logró la primera "gran unificación" de la física al igualar la física de los cielos con los de la tierra, algo que había quedado separado claramente desde la época de Aristóteles. Se vió que el sonido también podía explicarse como movimiento de las moléculas que forman el aire. Y que el calor era la manifestación de los movimientos atómicos. En cambio, la gravitación, otro de los temas de Newton, no puede explicarse por una teoría del movimiento: es una fuerza básica de la naturaleza, que no ha encontrado todavía una explicación física de su origen.

Aunque Newton trató de explicar la luz en términos de movimientos mecánicos de partículas, se vió que esa teoría no explicaba totalmente los fenómenos lumínicos, como los patrones de interferencia. Y hubo otros fenómenos, conocidos desde la antigüedad, como los eléctricos y magnéticos, que tenían puntos de contacto con la gravitación, pero eran claramente diferentes. El siglo XIX vió nacer, principalmente de la mano de Faraday y Maxwell (para nombrar a los dos principales científicos de toda una serie de personas que contribuyeron a este avance) la unificación del electromagnetismo. Y fue Maxwell quien propuso que la luz era un fenómeno electromagnético.

Se descubrió que el calor tenía puntos de contacto con la luz: que se podía radiar, sin intercambio de materia, y que la luz transportaba energía, que podía transformarse en calor al llegar a la materia. Ese punto de contacto entre luz y materia fue misterioso por muchas décadas, y ese misterio impulsó el desarrollo de la termodinámica y la teoría de Planck para explicar el cuerpo negro. Cuando finalmente la teoría atómica fue aceptada, hubo que comenzar a explicar la interacción entre materia y luz a nivel atómico. Con los estudios de la electricidad se postuló la existencia de una partícula (la primera descubierta como tal): el electrón. La dificultad para explicar su presencia en el átomo, lleva a Bohr a su modelo atómico en 1913, donde pone en suspenso la física de su tiempo. Según ésta, si el electrón se movía debía emitir energía: todo el electromagnetismo apuntaba hacia ese resultado. Pero no era así.

Recién en 1926 el misterio comienza a resolverse mejor, gracias a la aparición de la mecánica cuántica. Al menos, para explicar el movimiento del electrón. La mecánica cuántico aportó explicación a muchos detalles de los átomos, moléculas y espectros atómicos. Explicó por qué un átomo de oxígeno se combina con dos de hidrógeno, y así sirve de fundamento a la química. Pero si bien tuvo éxito en ese campo, todavía había algo que se escapaba: la relación entre materia y luz.

Hubo que esperar a la fusión entre esa mecánica nueva y la relatividad para comenzar a explicar (desde los trabajos de Dirac) la interacción en detalle de la materia (electrón en este caso) y la luz (que gracias a la cuántica, pasó a verse como compuesta de fotones). Nació la electrodinámica cuántica. Pero la nueva teoría tenía un problema. Si se calculaba algo de forma aproximada, daba una predicción correcta. Pero si se seguía afinando el cálculo, los resultados daban: infinito! No se podía calcular nada más allá de cierta aproximación.

Como mencioné, fue Dirac el que dió una teoría que unificaba cuántica y relatividad. Triunfó donde otros habían fracasado, y de una forma notable. Su teoría explicaba no sólo el electrón, sino también la aparición del spin, un fenómeno netamente cuántico. Y anticipaba la existencia de antimateria. Relacionado con el spin, la teoría de la Dirac derivaba un momento magnético para el electrón, con valor a 1 Cerca de 1948 los experimentos mostraron que el valor era cercano en realidad a 1.00118, con una incertidumbre de 3 en el último dígito. Ya para ese entonces se esperaba que no fuera igual a uno, debido a la interacción entre electrones y fotones. Pero cuando se usaba la electrodinámica cuántica para calcular la corrección, el resultado daba infinito.

El problema fue resuelto en 1948, de forma simultánea por Julian Schwinger, Sin-Itiro Tomonaga, y Richard Feynman.

Principal fuente: el excelente libro de Richard Feynman, "QED: the strange theory of light and matter". Mucho de estos posts será apenas una transcripción en mis palabras de lo que escribe Feynman.

Mientras, sigo estudiando los temas que preceden a éste en:

Mecánica Clásica
Hacia la Mecánica Cuántica
Matemáticas y Física Cuántica
Física Cuántica
Electromagnetismo
Lagrangianos y Hamiltonianos

y algo de lo que vino después:

Teoría de Grupos y Partículas Elementales
La necesidad de una teoría cuántica de campos
Notas sobre Teorías Gauge

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 10 de Marzo, 2015, 14:20

Ya varias veces fue mencionado Richard Feynman en este blog. Físico importantísimo en el desarrollo de su ciencia en el siglo pasado, premio Nobel, gran divulgador, fanfarrón como pocos (pero tenía con qué), bamboyante, casi siempre tratando de ser el centro de atención, construyó su propia leyenda con anécdotas. Desde tocar el bongó, hasta ser asistente frecuente de clubes de "strip-tease", hasta aprender dibujo para dibujar a sus amantes desnudas, todo Feyman es un caso de vida.

Yo recordaba que tuvo una primera esposa, en los cuarenta. En estos meses me enteré de más detalles. Ariline era su novia, y cuando enfermó de linfoma de Hodkings, su familia prefirió ocultarle a ella la situación. Feynman, el novio, se opuso, pero respetó la decisión. Y cuando ella se enteró al escuchar a su madre comentando su enfermedad con una vecina, lo encaró a Feynman. El tenia preparada una carta, la carta del adiós, se la entregó y le pidió matrimonio. Se casaron, y él partió al poco tiempo para trabajar en el proyecto Manhattan, el de la bomba atómica.

Después se supo que el diagnóstico era incorrecto: en vez de ese tipo de cáncer, Arline sufría una forma rara de tuberculosis (aún hoy, hay formas de tuberculosis que resisten los tratamientos actuales). Se retiró a un lugar para su tratamiento, pero pasaron los años y su situación no mejoro. Una carta de Feyman, estando a 160km de ella, escrita desde los Alamos, el 6 de junio de 1945:

Esposa mía:

Siempre soy demasiado lento. Siempre hago que te siantas dsgraciada porque tando en entender. Ahora lo entiendo. Te haré feliz ahora... Por fin entiendo lo enferma que estás... Este tiempo pasará, te pondrás mejor. Tú no lo  crees pero yo estoy seguro... Lamento haberte fallado, no haberte proporcionado el pilar que tú necesitabas para apoyarte. Ahora soy un hombre en el que puedes descansar, tener confianza y fe.... Utilízame como quieras. Soy tu marido.

Adoro a una gran mujer y paciente. Perdóname por mi lentitud en comprender. Soy tu marido. Te quiero.

Fue la última carta que Arline leyó de su marido. Murió el 16 de junio  las nueve y veinte de la noche.

Y el que sería el gran Feynman, el hombre de los mil amoríos, el eterno adolescente, no se recuperó fácilmente. Como escribía arriba, al cabo de un tiempo se concentró en ir construyendo su propia leyenda, luego de la segunda guerra. Y llegó lejos. Siempre generando comentarios, historias entre los que lo conocían. Pero hubo un papel que se guardó y sólo se encontró entre sus cosas, luego de su muerto. En medio de una depresión, habiendo pasado nueve días desde el fallecimiento de su padre, escribe a su esposa muerta en octubre de 1946:

Te adoro, cariño.

Sé cuánto te gusta oír esto, pero no solo lo escribo porque a ti te gusta, lo escribo porque me reconforta escribírtelo [...] Me resulta difícil entender lo que significa amarte después de que hayas muerto, pero aún quiero consolarte y cuidar de ti, quiero que tú me ames y cuides de mí. Quiero tener problemas que discutir contigo, quiero hacer pequeños proyectos contigo [...] Cuando enfermaste te procupaste porque no podías darme algo que tú querías hacer y pensabas que yo necesitaba. No tenías que haberte preocupado. Igual que te dije entonces, no era necesario porque te quería mucho y de muchas maneras. Y ahora incluso es más cierto: no puedes darme nada ahora pero yo te quiero y te interpones en mi camino para amar a cualquier otra, pero quiero permanecer así. Tú, muerta, eres mucho mejor que cualquier otra viva. Sé que me dirás que estoy loco y que quieres que sea plenamente feliz y no quieres interferir en mi camino. Apostaría a que estás sorprendida de que ni siquiera tenga una novia (excepto tú, tesoro) después de dos años [...] No lo entiendo, pues he conocido a muchas chicas y muy guapas y no quiero quedarme solo, pero tras dos o tres encuentros todas ellas parecen cenizas. Solo tú quedas. Tú eres ral.

Mi querida esposa, te adoro.

Amo a mi mujer. Mi mujer está muerta.

Rick

Y termina con:

P.D: Perdona que no eche esto al correo, pero no sé tu nueva dirección.

La carta se conservó, pero muy gastada. Parece que Feynman la leyó muchas veces, y la llevaba consigo.

Encuentro todo esto en el excelente: "Feynman, la electrodinámica cuántica; cuando un fotón conoce a un electrón" de Miguel Angel Sabadell

Por ajlopez, en: Ciencia

Publicado el 9 de Marzo, 2015, 6:30

Anterior Post
Siguiente Post

The Reference Frame: Why complex numbers are fundamental in physics
http://motls.blogspot.com.ar/2010/08/why-complex-numbers-are-fundamental-in.html

Student Years, 1920 - 1927: The Old Quantum Theory
http://www.aip.org/history/heisenberg/p05c.htm

Student Years, 1920 - 1927: The Sad Story of Heisenberg's Doctorate
http://www.aip.org/history/heisenberg/p06.htm

Heisenberg / Uncertainty Principle - Werner Heisenberg and the Uncertainty Principle
http://www.aip.org/history/heisenberg/p01.htm

Semiclassical theory of helium atom - Scholarpedia
http://www.scholarpedia.org/article/Semiclassical_theory_of_helium_atom

History of classical Helium atom approximation
http://www7b.biglobe.ne.jp/~kcy05t/clasihe.html

Oral History Transcript — Dr. Werner Heisenberg
http://www.aip.org/history/ohilist/4661_4.html

On shell and off shell - Wikipedia, the free encyclopedia
http://en.wikipedia.org/wiki/On_shell_and_off_shell

Charles Galton Darwin - Wikipedia, the free encyclopedia
http://en.wikipedia.org/wiki/Charles_Galton_Darwin

quantum mechanics - Darwin term and Zitterbewegung - Physics Stack Exchange
http://physics.stackexchange.com/questions/35338/darwin-term-and-zitterbewegung

Mis Enlaces
http://delicious.com/ajlopez/quantum

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 8 de Marzo, 2015, 15:56

Anterior Post

Todos estamos familiarizados con los cuerpos calientes y fríos. Sabemos lo caliente que puede estar una sartén recién retirada del fuego, conocemos cómo las brasas de carbón se ponen rojas al consumirse, y se espera que un cuerpo frío se vaya calentando al quedar expuesto al medio ambiente normal. Llamamos "calor" a algo que se tardó un gran tiempo en entender. Dentro de la revolución newtoniana, los fenómenos del calor tuvieron su lugar, pero no quedaron explicados por completo.

El caso del carbón pone de manifiesto que hay una relación entre la emisión de calor y la emisión de radiación. El Sol debe ser el fenómeno más presente, pero también hay que recordar que mucha de la emisión de calor es invisible, así que no siempre fue evidente la relación entre radiación de calor y emisión-absorción de luz.

Newton estableció en 1701 su ley de enfriamiento (la tasa de enfriamiento de un cuerpo es proporcional a la diferencia entre su temperatura y su medio ambiente, ver también), y luego en 1760 aparece la ley de Lambert, con la relación entre el flujo de la luz y el plano por el que pasa, y la ley de Prevost en 1792, sobre el intercambio de calor, que afirma que los cuerpos radían y absorven energía, y en un sistema cerrado, la suma algebraica de los calores que se pierden o ganan en cada cuerpo dentro del sistema es igual a cero.

En el siglo XIX el desarrollo de la teoría del calor avanzó más, y ante el desarrollo paralelo de la teoría ondulatoria de la luz, quedó más claro la relación entre luz y calor. Herschel descubre los rayos infrarrojos en 1800, al descubrir que hay parte del espectro (invisible) que sigue aumentando la temperatura de un termómetro. En 1817 aparece la ley de enfriamiento de Dulong-Petit, que modifica la de Newton aceptando que la proporción de enfriamiento puede estar elevada a un exponente distinto de uno (de nuevo ver este paper). En 1833 Ritchie publica su experimento, que muestra que la capacidad de emisión de una superficie es proporcional a la capacidad de absorción, lo que es la antesala a las leyes de Kirchoff. Ampere consideró por esos tiempos una ley de desplazamiento de la radiación térmica. En termodinámica, Carnot presenta su ciclo de máquina de calor en 1814 (otra fuente da 1824). Mayer anuncia la ley de conservación de energía en 1842 (no fue bien recibida al principio, debido a lo nebuloso que todavía era eso de "energía", mucho del crédito pasó a Joule, que hizo experimentos más detallados sobre el tema en 1843). Finalmente Helmhozt declara la ley de conservación de energía en 1847, con exactitud prusiana. Clausius propone la segunda ley de la termodinámica en 1850, seguido por W.Thompson en 1851, y la teoría cinética de los gases por Kronig en 1856, y el propio Clausius en 1857.

Notablemente, muchos de estos aspectos del calor, emisión y absorción, SON INDEPENDIENTES del material del que están hechos los cuerpos utilizados. Esto comenzó a develar una unidad en la estructura de la materia y su comportamiento que sólo se hizo evidente luego con la teoría atómica y la mecánica cuántica.

De esta forma, el desarrollo de la teoría del calor se fue asentando en bases más firmes. Y tuvo impulso en la Alemania de entonces debido al rápido desarrollo de su industria, tanto civil como militar.

Principal fuente consultada: The Formation and logic of quantum mechanics, de Mituo Taketani, Masayuki Nagasaki.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 1 de Marzo, 2015, 13:33

Anterior Post
Siguiente Post

Las leyes de la mecánica clásica fueron reunida y expuestas en 1686 por Isaac Newton (1642-1727) en su famoso libro Philosophiae Naturalis Principia Mathematica (ver Los Principia de Newton, Mecánica Clásica) Durante los dos siglos siguientes fue extendida y usada para explicar todos los fenómenos de la física y la astronomía. Fue la primera "gran unficación": la de los cielos y la tierra, separados en explicación desde los tiempos de Aristóteles. Newton mostró que lo que hacía que un proyectil siguiera una trayectoria y no otra, tenía la misma explicación que las órbitas de la Luna y los planetas.

Muchos después de Newton fueron extendiendo la mecánica clásica, incluso en formas que pienso le hubieran parecido extrañas al propio Newton (recordemos el planteamiento lagrangiano, ver Lagrangianos y Hamiltonianos). Pero con todo el triunfo de la mecánica clásica para explicar los fenómenos físicos, iba apareciedo, con el correr de los años, temas y conceptos que no encajaban en el gran esquema newtoniano. Uno era la luz: tratada de explicar como movimiento de partículas, chocó con la prueba experimental de la interferencia, y la explicación ondulatoria. Luego el calor también apareció, ligado a la luz en la explicación de la radiación. En el siglo XIX además aparecieron cuestiones como la constitución de la materia en estructura atómica y molecular (hay que admitir que era sólo una explicación tentativa, no todos aceptaban este modelo, hasta entrado el siglo XX hubo quienes no aceptaron la explicación atómica) y más sobre la naturaleza de la luz, como la ausencia experimental de detección de cambio de velocidad relativa (esto originó la primera teoría de la relatividad). Y todavía más: la electricidad y el magnetismo se fueron descubriendo como caras de la misma moneda, y desde Faraday a Maxwell vemos el avance del electromagnetismo.

Pero vayamos apuntando al nacimiento de la mecánica cuántica. Como apunta Max Jammer, la teoría cuántica, en su primera formulación, tuvo su origen en la incapacidad de la física clásica de dar cuenta de lo observado experimentalmente en la distribución de la energía en el espectro continuo de la radiación de cuerpo negro.

No era un problema fácil: era la cuantificación de la energía en vibraciones electromagnéticas armónicas, ligadas a una estructura atómica que todavía no estaba clara. Tal vez se hubiera avanzado más si la atención se hubiera detenido en otro fenómenos, como el calor específico. O que se hubiera descubierto la cuantización de la energía atómica al ver que la energía agregada siempre iba a la energía cinética de los átomos y no era absorbida internamente, en su energía de ligadura.

Pero eso es especulación. En el próximo post, veremos el estado de la teoría del calor y la radiación, con la llegada de las leyes de Kirchoff.

Fuente adicional consultada: Quantum Mechanics, A Conceptual Approach, por Hendrik A. Hameka

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 15 de Febrero, 2015, 19:00

Anterior Post

Ya mencionamos que, experimentalmente, una magnitud f puede tener valores discretos o continuos (o discretos en un rango, y continuos en otros, puede darse el caso mixto). Sigamos estudiando el caso discreto. En física cuántica sólo conocemos la probabilidad de que dado un estado físico, la magnitud f tenga el valor fn. A los físicos les gusta igual manejar un valor para la magnitud f, el llamado valor medio:

 Lo expresamos con una f con una raya horizontal encima. Vemos que cada valor posible discreto fn está ponderado por su probabilidad. Cada estado cuántico tendrá un valor medio de cada magnitud f. En vez del valor absoluto al cuadrado de cada an, podemos recordar lo equivalente:

Recordemos que los coeficientes an, vienen de expresar el estado completo como suma de los estados n

Nos gustaría poder expresar al valor medio f, no con los coeficientes, sino con la propia función de estado. Para eso, los físicos descubrieron un concepto matemático útil, el operador. Un operador es una función que recibe como "entrada" una función (en lugar de recibir un valor numérico), y devuelve una función como resultado. Por ejemplo, la derivada puede considerarse un operador. Los operadores los vamos a indicar con un "sombrero" encima de su letra. Entonces, los físicos DEFINEN un operador f, como el operador que hace que la expresión de la derecha, en la siguiente fórmula, DE EL VALOR MEDIO de f:

La expresión bajo la integral tiene la función de estado conjugada Y LA FUNCION DE ESTADO LUEGO de aplicarle el operador f. El operador f se DEFINE (y es un tema de matemáticas demostrar la existencia y unicidad) como el operador que hace que esta integral RESULTE ENTREGANDO el valor medio. Es decir, debería dar los mismos valores que nuestra expresión del valor medio solamente usando los coeficientes an, sin las función de estado.

Ahora, para que todo esto sea compatible con el principio de superposición de estados, los físicos piden que el operador sea línea, es decir, espera que cumpla:

Y que cumpla:

Este es uno de los principios del formulismo matemático cuántico: a cada manginud física le corresponde un operador lineal.

Recordemos que una función de estado puede ser la que corresponda al estado fn. En ese caso, esperamos que:

Para que esto ocurra basta que el operador lineal cumpla, para cada función de estado n, con:

Es decir, que aplicado el operador al estado n (de esos estados "básicos" que tenemos asociados a los valores posibles fn), nos devuelva LA MISMA función de estado, multiplicada POR UN NUMERO, el valor de la magnitud fn.

Estas funciones base se llaman funciones propias, y los valores fn son los valores propios. Son las soluciones a la expresión:

Donde el f de la izquierda es un operador (ver el "sombrero") y el f de la derecha es una constante a determinar.

Bueno, bastante por hoy, aparecieron conceptos nuevos, que espero quede claro su aplicación en los próximos posts. Por ejemplo, ¿se podrá descubrir el operador funcional asociado a la energía, al momento, a la posición? ¿qué expresión concreta tienen? También hay que investigar que el mismo operador puede cambiar de expresión al cambiar las coordenadas que usamos en la función de estado, debiendo igual representar LA MISMA magnitud física.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 1 de Febrero, 2015, 18:32

Anterior Post

Ya estuvimos viendo rotaciones alrededor de un eje (en tres dimensiones), podemos ahora escribir:

A la izquierda tenemos multiplicar. A la derecha, tenemos sumar. Esto nos recuerda a lo que tenemos en exponenciación:

Aunque hay que tener cuidado: en la primera expresión de arriba, estamos multiplicando matrices, y en la segunda expresión, estamos operando con números, como exp(x) y el propio x.

Recordemos que

Eso es una rotación FINITA de ángulo dado theta, alrededor del eje z. ¿Cómo podemos expresar una rotación INFINITESIMAL, que sirva de base "generadora" para todas las rotaciones de ese eje?

Si calculamos la derivada por theta, en el valor 0, quedar:

Entonces, podemos usar esa derivada como el primer factor en su expresión en serie. Como aproximación podemos escribir:

Donde en segundo término de la derecha llega a ser la derivada encontrada multiplicada por delta theta, el incremente infinitesimal del ángulo  (hay que justificar el uso de i, la raíz de -1 imaginaria). Debería ser para eso:

Una rotación finita puede componerse (en principio) de sucesivas rotaciones infinitesimales (digo en principio, para mostrarlo formalmente hacia dónde vamos; dos rotaciones infinitesimales, si realmente son INFINITESIMALES, solo dan una rotación infinitesimal):

Tomando:

Para N rotaciones, si tomamos N tendiendo a infinito, queda:

En el desarrollo de arriba, operamos formalmente, PORQUE NO HAY DEFINICION DIRECTA de e elevado a matrices. Solamente porque Mz es una matriz que CONMUTA CONSIGO MISMA (como todas las matrices), podemos hacer esa ANALOGIA con respecto a la exponencial: lo que conocemos, es la exponencial de un número real, lo de arriba es "algo de magia" para expresar la exponencial de una matriz.

Con todo lo plausible que es la igualdad de arriba, hay que probar que:

Sea igual a lo que da el desarrollo infinito de la exponenciación:

Este desarrollo se expande a:

Las dos primeras matrices son la matriz desdoblada. Las potencias PARES de Mz son igual a la segunda matriz (con dos unos y un cero en la diagonal), y las potencias IMPARES de Mz son iguales a Mz.

Queda, reagrupando, y resolviendo los signos de i potencia:

Los dos desarrollos de potencias de theta son los desarrollos de coseno y seno en serie, queda:

Quedando al fin:

Como se quería probar.

En próximo post, revisaremos que condiciones cumple Mz, mencionaremos la expresión de Mx, Mz (que se pueden deducir como las de Mz), y veremos si Rz(theta) es unitaria.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez


Por ajlopez, en: Ciencia

Publicado el 17 de Enero, 2015, 15:32

En estos días me encuentro con este fragmento notable, de una carta de Kepler a su amigo Fabricius, de 1605:

Si se colocara una piedra fuera de la Tierra y se considerara que ambas carecen de cualquier movimiento adicional, entonces no solo la piedra se precipitaría hacia la Tierra, también la Tierra lo haría hacia la piedra; repartirían el espacio que las separa en una proporción inversa a sus pesos respectivos.

Digo notable, porque asoma acá la tercera ley de Newton, que todavía no había nacido. En otra carta, propone que la resistencia a moverse de un planeta es proporcional a su masa, aunque no tenía datos sobre la masa de los planetas. Pero hay diferencias. La gravedad, según Newton, es creada por la masa del Sol. Kepler pensaba que era generada por la ROTACION del Sol. Ese giro impulsaría a girar a los planetas, a los más cercanos con más velocidad que a los más lejanos. ¿Cómo se debilitaba esa fuerza con la que el Sol movía a los planetas? No lo dijo expresamente, pero mencionó que se debilitaba igual que la luz al alejarse de su origen. En otro lugar, demostró que el flujo luminoso se perdía según el inverso del cuadrado de la distancia.

¿Podrían haber influido estas ideas en Newton? Gran parte de ellas sólo se expresó en papeles privados. Esos papeles fueron heredados por Ludwig Kepler, su hijo, que los llevó a Konisberg. Cuando este hijo murió, los papeles fueron comprados por D.J.Hevelius, quien los adquirió de los herederos. Luego recorrieron un largo camino: Leipzig, Viena, Frankfurt, y finalmente acabaron en el observatorio de Pulkovo, en San Petersburgo, luego de haber sido adquiridos por Catalina II, gracias a un consejo de Leonhard Euler. Ahí es donde están actualmente. Ante tan largo periplo, es imposible que Newton tuviera acceso a ellos.

Post relacionados:

El modelo de Kepler, el mecanismo de Newton
El mecanismo de Kepler
Newton explicando la gravedad

Encuentro este fragmento en el excelente libro "Kepler, el movimiento planetrio, bailando con las estrellas", de Eduardo Battaner Lopez, publicado por RBA, y entregado acá en Argentina por el diario La Nación.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 11 de Enero, 2015, 17:16

Anterior Post

Veamos hoy de presentar un ejemplo concreto y corto del tema tratado en el anterior post: tener un potencial que dependa de la posición y no de la velocidad.

Habíamos trabajado con una lagrangiana donde aparece el potencial restando:

Trabajemos con una sola partícula, viajando por una sola coordenada, en vez de un vector x con varias:

¿Qué potencial U podríamos usar? Bien, sea uno que cuando la partícula esté ubicada en el origen (x1 = 0), su potencial sea nulo. Y que cuando se desplace hacia los x1 positivos, o los x1 negativos, el potencial crezca de la misma manera (no importa si x1 es positivo o negativo, el potencial dependerá de su desplazamiento absoluto). Un potencial así puede ser:

Donde k es una constante positiva de proporcionalidad. Un potencial así es el del oscilador armónico:

http://en.wikipedia.org/wiki/Harmonic_oscillator

El lagrangiano completamente expresado en x1 es:

Aplicando las ecuaciones de Euler-Lagrange

Obtenemos:

O lo que es lo mismo:

Digamos que los x1 positivos estan "hacia la derecha" del punto de origen. Lo de arriba dice: si estamos a la derecha del punto de origen, hay un valor negativo –kx1 que se aplica a la variación en el tiempo del momento (masa por velocidad). Es decir, que este momento va a disminuir (considerando "velocidad hacia la derecha" como positiva). Si estamos con x1 a la izquierda del punto de origen, el momento tendrá una variación temporal positivo. Sea un entorno no relativista, donde la masa no cambia con el tiempo ni la velocidad, apliquemos el dt a la velocidad:

Tenemos que recordar que nos gustaría encontrar la solución de x1 en función del tiempo. Una solución posible es:

Nos quedamos con la parte real, y tomamos e elevado a la a como un parámetro libre que indica la posición al comienzo del tiempo:

Hemos resuelto la ecuación del movimiento.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 31 de Diciembre, 2014, 11:06

Siguiente Post

Es tiempo hoy de comenzar esta serie de posts, para describir y comentar el desarrollo histórico y conceptual de la mecánica cuántica, que tomó forma en el primer cuarto del siglo pasado, pero que hunde sus orígenes en el siglo XIX y aledaños.

Tendremos que visitar las principales fuentes de su origen. Por un lado, la termodinámica y la relación entre radiación y materia. Nos encontraremos con Kirchoff, Boltzmann, Planck y hasta el aporte de Einstein, entre otros. Por otro lado, tenemos que estudiar cómo influyó la existencia de espectros de sustancias simples (al comienzo no se hablaba de espectros atómicos, porque la teoría atómica no estaba todavía asentada y admitida), y luego la estructura del átomo, con el gran avance del modelo de Rutherford, basado en los experimentos de Mardsen, Geiger, y la contribución esencial a su entendimiento cuántico por parte del modelo de Bohr de 1913 (de nuevo, con extensiones de Sommerfeld y otros; el desarrollo de la mecánica cuántica ha involucrado el cruce de ideas, modelos y experimentos por décadas). La naturaleza de la luz, la aparición de su conducta corpuscular (recordemos el "paper" de Einstein de 1905, donde entre otros, la ponía en el tapete con el fenómeno fotoeléctrico (no es el único experimento al que apelaba)), la aparición de la estadística en la emisión y absorción de radiación, y la extensión "mágica" de la naciente dualidad de la luz a las partículas, de la mano de de Broglie. Notablemente, la idea de onda es la base de la teoría de Schrodinger, mientras que Heisenberg prácticamente no usa nada de esas ideas, apoyándose en los fenómenos de radiación por parte de la materia.

Mientras, pueden leer mis series La ecuación de Schrodinger, Heisenberg desarrollando la mecánica cuántica, Entendiendo a Heisenberg, donde se desarrollan más puntualmente algunos temas.

Las principales fuentes que quiero consultar son:

- The Conceptual Development of Quantum Mechanics, de Max Jammer
- The Formation and logic of quantum mechanics, de Mituo Taketani, Masayuki Nagasaki
- Varios libros biográficos (Planck, Heisenberg, Schrodinger, Einstein....) de ediciones RBA
- The Golden Age of Theoretical Physics, de Jagdish Mehra
- Sources of Quantum Mechanics, editado por van der Waerden
- Y otras fuentes que iré mencionando a medida que aparezcan, como artículos de divulgación, y libros de texto

Quedará fuera de alcance: la física cuántica posterior, la teoría cuántica de campos y extensiones relativistas, que espero tengan merecido otra serie de posts sobre su desarrollo.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 29 de Diciembre, 2014, 7:40

Anterior Post
Siguiente Post

Tomemos otro caso concreto, sencillo. De nuevo, el caso es el de una partícula, pero esta vez, en vez de estar totalmente libre, está viajando por un potencial que depende sólo de la posición (no del tiempo ni de la velocidad). Guiados por los primeros posts, donde el lagrangiano fue igualado a energía cinética MENOS energía potencial (no siempre es así), ponemos:

Donde el x con punto es un vector velocidad (y ese primer término de la derecha es la energía cinética de la partícula), y el x sin punto es un vector posición. La U(x) es la energía potencial, que esperamos sólo depende de la posición de la partícula, y no varía con el tiempo (es decir, sus valores para cada punto del espacio se mantienen constantes; si hay cambio, es porque hay cambio en x, no en t)

Expresado en coordenadas cartesianas, queda el lagrangiano:

Aplicando las ecuaciones de Euler-Lagrange:

Quedan TRES ecuaciones de movimiento, UNA POR COORDENADA. Por ejemplo, para x1:

¿Qué significa? Supongamos que con el tiempo, la velocidad x punto aumenta (el primer término de la izquierda aumenta). Para que se mantenga la suma cero, el segundo término tiene que disminuir. Y para eso, se deberá haber desplazado la partícula a un lugar donde la nueva U sea menor que la original. Es decir, a mayor cantidad de movimiento, pasamos a estar en un punto que tiene menor potencial. Y viceversa. Lo que ganamos en energía cinética, lo perdemos en energía potencial. De nuevo, resultados que concuerdan con la mecánica newtoniana clásica.

Vemos que en el análisis de arriba, la velocidad se considera como una variable más, "independiente" de la variable posición. Es algo raro de ver, pero funciona.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez


Por ajlopez, en: Ciencia

Publicado el 28 de Diciembre, 2014, 6:35

Anterior Post

Sea que tenemos ahora una carga q, puesta en el medio de un campo eléctrico E. El campo ejerce fuerza sobre la carga, y la va moviendo, digamos, desde el punto A hasta el punto B, siguiendo una trayectoria C. A medida que va ejerciendo su fuerza, el campo efectúa trabajo sobre la carga. El trabajo realizado es, por definición:

Donde ABC indica que el desplazamiento dr se toma siempre a lo largo de la trayectoria ABC.

En física, una fuerza se llama conservativa si el trabajo neto hecho alrededor de cualquier trayectoria cerrada es cero. Veamos, el integrando de arriba es un diferencial perfecto, es decir, es el diferencial de una función. Si expresamos el campo E con la ley de Coulomb:

Donde r sombrero es el vector unitario, lo que es:

Y ahora el diferencial perfecto es:

Resultando que el integrando de arriba corresponde a la derivada de una función de r. Cuando la solución de la integral tiene esa forma, su valor sobre una curva cerrada es cero:

Tenemos entonces que el campo eléctrico es un campo conservativo.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 27 de Diciembre, 2014, 15:20

Anterior Post
Siguiente Post

Ha llegado el tiempo de retomar este tema. Hemos visto:

- Hay grupos abstractos (ver Teoría de Grupos y Partículas Elementales (1))
- Hay representaciones de grupo (ver Teoría de Grupos y Partículas Elementales (2))
- Hay grupos continuos. Pudimos representarlos con matrices (ver Teoría de Grupos y Partículas Elementales (3))
- Las representaciones de grupos por matrices operan sobre vectores, que forman un espacio vectorial
- El campo de coeficientes de esos espacios vectoriales, puede ser real o complejo
- En los espacios vectoriales reales, nos interesaron las operaciones que preservan el producto interno, las transformaciones son ortogonales (y en la representación de matrices, vimos las características de las matrices ortogonales)
- En los espacios vectoriales complejos, las transformaciones que preservan el producto interno se llaman unitarias, y sus matrices tienen una forma especial (ver Teoría de Grupos y Partículas Elementales (4))

No han aparecido todavía las partículas elementales. Les adelanto que aparecerán en los vectores (y tensores) sobre los que operan las representaciones de matrices.

Los grupos como SO(3), SU(2) son grupos continuos y vimos elementos de esos grupos que pueden asimilarse a rotaciones en el espacio vectorial, rotaciones que conservan el producto interno. Por ejemplo, tomando SO(3) (grupo ortogonal en 3 dimensiones, que no invierte el espacio), tenemos las rotaciones paramétricas:



El parámetro es el ángulo de rotación alrededor de un eje. Si cada una de estas matrices la multiplicamos por su traspuesta, obtenemos la matriz unidad. Son matrices ORTOGONALES, que preservan el producto interno en el espacio vectorial REAL.

Una matriz n x n real ortogonal, con determinante +1, tiene n (n-1) /2 parámetros independientes. Por ejemplo, las matrices de SO(2) necesitan 2 * 1 / 2 parámetros,  es decir, basta con indicar el ángulo único de rotación que tenemos disponibles. En cambio, en SO(3) necesitamos 3 * 2 / 2 parámetros, necesitamos 3 parámetros independientes (que pueden ser los ángulos de rotación alrededor de los tres ejes).

Veamos explícitamente el caso 2 x 2. Tenemos una matriz general:

Por ser ortogonal (o lo que es lo mismo, si le exigimos que preserve el producto interno), debe ser que multiplicada por su traspuesta nos de la unidad:

Queremos que su determinante sea +1 = ad – cb

Todo esto se cumple para la matriz:

Vemos que nos basta con un solo parámetro (en este caso, a es el seno del ángulo de rotación)
Pasemos a examinar el caso 2 x 2 pero unitario (coeficientes complejos) en SU(2). En este caso se tiene que dar, determinante igual a +1 = ad-cb, y el unitarismo:

Esto implica que la matriz original sea de la forma:

Cumpliendo además con la restricción:

Cada número complejo a, b tiene DOS componentes independientes. En total son 4, pero sujetas a la restricción de arriba quedan TRES componentes independientes. En el caso unitario n x n general, hay n * n – 1 elementos independientes. Por ejemplo, en SU(3) tenemos 3 * 3 – 1, ocho elementos, los que veremos que forman el llamado "camino óctuple".

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 24 de Diciembre, 2014, 13:23

Anterior Post

Heisenberg sigue en Copenhague, intercambiando ideas con Niels Bohr.

Luckily, at the end of our talks, Bohr and I would generally come to the same conclusions about particular physical experiments, so that there was good reason to think that our divergent efforts might yet lead to the same result. On the other hand, neither of us could tell how so simple a phenomenon as the trajectory of an electron in a cloud chamber could be reconciled with the mathematical formulations of quantum or wave mechanics. Such concepts as trajectories or orbits did not figure in quantum mechanics, and wave mechanics could only be reconciled with the existence of a densely packed beam of matter if the beam spread over areas much larger than the diameter of an electron.

El problema era explicar trayectorias de partículas en la cámara de niebla. ¿Cómo reconciliar su existencia con el formulismo cuántico?

Since our talks often continued till long after midnight, and did not produce a satisfactory conclusion despite protracted efforts over several months, both of us became utterly exhausted and rather tense. Hence Bohr decided in February 1927 to go skiing in Norway, and I was quite glad to be left behind in Copenhagen, where I could think about these hopelessly complicated problems undisturbed. I now concentrated all my efforts on the mathematical representation of the electron path in the cloud chamber, and when I realized fairly soon that the obstacles before me were quite insurmountable, I began to wonder whether we might not have been asking the wrong sort of question all along. But where had we gone wrong? The path of the electron through the cloud chamber obviously existed; one could easily observe it. The mathematical framework of quantum mechanics existed as well, and was much too convincing to allow for any changes. Hence it ought to be possible to establish a connection between the two, hard though it appeared to be.

Veremos en el próximo post a qué conclusiones llega Heisenberg (vean que pasaron poco menos de dos años desde su famoso "paper" hasta estas conclusiones). De nuevo Heisenberg necesitó estar tranquilo y solo para avanzar.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez


 

Por ajlopez, en: Ciencia

Otros mensajes en Ciencia