Publicado el 31 de Mayo, 2014, 17:25
Sigamos leyendo a Darwin, cuando al final de la introducción escribe:
Llama la atención de nuevo sobre las relaciones, casi puede intuirse el moderno concepto de ecosistema. Ya antes había mencionado lo asombroso de encontrarse con organismos tan adaptados a su medio.Y ahora viene su declaración de su pensamiento: las especies no son inmutables. Yo no conocía que inicialmente no pensara así: imaginé que Darwin tendría alguna idea de los cambios en las especies, luego de la influencia la obra de su abuelo, Eramus Darwin. Leo:
No llega a afirmar todavía que todas las especies descienden de una sola. O que ramas disímiles como los lagartos, dinosaurios y aves podrían tener una sola especie antepasada. Creo que no llega nunca a esa conclusión. Eso nos vino luego, con el avance de la teoría y de nuestro conocimiento. Por ejemplo, cuando se fue descubriendo la total similitud de los ladrillos de nuestro ADN, en todos los organismos. Nos leemos! Angel "Java" Lopez |
Publicado el 30 de Mayo, 2014, 13:31
Publicado el 26 de Mayo, 2014, 6:40
Ya publiqué sobre el tema en Teorías Gauge: Enlaces y Recursos (1). Comienzo hoy a compartir notas sobre el tema. Partamos desde el artículo: http://en.wikipedia.org/wiki/Introduction_to_gauge_theory
Lo primero a destacar: se trata de algo relacionado con teorías de campo: http://en.wikipedia.org/wiki/Field_(physics)
En una teoría de campos, entonces, se le asigna un valor a cada punto del espacio y el tiempo. El campo completo representa una entidad física. Hablamos de campo electromagnético, o de campo gravitatorio, o de campo de Higgs. El valor no tiene que ser un número plano, según el anterior artículo sobre campos en física:
Vemos que hay campos clásicos y campos cuánticos. En los primeros, los resultados (escalares, vectores, tensores) se caracterizan por números. En los segundos, aparece el uso de operadores cuánticos. Ver http://en.wikipedia.org/wiki/Field_(physics)#Quantum_fields
Ver http://en.wikipedia.org/wiki/Operator_(physics)
Es el tema que estoy explorando en Matemáticas y Física Cuántica. Pero volvamos a las teorías gauge. Mi primer encuentro con ellas se remonta a los años ochenta, a un artículo clásico de Gerard't Hooft en el Scientific America (Investigación y Ciencia, de España). El título era "Teorías de aforo" pero desde entonces, prácticamente nadie usa la palabra "aforo" y todos se refieren a "gauge". Ver también el artículo de 't Hooft: http://www.scholarpedia.org/article/Gauge_theories Esta palabra inglesa "gauge" se puede traducir por "calibre". Pero ¿qué quiere decir "gauge" en este contexto de "teoría gauge"? Lo que dice el artículo de la Wikipedia: a veces, podemos describir un campo con una expresión distinta, y aún así, la física que describe es la misma. El primer ejemplo que tengo es el de la función de onda en mecánica cuántica (ver ... ). Es una función que da un valor complejo para cada punto del espacio y del tiempo. Pero si esos valores los multiplicamos por un valor complejo cualquiera de "longitud" 1 (por un e elevado a la i rho), la expresión es DISTINTA, pero la física descripta ES LA MISMA. Esta equivalencia nace de transformar la expresión GLOBALMENTE, es decir, multiplicándola por EL MISMO valor complejo unitario en todos los puntos. Veremos que hay teorías gauge donde se hace una transformación distinta en cada punto. Volviendo al artículo introductorio de la Wikipedia citado al principio:
Hay algo que cambia (el campo, su descripción matemática, algún parámetro) y algo que no cambia (las cantidades observables). Ante un cambio, hay una invariancia. Y como siempre que nos topamos con invariancia, aparece simetría. Ver algo de las matemáticas en Funciones Invariantes, donde vemos que las transformaciones que dejan invariante una expresión (en este caso, lo que no varía es la expresión, no solamente los valores medibles experimentalmente) forman un grupo. El mismo artículo muestra un ejemplo de campo gauge:
Cuando en nuestros hogares llegan 220 voltios (como aquí en Argentina), no es que estamos midiendo el potencial, sino LA DIFERENCIA entre dos potenciales situados en el origen de la red eléctrica. Si ambos potenciales subieran en 100000 voltios, nuestros artefactos eléctricos funcionarían igual. Si bien las teorías gauge ya aparecen con el electromagnetismo, es en el siglo XX donde surgen con más fuerza, con la cuántica:
Y esos son dos grandes puntos: uno, cómo lo gauge restringe las leyes de la física, y dos, cómo las simetrías de las transformaciones gauge locales se relacionan con las fuerzas fundamentales. Nos leemos! Angel "Java" Lopez |
Publicado el 25 de Mayo, 2014, 9:55
Comienzo hoy esta serie, de un tema amplísimo. Pero ha llegado el momento de encararlo. Vamos a explorar cómo son las matemáticas de la física cuántica. En primer lugar, exploraremos mecánica cuántica como había sido planteada en los años veinte del siglo pasado por Heisenberg, Schrödinger, Dirac y otros. Pero en algún momento iremos algo más allá, por ejemplo, en la relación de la teoría de grupos con la física, y en particular la física cuántica, y en la extensión a la relatividad especial, que dio nacimiento a la teoría cuántica de campos. Notemos que tanto en física clásica como en física cuántica, se tratan estados físicos. Veamos el caso simple de un electrón libre. Para la física clásica, sería una partícula en el espacio. Bastará para describir su estado físico dar su posición y su velocidad, en un instante de tiempo. La posición se expresa en algún sistema de referencia, con valores numéricos y unidades, lo mismo su velocidad, que será un vector, no solo un número (importa su sentido y dirección, además de su "intensidad"). También se necesitará describir el entorno: ¿hay gravitación? ¿Hay campo electromagnético? Si los hay ¿varían con el tiempo? Dado todo eso, se puede describir clásicamente la evolución del sistema electrón-entorno simple. La gran novedad de la física cuántica, y de sus matemáticas de base, es que sigue habiendo estado, pero su descripción es muy distinta. Aparece la función de onda (el primero es mostrarla en todo su esplendor, fue Erwin Schrödinger, ver mi serie La Ecuación de Schrödinger) ¿Qué es eso de la función de onda? Primero, designemos al estado físico, con una simple letra griega: Digamos, para fijar ideas, que estamos interesados en el estado de un electrón, libre, con entorno simple. Luego, la función de onda es una función que REPRESENTA a ese estado físico, y que depende de las coordenadas que usemos: Podemos poner que q son las coordenadas habituales espaciales: x, y, z. Lo de arriba es una abreviatura para: Cuando trabajamos con esas coordenadas x, y, z. Pero llegarán casos donde tengamos otros sistemas de coordenadas, y así es conveniente habituarnos a hablar de un q genérico. Podemos tener también una función de onda que dependa del tiempo: Y el gran trabajo de Schrodinger fue descubrir cómo evoluciona la función de onda en el tiempo, dado un sistema electrón-entorno. Hizo por la mecánica cuántica lo que que Newton por la clásica: planteó ecuaciones diferenciales para describir el cambio en el tiempo de un estado físico. Pero ya llegaremos a esas ecuaciones. Ahora tenemos la función de onda, apenas esbozada. ¿Qué devuelve? Pues, para cada conjunto de valores de coordenadas q (digamos para cada x, y, z), DEVUELVE UN NUMERO COMPLEJO. Epa ¿por qué? Si siempre en física clásica nos hemos manejado con números reales. Bueno, esa es la primera gran sorpresa de la mecánica cuántica: aparecen en primer plano los números complejos. La segunda gran sorpresa es que el estado del electrón no se especifica por una terna de valores x, y, z: no, el estado que pusimos arriba con una letra griega, se describe CON TODOS LOS VALORES de la función de onda. En cada punto del espacio el electrón tiene un valor complejo asociado. Bien, mientras digerimos estas novedades, aprendamos que a ese valor complejo se le llama amplitud. En cada punto del espacio, la función de onda da una amplitud (compleja) para el electrón. ¿Y qué es esa amplitud? ¿qué representa FISICAMENTE? Notablemente, Schrödinger no dio en el clavo para esa respuesta: pensó que esa amplitud estaba relacionada con una densidad electrónica, de carga eléctrica, o algo así, repartida en el espacio. Veremos que la amplitud está relacionada con la probabilidad de encontrar al electrón en un volumen de espacio. Pero recordemos: probabilidad no es lo mismo que amplitud. Mientras que la primera es un número real no negativo, la segunda es un valor complejo. A los físicos les interesa conocer otros aspectos de un sistema, en nuestro caso del electrón, como su posición, velocidad, energía, momento, etc. Ahora, en mecánica cuántica, tendremos que trabajar sobre la función de onda, nuestra principal fuente de información, para obtener algunos valores físicamente útiles. Tenemos un largo camino que recorrer en los próximos posts. Temas que vendrán: - Principio de superposición Ya hay otras series de post en los que trato temas no tan centrados en matemáticas como esta serie. En mi serie Física Cuántica vemos el desarrollo de los conceptos de la física cuántica a partir de experimentos idealizados, donde las matemáticas se insuflan de apoco. En esta nueva serie, quiero abordar más directamente el aspecto matemático, dando por sentado los experimentos físicos. En Realidad y Física Cuántica quiero explorar la relación de todos estos conceptos y formulismos con la realidad. En Notas sobre el Desarrollo de la Física Cuántica quiero compartir algunas notas, lecturas que he encontrado sobre el desarrollo histórico de estos temas, y el funcionamiento de la ciencia. En Teoría de Grupos y Partículas Elementales me zambullo en un tema fascinante. Tenemos que ver qué es eso de la teoría de grupos aplicada a algo que vino luego de la física de campos: el modelo estándar de partículas elementales. En Las Tres Espectroscopías estoy viendo de visitar qué hemos descubierto siguiendo la pista de tres espectroscopías a las que los físicos le han dedicado más de un siglo. En Historia de las Partículas Elementales sigo la pista de esa historia. En cuántica, no hay "partículas" como en física clásica, bolitas desplegadas en un espacio. Pero igual asombra, como en el caso de las espectrospopías, que no se da en la realidad lo continuo, sino lo discreto. Esa pista que nos da la naturaleza pasó por milenios desapercibida, oculta, sin que nos diéramos cuenta, debido a que nuestra realidad cotidiana no se topa con esos fenómenos, al menos de manera evidente. Tanto la cuántica como la relatividad einsteniana nos vinieron a sacar de la zona de comfort a la que había llegado la física a fines del siglo XIX, cuando parecía que todo estaba resuelto y sólo era cuestión de "calcular algunos decimales más" en algunas teorías. Nos leemos! Angel "Java" Lopez |
Publicado el 18 de Mayo, 2014, 12:30
Desde hace más de un siglo, los físicos han venido intensificando su búsqueda para explicar la materia. Más de una vez, todo parecía explicado, cuando algún experimento nuevo daba nuevos horizontes y fenómenos a explicar. Una de las estrategias más empleadas, fue producir experimentos donde cada vez se usara más energía. Al principio, sólo había algún acelerador de electrones, en el tubo de rayos catódicos. Luego aparecieron nuevos aparatos, como las máquinas de Crokcroft-Walton y de Van der Graf. A éstas las sucedieron los ciclotrones, los betatrones, los sincrotones de protones, cada vez de mayor tamaño y costo. Así hemos llegado en nuestros tiempos al gran Large Hadron Collider (LHC) de tan mentada fama en el descubrimieno de lo que se supone es la partícula de Higgs. ¿Adónde nos ha llevado toda esta investigación? ¿Qué descubrimos así de los bloques fundamentales que forman la naturaleza? Esta serie de post que inicio, tratará de hacernos visitar las etapas que se fueron investigando, destacando que todas fueron variantes de espectroscopía: agitar la materia y ver qué produce. En este camino, hay algo notable, inesperado: cuando uno calienta un trozo de hierro en la fragua, y luego lo aparta, el metal irradia la energía que fue absorviendo. Lo mismo pasa con la materia. Pero en vez de irradiar de forma continua, la gran sorpresa fue que no lo hacía: tanto el modelo de Planck para explicar la radiación de cuerpo negro, como el modelo de Einstein para explicar el efecto fotoeléctrico, pusieron en el tapete la existencia de emisión y absorción en forma de cuantos, lo que hoy llamamos fotones. Este fue el primer paso para la formación de la mecánica cuántica. Tenemos que detenernos un momento en este fenómeno. Lo ilustraré con imágenes simplificadas de lo que sabemos hoy que sucede. Sea un átomo de hidrógeno: Como dije, es una imagen simplficada. En el centro, representamos el único protón del núcleo. Por fuera, un esquema de órbita electrónica. La física cuántica nos enseñó que el diagrama de arriba no corresponde a la realidad: no hay trayectoria electrónica definida, ni siquiera el protón es una "bolita" en el centro. Pero para esta introducción didáctica nos va a servir. Por influencia externa, por ejemplo, por un campo electromagnético como la incidencia de luz, nuestro átomo pasa a estar en un estado excitado: Dos consideraciones: en este estado excitado, lo que cambió fue el estado del electrón. En estos primeros experimentos, a bajas energías, el núcleo de los átomos permanecía inalterado. Y la segunda consideración: se fue descubriendo que el electrón no puede excitarse a CUALQUIER ORBITA. No, las órbita permitidas se fueron descubriendo, y eran apenas unas pocas, no un conjunto continuo de valores. Esto apareció históricamente con el estudio del espectro de los elementos. De ahí que denomine a estos estudios la primera espectroscopía que tenemos que visitar. Luego, por influencia externa o no, el átomo se desexcitaba: PERO EMITIENDO ALGO, lo que hoy llamamos un fotón, y que entonces se reconocía con luz (rayos gamma si tenían mucha energía, rayos X, luz visible, ondas en infrarrojo, ondas de radio, etc). Pero como decía antes, se descubrió que no se emitía cualquier cosa: no aparecía nunca un fotón y medio, o medio fotón, sino siempre un fotón. Podía tener distintas características (como frecuencia y longitud de onda), pero asociadas al nivel de energía devuelto al exterior por el átomo. Todo esto era nuevo, a comienzos del siglo XX. Nadie había imaginado que la naturaleza se iba a comportar de esta forma, más discreta que continua. Desde entonces, hemos ido descubriendo más de este tipo de experimentos: excitaciones de la materia, que derivan en la emisión discreta de partículas. Me sirve de base para esta serie, el excelente artículo "Las tres espectroscopías", de Victor F. Weisskopf, publicado en el Scientific American, en Mayo de 1968. El propio autor presenta imágenes simplicadas como las de arriba. Lo importante es empezar a ver las similitudes y diferencias en esta larga serie de experiencias, y lo notable de la aparición de partículas, cuantos en todos los desarrollos que aparecieron. ¿La naturaleza nos está dando un mensaje? ¿un "lo continuo no existe"? Nos leemos! Angel "Java" Lopez |
Publicado el 17 de Mayo, 2014, 14:00
Stanislav Ulam fue un matemático polaco. Es conocido por haber participado en el Proyecto Manhattan. Junto con Teller diseñó armas termonucleares. Inventó el método de Monte Carlo para calcular lo que no se puede calcular directamente. En mi radar, entró hace unas décadas, por la espiral de Ulam de números primos. Hoy me encuentro con una cita de su biografía "Adventures of a Mathematician", que traduzco:
Es decir, el problema, el dilema es: Con tantas matemáticas de hoy en día, cómo se puede juzgar qué es importante y qué no. Mi primera respuesta: son los propios matemáticos quienes deciden darle importancia o no a un resultado. Seguramente algún grupo de matemáticos reconocerá los teoremas importantes de una rama. Esos teoremas serán entonces seguidos por más matemáticos. Habrá unos pocos que se tomarán el trabajo de vigilar los avances destacados y cómo pueden influir en otras ramas. Las matemáticas son especiales: sus resultados, en principio, sólo interesan a los propios matemáticos. Sólo con el tiempo, algún resultado puede que tenga influencia en otros ámbitos. La cita la encuentro en el excelente "The Mathematical Experience" de Philip Davis, Reuben Hersh, Elena Anne Marchisotto. Nos leemos! Angel "Java" Lopez |
Publicado el 15 de Mayo, 2014, 11:07
Sigo compartiendo el prefacio de "Mathematical Foundations of Quantum Mechanics", de John Von Neumann. Viene una mención y crítica al trabajo de Dirac:
Von Neumann destaca el carácter invariante del trabajo de Dirac, es decir, independiente de las coordenadas.
Supongo que se refiere a las delta de Dirac. Años después, éstas serían adoptadas en rigor gracias al trabajo de Schwartz. Ver http://en.wikipedia.org/wiki/Dirac_delta_function
Interesante que ponga a la física newtoniana y el cálculo (no riguroso al principio), como ejemplo. Pero los diferencia de lo que se necesita para la cuántica:
Veré qué puedo aprender de este "approach" distinto. Seguimos leyendo en el próximo post. Nos leemos! Angel "Java" Lopez |
Publicado el 12 de Mayo, 2014, 13:39
Comienzo hoy una serie (que podría ser interminable) sobre un tema grandísimo: los avances que ha hecho la física en los últimos ciento y pico de años para descubrir y comprender lo que llamamos "partículas elementales". Es un gran tema que abarca tanto la física experimental como la teórica, y es un ejemplo más que interesante sobre cómo trabaja la ciencia. Empecemos este largo camino con un pantallazo de la situación de la física al terminar el siglo XIX y comenzar el XX. En el siglo que terminaba, había continuado el gran desarrollo de la mecánica clásica, impulsada por el estudio de la mecánica celeste y el gran aporte de nuevos modelos matemáticos. Pero la joya de la centuria eran los avances de Faraday, Maxwell y otros en el desarrollo del electromagnetismo. Fenómenos eléctricos y magnéticos, conocidos desde la antiguedad, pero dejados algo de lado por el avance de la mecánica clásica y la óptica, fueron unificados luego de pacientes experimentos, modelos propuestos y el andamiaje matemático que se consiguió aplicar (recuerdo que las que conocemos como ecuaciones de Maxwell no fueron escritas así por él, sino que fue el resultado de la evolución de la notación a finales del siglo XIX, en especial gracias al aporte de los operadores inventados por Heaviside). Pero además, en los últimos años, se habían sumado nuevos fenómenos, nuevos problemas, nuevas excitaciones y anticipaciones. Teníamos los rayos catódicos, el efecto fotoeléctrico, la radioactividad, los rayos X, el efecto Zeeman, y la notable ley de Rydberg para explicar las líneas espectrales, que serían la puerta de entrada de "lo discreto" en física, y luego uno de los motores de la física cuántica. Hacía poco tiempo que alguien había dicho (creo que Lord Kelvin): "en física, ahora sólo hace falta ajustar algunos decimales". Pero no: realmente el panorama estaba en ebullición, y no se sabía en qué iba a terminar todo. Los átomos todavía no habían sido aceptados por todos. La estructura atómica de la materia se había discutido desde los antiguos griegos, pero fue con Dalton donde asomó de nuevo vigorizada con el avance de la química. Pero para muchos físicos, los átomos eran sólo un modelo superficial, algo que ayudaba a los químicos en sus ideas, pero que no eran reflejo de una realidad física, solamente un aditamento, una herramienta para facilitar el avance. Por ejemplo, Mach nunca adoptó el atomismo. Y Ostwal fue a duras penas convencido recién entrado el siglo XX. En fechas tan tardías como 1897, lord Kelvin describía a "la electricidad como un líquido continuo homogéneo". Pero en el mismo año, J.J.Thomson ejecutaba su famoso experimento que determinaba la razón e/m de la masa y la carga de los rayos catódicos. El positivismo se hubiera quedado en una simple ley matemática, pero Thomson fue más allá (como hace casi cualquier científico) y propuso un modelo: la existencia del electrón. Nuestra primer partícula elemental. Por hoy bastante, basta agregar las fuentes consultadas. Por un lado, el excelente "Elementary particles, a short history of discoveries in atomic physics", de Chen Ning Yang. Por otro, el también excelente "De los rayos X a los quarks", de Emilio Segré. Y otras lecturas que iré mencionando. Nos leemos! Angel "Java" Lopez |
Publicado el 11 de Mayo, 2014, 16:23
Venga hoy una nueva serie, que necesito escribir para poner en claro algunos puntos que estoy estudiando. En estos días me encuentro con un libro clásico: "Mathematical Foundations of Quantum Mechanics", de John Von Neumann. Paso en esta serie a compartir y comentar el prefacio. Hoy leo:
Para "transformation theory" leer: http://en.wikipedia.org/wiki/Transformation_theory_(quantum_mechanics)
Se refiere principalmente al trabajo de P.A.M. Dirac. Von Neumann es consciente de los problemas de interpretación a los que da lugar la teoría de la transformación. Es importante no olvidar ese punto. Por otro lado, von Neumann, como matemático, prefiere renuncia al tratamiento con matrices, y pasar a trabajar con operados. Leo:
Nos leemos! Angel "Java" Lopez |
Publicado el 5 de Mayo, 2014, 14:20
Como pasa el tiempo, ya estamos en un nuevo mes. Repaso de las resoluciones de abril: - Seguir escribiendo post sobre Stephen Jay Gould [pendiente] En vez de publicar algunos temas de arriba, me dediqué a comentar a Dirac: Interferencia de Fotones, por Dirac (1) como preparación a una explicación más detallada del formulismo de su teoría de transformaciones. Y estuve estudiando algo de cosmología (leyendo a Bondi), y de relatividad (leyendo a Einstein). Fueron lecturas muy sabrosas, sobre las que tendría que comentar algo en posts. Para este mes, si bien estoy algo ocupado profesionalmente, planeo hacer: - Seguir escribiendo post sobre Stephen Jay Gould Nos leemos! Angel "Java" Lopez |
Publicado el 4 de Mayo, 2014, 13:23
El electromagnetismo es un tema muy importante en la física moderna. Nacido en el siglo XIX, la teoría electromagnética ha ido evolucionando, ya con conceptos, nuevo formulismo, y adecuación a experimentos. Por ejemplo, la teoría especial de la relatividad es una gran conciliación de los experimentos (como el de Michelson-Morley) con lo que se sabía del electromagnetismo desde Maxwell (y otros). Es la física newtoniana la que tuvo que ser adecuada para concordar con lo que se conoce. En el siglo XX, el electromagnetismo se junta también con la cuántica, apareciendo formulaciones con fotones y campos cuánticos. Y luego extensiones más poderosas. Pero hoy quisiera comenzar mi camino por el electromagnetismo clásico, un tema que me debo. Es común estudiar física, y encontrarse con mecánica, dinámica y otros problemas. Pero el electromagnetismo es como que pertenece a otra "categoría": por una lado, se olvida su desarrollo clásico, a favor de la aproximación cuántica. Y por otro, esta aproximación no es trivial. Así que es tiempo que comience a visitar el campo del electromagnetismo clásico, algo olvidado en los textos de divulgación. El primer paso en este largo camino es la ley de Coulomb, ilustrada por la siguiente figura: Esta ley establece que las fuerzas eléctricas (vean que todavía no aparece magnetismo) entre dos cargas puntuales es inversamente proporcional al cuadrado de las distancias entre ellas, y directamente proporcional al producto de sus cargas. La dirección de la fuerza coincide con la línea que une a las dos cargas. En seguida vemos que la ley de Coulomb se parece a la ley gravitatoria. Pero con dos grandes diferencias: - No toda la materia tiene carga eléctrica Es como si la naturaleza quisiera avisarnos: "les he desplegado otra fuerza, para que vean que la gravedad no es la única". Son estas características especiales de las cargas eléctricas lo que llama la atención a un físico. ¿Por qué estas grandes diferencias cualitativas entre la gravedad y la fuerza eléctrica? ¿habrá otras fuerzas, con diferencias más acusadas, para encontrar en la naturaleza? Los físicos gustan de escribir las leyes en fórmulas matemáticas. La ley de Coulomb puede ser escrita así: Que da la fuerza sobre la carga q debido a la presencia de la carga q" en términos de un vector unitario r-sombrero. Ese vector es un vector sin dimensiones que se obtiene dividendo el vector que une las cargas por su longitud: Entonces, la ley de Coulomb puede escribirse como: Hay una constante de proporcionalidad k que dependerá del sistema de unidades que usemos. Por ahora, nos basta comenzar a entender la existencia de estas relaciones. Algo a destacar ahora: las fuerzas se ubican sobre la línea que une las cargas. En esto, la fuerza eléctrica cumple con la tercera ley de Newton de fuerzas iguales y direcciones opuestas (en la variante fuerte: sobre la misma línea). Veremos que si bien la ley de Newton es cumplida por estas fuerzas eléctricas, NOTABLEMENTE no se cumple en las fuerzas magnéticas. Pero podemos adelantar algo: hay dos leyes de conservación que nos ayudan a explicar estas características de la fuerza eléctrica. La ley de conservación del momento lineal implica que las fuerzas sean iguales y opuestas. Y la conservación del momento angular, implica que las fuerzas se apliquen sobre la misma línea. Principal fuente consultada: Classical Electromagnetism, de Jerrold Franklin. Algo de historia en mi serie: La teoría de Maxwell-Lorentz. Otros posts: El estilo de James Clerk Maxwell según Ludwig Boltzmann Nos leemos! Angel "Java" Lopez |
Publicado el 3 de Mayo, 2014, 11:18
Ya tenemos las relaciones de de Broglie/Einstein. Por ejemplo, dada un impulso, se le asocia a una partícula una longitud de onda. O dada una energía, se le asocia una frecuencia. Pero S chrödinger buscaba más. Quería una relación que explicara cómo cambia en el tiempo y en el espacio esa onda asociada a una partícula. Buscó una ecuación diferencial, con derivadas parciales de tiempo y espaci. En vez de un espacio de tres dimensiones, planteamos una sola dimensión x. Veamos de escribir: Quedando entonces Veamos de ir viendo hoy las derivadas parciales en x y en t. Para tomar la derivada parcial en x, se deriva totalmente en x considerando que t es una constante. Y viceversa para la derivada parcial en t. ¿Cuál será la derivada de la función seno? Podemos consultar una tabla de derivadas, pero es fácil recordar que la derivada de seno es coseno. Y que la derivada de coseno es menos seno. Lo podemos deducir de sus desarrollos en series de potencias, ver por ejemplo Series de Potencias. Otro cosa que tenemos que recordar, es que derivada de f(kx) es k f"(x) (consecuencia de la regla de derivación de función de función). Sabiendo eso (ahora estamos en físicos más que en matemáticos), podemos avanzar a hacer algunos cálculos simples y llegar a: Estos resultados nos van a servir en los próximos posts. Queremos una ecuación donde aparezca de alguna forma relacionados conceptos físicos, como energía y momento. Por las relaciones de de Broglie/Einstein vamos a poder reemplazar esos conceptos físicos por frecuencia y longitud de onda. La forma en que aparezcan frecuencia/energía y longitud de onda/momento en la ecuación (sus coeficientes y exponentes) nos darán una idea de cuáles derivadas parciales intervendrán. Nos leemos! Angel "Java" Lopez |
Publicado el 2 de Mayo, 2014, 15:20
Sigo con este tema inmenso e importante, que une a la física y a las matemáticas modernas. Ya vimos en el anterior post lo que es un grupo abstracto, y un ejemplo de grupo finito. A pesar de ser abstractos, los grupos intervienen en física, por ejemplo, en la transformación de estados representados por vectores, y notablemente, hay estados representados por tensores, que podemos considerar una "extensión" de las ideas vectoriales. Por un lado, tenemos estados físicos que se pueden representar por entes matemáticos. Y los grupos es como que se cuelan entre ellos, para expresar transformaciones. Pero sigamos primero explorando los grupos. Hay un tema que no siempre se estudia cuando uno esta interesado en lo abstracto de los grupos, y en sus operaciones matemáticas. Es el tema de las representaciones. Hay una relación entre grupos abstractos y elementos concretos que se le pueden asociar, notablemente números y matrices. La representación de un grupo es un conjunto de objetos que satisfacen la tabla de multiplicación del grupo. Con el ejemplo del anterior post: podemos tener una representación si asignamos objetos números a cada operación, así: e = 1 Donde i es la unidad imaginaria, la raíz cuadrada de -1. Podemos llamar a esta representación la C4. Como la multiplicación de números es conmutativa, también lo es entonces este grupo ejemplo en particular, o sea ab = ba para cualesquiera elementos a, b del grupo. Este grupo es también cíclico, es decir, sus elementos se obtienen a partir de potencias de un solo elemento. Un desarrollo posible es: e = i4 Pero no es la única representación posible. Recordemos las matrices. Una matriz que represente una rotación en el plano de ángulo phi está dada por: Si ponemos phi con los valores 0, pi /2, pi, 3pi /2, nos quedan cuatro matrices: correspondientes, de nuevo, a las operaciones del grupo original, tomando como composición a la multiplicación de matrices de 2x2. Si recordamos, hasta podemos asociar multiplicar por i a "girar noventa grados" el plano complejo. De ahí la correspondencia entre ambas representaciones. Pueden consultar mi serie Simetrías del cuadrado para reencontrar de nuevo estas relaciones, de otra forma. Puede haber correspondencia entre los elementos de dos grupos. La correspondencia puede ser uno a uno, dos a uno, muchos a uno, etc... Si los elementos de un grupo, correspondientes a todos los elementos del otro grupo, satisfacen la misma tabla de multiplicación, se dice que hay un homomorfismo. No solamente una correspondencia de elementos, sino también de sus operaciones y resultados de grupo. Si esa correspondencia de homomorfismo es también una a una (cada elemento de un grupo corresponde a uno y sólo un elemento del otro grupo), se dice que es un isomorfismo. Las dos representaciones de arriba corresponden uno a uno con los elementos del grupo original, y respetan la tabla de multiplicación. Son entonces isomorfas. Ya comentamos que no todos los grupos son conmutativos. Así que no todos los grupos admitirán una representación en números (reales o complejos). Pero sí pueden tener representación en matrices. Los físicos se manejan mejor con matrices que con grupos abstractos, así que estas representaciones tienen su importancia para el tema que estamos tratando. El ejemplo que vimos es un ejemplo de grupo finito. Pero el ejemplo de las rotaciones en el plano (con ángulo arbitrario, no sólo los cuatro de arriba) forma un grupo contínuo, donde hay elementos del grupo arbitrariamente cercanos a otros elementos del grupo. Puede demostrarse que los grupos finitos y los grupos continuos que interesan en física pueden ser representados por matrices. Es más: pueden ser representados por matricas unitarias. En estas matrices se cumple A+ = A-1 en otras palabras, la matriz traspuesta y conjugada compleja es igual a la matriz inversa. La traspuesta es la que tiene sus elementos "espejados" según la diagonal tope-izquierdo a abajo-derecha. Es decir, donde aij = aji. Y la conjugada compleja es la que tiene cada elemento como conjugado complejo del original. Combinado traspuesta y conjugada compleja, tenemos la A+. Y en el caso de las unitarias, esa matriz es LA INVERSA de la original A. El por qué de este "unitarismo" queda en la relación que tienen estas matrices para expresar variables dinámicas en física cuántica. Puede que más adelante visitemos de nuevo el tema. Por ahora, nos contentaremos con seguir investigando este tipo de representaciones. Nos leemos! Angel "Java" Lopez |