Publicado el 31 de Marzo, 2015, 19:02
En el post anterior comentaba que Fourier consiguió desarrollar funciones usando una serie de términos (posiblemente infinita) donde en cada uno aparecía una función trigonométrica. Para comprender cómo se consigue expresar una función como una serie de ese tipo tenemos que estudiar cómo obtener los coeficientes de esa serie. Para esto veremos primero una propiedad que tienen las funciones seno y coseno. Primero, centremos nuestra atención en funciones de periodo 2 pi o sea para las que siempre se cumple: Caso de esas funciones son las clásicas trigonométricas Y Es fácil ver que cualquier combinación lineal de este tipo de funciones también tiene el mismo periodo. También tienen el mismo periodo 2 pi las funciones que, en vez de depender de x, dependen directamente de nx, donde n es un número entero: Y Algo que usó Fourier para desarrollar su serie, es saber que las funciones sen(nx), cos(mx) son "ortogonales" cuando los coeficientes n y m son distintos. Lo mismo para sen(nx) vs sen(mx) y cos(nx) vs cos(mx). Tenemos que ver qué es esto de ortogonal en este contexto. Pero podemos hacer una analogía con los espacios vectoriales. En ellos se puede definir muchas veces un producto entre vectores, el producto interno, de tal manera que haya vectores v y w cuyo producto interno de cero. Cuando eso lo aplicamos a los vectores clásicos del plano y del espacio, ese producto interno es cero CUANDO GEOMETRICAMENTE los vectores forman ángulo recto entre ellos (es más sutil que esto, pero nos sirve como base). Y llamamos a sus direcciones entonces, ortogonales. Bueno, algo así se puede establecer entre funciones reales definidas en un intervalo de longitud 2 pi. Un producto interno adecuado, sobre lo funciones que, modernamente, se considerarían elementos vector de un espacio vectorial. En el próximo post veremos la definición de ese producto de funciones, y cómo las funciones mencionadas arriba son "ortogonales". Nos leemos! Angel "Java" Lopez |
Publicado el 30 de Marzo, 2015, 7:44
Diofanto es uno de los grandes personajes de la "Era de Plata" de la matemática griega. Se cree que vivió en Alejandría, entre los años 250 y 350 (de nuestra era), junto a Pappus y Proclo. Es conocido por su Aritmética, en 13 libros. En los tiempos de Fermat sólo se conocían seis de esos libros, pero hace unos años han sido descubiertas traducciones al árabe de cuatro libros más. Las matemáticas que Diofanto expone en su Aritmética son distintas de las de la "Era de Oro" de Euclides. En verdad, se parecen más a la tradición babilónica. Mientras que Euclides construye desde primeras nociones y postulados, y va demostrando teoremas, Diofanto muchas veces trata casos particulares y da soluciones para esos casos, sin construir una teoría. Lo nuevo que aporta es su interés en encontrar las soluciones exactas a ecuaciones en números racionales. Fue uno de los primeros matemáticos en introducir símbolos en matemáticas, usando una notación cercana a la que aportaría luego Viete. Por ejemplo, el polinomio: Sería escrito por Diofanto de esta forma: Donde delta denota x al cuadrado, K denota x al cubo, M es el signo menos y U es la unidad. Vean cómo pone los términos con coeficiente positivo a un lado, y los de coeficiente negativo en otro. Hay una identidad, conocida desde la Edad Media, que aparece en el trabajo de Diofanto (ya la estoy por usar en mi post p=x2+y2) Es la llamada identidad de Brahmagupta-Fibonacci ¿Fue Diofanto el primer algebrista? Bueno, le faltó generalidad, se ocupó más de casos particulares. ¿El último de los babilonios? Tampoco, fue más abstracto que ellos, ya solamente con la aparición de su notación. ¿El primero de los matemáticos dedicado a la teoría de números? No, porque trabajo más sobre Q (los números racionales) que sobre N (los números naturales). Pero sí fue el principal precursor de la teoría de números. Recordemos que el interés griego por las soluciones en números racionales tiene relación con el descubrimiento (ya en tiempos de Pitágoras) de los números irracionales (aunque a decir verdad, los griegos no manejaron el concepto de número como lo hacemos nosotros; estaban interesados en razones de magnitudes). En el siglo XVI la Aritmética de Diofanto era un texto obscuro, que había sido olvidado. Fue Bombelli quien redescubrió el libro en 1570 y lo incorporó en su propia obra Algebra, escrita en italiano en 1572. En 1575, W. Holtzmann (alias Xylander) dio una traducción completa al latín. Viete toma el libro y lo transforma, incorporándolo en sus obras, como Isagoge de 1591, y Zetetique de 1593, poniendo énfasis en los aspectos algebraicos. Con Viete comienza a aparecer la notación algebraica, usando una letra para la incógnita. En cambio Bachet de Meziriac, el autor de la traducción de Diofanto que leyera Fermat, no era algebrista, sino el autor de un libro llamado Agradables y deleitables problemas a ser resueltos con números. Su edición de Diofanto fue bilingüe, en griego y latín, y la publicó en 1621. Fuente consultada: Invitation to the mathematics of Fermat-Wiles, de Yves Hellegouarch. Nos leemos! Angel "Java" Lopez |
Publicado el 29 de Marzo, 2015, 13:02
Hoy encuentro este fragmento de Pascal, lo escribió en el prefacio de su Tratado del Vacío:
En verdad, el avance humano de las ciencias (al menos en los últimos siglos) se basa en esa colaboración de todos los que tratan de ir armando ese edificio. Casi cualquier logro actual en ciencia tiene una rica historia, a lo largo de los siglos, de aciertos y fallos, de avance lento o rápido desarrollo. Por ejemplo, la teoría atómica, con las ideas iniciales (y equivocadas) de Demócrito, la clarificación de Lavoisier fundando la química moderna, la teoría de Dalton proponiendo el atomismo, las correcciones de varios a esa teoría, el uso de la hipótesis atómica por parte de Boltzman para explicar la entropía, y hasta el trabajo de Rutherford para ir desvelando la estructura atómica. Encuentro el párrafo de Pascal, en el excelente libro Invitation to the mathematics of Fermat-Wiles, de Yves Hellegouarch. Nos leemos! Angel "Java" Lopez |
Publicado el 28 de Marzo, 2015, 15:10
Veamos hoy de presentar un caso de función aritmética, que tiene su importancia en la teoría de números. Al principio no se verá claramente su utilidad, pero poco a poco veremos qué lugar ocupa en todo este espectro de funciones aritméticas. Fue definida y usada por Moebius, matemático alemán del siglo XIX. Para muchos de nosotros, es más conocido por la "cinta de Moebius". Algo que yo no conocía es que había sido astrónomo también. Bien, la función de Moebius se define para 1: Usando la letra griega mu. Algo simple, ¿no? Bueno, ahora necesitamos saber cuánto vale para los otros números naturales. Lo que pone de manifiesto la función mu es si un número n es o no divisible por un cuadrado. Para eso se pone que cuando n se descompone en potencias de primos distintos: Entonces, si todos los exponentes son 1: El valor de mu(n) es: Donde k es claramente la cantidad de factores primos distintos que componen n. Observemos que hay una paridad: el resultado puede dar 1 o -1, dependiendo de si la cantidad de primos que componen n es par o impar, respectivamente. En cualquier otro caso, n tiene entonces algún factor primo elevado a la por lo menos 2, y entonces es divisible por el cuadrado de un primo. En esos casos, la notable función mu toma el valor 0: Y digo notable, porque a primera vista, es algo rara esta definición. Pero es tan simple y poderosa, como vamos a estudiar, que revela algo que llama la atención en matemáticas. Vamos a ver cómo esta función tiene propiedades simples por sí misma, y cómo se puede ir combinando con otras funciones aritméticas. Si leemos el artículo de la Wikipedia: Vemos que no solamente se usa en teoría de números, sino también en combinatoria. Y la paridad que hemos notado, hasta aparece en una rama física de supersimetría, distinguiendo entre fermiones y bosones en un gas de Riemann. Y hasta se puede derivar de la función mu la función de Mertens, que cosas vederes Sancho, tiene que ver con la hipótesis de Riemann, que estoy estudiando en otra serie de posts. Nos leemos! Angel "Java" Lopez |
Publicado el 26 de Marzo, 2015, 15:01
Publicado el 24 de Marzo, 2015, 17:38
Heisenberg busca entonces explicar las intensidades de las líneas del espectro atómico, siendo las frecuencias ya "explicadas" por la teoría de Bohr y sus derivados. Digo "explicadas" entre comillas, porque tampoco estaba claro por qué la teoría de Bohr funcionaba (sobre el primer "paper" de esa teoría, estoy escribiendo Sobre la constitución de átomos y moléculas, por Niels Bohr). Heisenberg no encara el problema general, sino un electrón moviéndose en una coordenada. Para la teoría clásica, un electrón en movimiento acelerado radía energía, según la fórmula de Larmor: Donde e es la carga del electrón, c la velocidad de la luz, y x con dos puntos es la aceleración del electrón. (ver una derivación de esta fórmula en http://home.strw.leidenuniv.nl/~michiel/ismclass_files/radproc07/chapter4.pdf) Si tomamos el caso de un oscilador armónico clásico, tenemos: (ver sección 4.6 en http://home.strw.leidenuniv.nl/~michiel/ismclass_files/radproc07/chapter4.pdf) Ver http://en.wikipedia.org/wiki/Harmonic_oscillator y http://en.wikipedia.org/wiki/Fundamental_frequency Reemplazando en la fórmula de Larmor, el promedio emitido (según mi fuente hay un coeficiente 4, en vez de 2, supongo que insertado por la forma de calcular el promedio (Heisenberg's Quantum Mechanics, de Mohsen Razavy. Ver http://www.amazon.com/Heisenbergs-Quantum-Mechanics-Mohsen-Razavy/dp/9814304115)): Pero en vez de vibrar en la frecuencia fundamental, bien podría vibrar en múltiplos de esa frecuencia, queda entonces: Donde alfa es un número entero, que puede tomar cualquier valor, y x sub alfa es la posición del electrón, en este caso oscilando en la frecuencia alfa por omega (puede tomarse que la posición x depende de alfa). y que pueden expresarse no SOLO con la frecuencia fundamental, sino también como combinación de todos sus correspondientes armónicos. La expresión de la posición del estado estacionario n en función del tiempo, toma entonces la expresión: Vemos que cada término de la suma tiene un coeficiente a sub alfa, que es el "peso" de ese término en el resultado final, y una frecuencia múltiplo de la fundamental omega(n). Los valores de x(n, t) oscilan en el tiempo pero con la frecuencia fundamental omega(n), porque ASI LO HACEN cada término de la sumatoria. Tenemos que ver en los próximos posts, la aparición del número imaginario i, qué es eso del estado estacionario, y cómo aplicó Heinsenberg el principio de correspondencia para modificar la fórmula de arriba y usar los coeficientes que aparecen en la sumatoria de una forma ingeniosa. Nos leemos! Angel "Java" Lopez |
Publicado el 23 de Marzo, 2015, 16:01
Veamos una forma de generar las particiones de n+1 conociendo la enumeración de las particiones de n, expresadas en forma normal (con su elementos en forma descendente). Sea una partición de 5, como: 2+1+1+1 Siempre se le puede agregar un uno al final, para obtener una partición de 6: 2+1+1+1+1 Lo mismo a la partición de 5: 3+2 se le puede agregar un uno a la derecha, para obtener la partición de 6: 3+2+1 O sea que a CADA partición de 5, le corresponde UNA partición de 6, que termina en 1. Se puede ver también que a toda partición de 6 que contenga un 1, le corresponde UNA partición de 5 (simplemente sacando ese uno). También, dada una partición de 5 en forma normal como 3+2 Obtenemos otra partición de 6, sumándole un uno al último término, en este caso sumando uno al último elemento el dos: 3+3 Pero eso no es posible en una partición de 5 en forma normal como: 2+1+1+1 Porque sumándole uno al último término: 2+1+1+2 obtenemos una partición de 6, pero no en forma normal, no en forma tal que todos sus elementos vayan siendo iguales o decrecientes cuando los recorremos de izquierda a derecha. Si nos fijamos en el ejemplo anterior y otros, el truco de agregar uno al último elemento NO FUNCIONA, porque ese último elemento está repetido. Si llamamos p(n) a la cantidad de particiones de n, y llamamos r(n) a la cantidad de particiones de n que NO TIENE su menor elemento repetido, llegamos a nuestra primera conclusión: p(n+1) = p(n) + r(n) El primer término de la derecha, es la cantidad de particiones de n+1 que nacen de agregar el número 1 a cualquier de las particiones de n. El segundo término, viene de las particiones de n a las que se les puede sumar uno a su término menos. Y si lo miramos fijo, es claro que cada partición de n+1 NACE de una Y SOLO UNA de esas dos formas. Igual, mucho no avanzamos, porque no parece a simple vista que r(n) tenga una forma sencilla de calcularse. Pero todo suma ;-) Nos leemos! Angel "Java" Lopez |
Publicado el 21 de Marzo, 2015, 16:01
Publicado el 16 de Marzo, 2015, 9:26
Publicado el 15 de Marzo, 2015, 16:04
Veamos hoy de presentar los primeros pasos en la función gamma. En otro post ya mostré que la serie armónica: diverge (ver Harmonic Series). Pero podríamos preguntarnos si diverge o converge (y a qué numero) la serie: O en general la suma de los recíprocos de las potencias a la s: Tenemos acá, dependiendo de s natural, a una primera función llamada función zeta. Bien, si para s=1 se sabía que la serie divergía, para s=2 no se supo por mucho tiempo si la serie convergía (todo parecía indicar que sí, pero no había demostración, y además la convergencia era muy lenta), y a qué número. El caso s=2 se llamó el problema de Basilea, ver Basel Problem. Pedro Mengoli lo formuló en 1644 (pero todo indica que el problema era conocido de antes), y fue resuelto por Euler recién en 1734, siendo leído el 5 de diciembre de 1735 en la academia de ciencias de San Petersburgo. La solución de Euler (escribió varias en su vida) implicaba la manipulación de una serie infinita sin una rigurosa prueba de su validez, pero igual le otorgó fama en el mundo de las matemáticas. Otros matemáticos de primera línea habían tratado de resolverlo, habiendo fallado en el intento. Euler no sólo encontró la solución para s=2 sino que, con el tiempo, también dio una expresión para todas las soluciones con s par, introduciendo para ello los llamados números de Bernoulli. Podríamos preguntarnos qué relación hay entre la función zeta y los números primeros. Bueno, fue Euler el que consiguió también expresar las series infinitas apelando a multiplicaciones infinitas donde aparecían todos los números primos. También extendió la función zeta para s entero negativo. Chevyshev la extendió para s real > 1. Finalmente, veremos que Riemann fue el que extendió la misma función, para s complejo. Nos leemos! Angel "Java" Lopez |
Publicado el 14 de Marzo, 2015, 12:09
Inicio hoy esta serie, sobre un tema fascinante, una teoría física que nació en el siglo XX, usando todo lo nuevo de la mecánica cuántica. Quizás sea la teoría más satisfactoria que tenemos en física. Veamos de explorarla en algún detalle. La historia de la física nos muestra el avance en la explicación de diversos fenómenos desde unas pocas teorías. Por ejemplo, el movimiento de los planetas, el movimiento de los proyectiles, el sonido, y el calor, terminaron siendo fenómenos explicables con la física newtoniana del movimiento de los cuerpos. Esa teoría logró la primera "gran unificación" de la física al igualar la física de los cielos con los de la tierra, algo que había quedado separado claramente desde la época de Aristóteles. Se vió que el sonido también podía explicarse como movimiento de las moléculas que forman el aire. Y que el calor era la manifestación de los movimientos atómicos. En cambio, la gravitación, otro de los temas de Newton, no puede explicarse por una teoría del movimiento: es una fuerza básica de la naturaleza, que no ha encontrado todavía una explicación física de su origen. Aunque Newton trató de explicar la luz en términos de movimientos mecánicos de partículas, se vió que esa teoría no explicaba totalmente los fenómenos lumínicos, como los patrones de interferencia. Y hubo otros fenómenos, conocidos desde la antigüedad, como los eléctricos y magnéticos, que tenían puntos de contacto con la gravitación, pero eran claramente diferentes. El siglo XIX vió nacer, principalmente de la mano de Faraday y Maxwell (para nombrar a los dos principales científicos de toda una serie de personas que contribuyeron a este avance) la unificación del electromagnetismo. Y fue Maxwell quien propuso que la luz era un fenómeno electromagnético. Se descubrió que el calor tenía puntos de contacto con la luz: que se podía radiar, sin intercambio de materia, y que la luz transportaba energía, que podía transformarse en calor al llegar a la materia. Ese punto de contacto entre luz y materia fue misterioso por muchas décadas, y ese misterio impulsó el desarrollo de la termodinámica y la teoría de Planck para explicar el cuerpo negro. Cuando finalmente la teoría atómica fue aceptada, hubo que comenzar a explicar la interacción entre materia y luz a nivel atómico. Con los estudios de la electricidad se postuló la existencia de una partícula (la primera descubierta como tal): el electrón. La dificultad para explicar su presencia en el átomo, lleva a Bohr a su modelo atómico en 1913, donde pone en suspenso la física de su tiempo. Según ésta, si el electrón se movía debía emitir energía: todo el electromagnetismo apuntaba hacia ese resultado. Pero no era así. Recién en 1926 el misterio comienza a resolverse mejor, gracias a la aparición de la mecánica cuántica. Al menos, para explicar el movimiento del electrón. La mecánica cuántico aportó explicación a muchos detalles de los átomos, moléculas y espectros atómicos. Explicó por qué un átomo de oxígeno se combina con dos de hidrógeno, y así sirve de fundamento a la química. Pero si bien tuvo éxito en ese campo, todavía había algo que se escapaba: la relación entre materia y luz. Hubo que esperar a la fusión entre esa mecánica nueva y la relatividad para comenzar a explicar (desde los trabajos de Dirac) la interacción en detalle de la materia (electrón en este caso) y la luz (que gracias a la cuántica, pasó a verse como compuesta de fotones). Nació la electrodinámica cuántica. Pero la nueva teoría tenía un problema. Si se calculaba algo de forma aproximada, daba una predicción correcta. Pero si se seguía afinando el cálculo, los resultados daban: infinito! No se podía calcular nada más allá de cierta aproximación. Como mencioné, fue Dirac el que dió una teoría que unificaba cuántica y relatividad. Triunfó donde otros habían fracasado, y de una forma notable. Su teoría explicaba no sólo el electrón, sino también la aparición del spin, un fenómeno netamente cuántico. Y anticipaba la existencia de antimateria. Relacionado con el spin, la teoría de la Dirac derivaba un momento magnético para el electrón, con valor a 1 Cerca de 1948 los experimentos mostraron que el valor era cercano en realidad a 1.00118, con una incertidumbre de 3 en el último dígito. Ya para ese entonces se esperaba que no fuera igual a uno, debido a la interacción entre electrones y fotones. Pero cuando se usaba la electrodinámica cuántica para calcular la corrección, el resultado daba infinito. El problema fue resuelto en 1948, de forma simultánea por Julian Schwinger, Sin-Itiro Tomonaga, y Richard Feynman. Principal fuente: el excelente libro de Richard Feynman, "QED: the strange theory of light and matter". Mucho de estos posts será apenas una transcripción en mis palabras de lo que escribe Feynman. Mientras, sigo estudiando los temas que preceden a éste en: Mecánica Clásica y algo de lo que vino después: Teoría de Grupos y Partículas Elementales Nos leemos! Angel "Java" Lopez |
Publicado el 10 de Marzo, 2015, 14:20
Ya varias veces fue mencionado Richard Feynman en este blog. Físico importantísimo en el desarrollo de su ciencia en el siglo pasado, premio Nobel, gran divulgador, fanfarrón como pocos (pero tenía con qué), bamboyante, casi siempre tratando de ser el centro de atención, construyó su propia leyenda con anécdotas. Desde tocar el bongó, hasta ser asistente frecuente de clubes de "strip-tease", hasta aprender dibujo para dibujar a sus amantes desnudas, todo Feyman es un caso de vida. Yo recordaba que tuvo una primera esposa, en los cuarenta. En estos meses me enteré de más detalles. Ariline era su novia, y cuando enfermó de linfoma de Hodkings, su familia prefirió ocultarle a ella la situación. Feynman, el novio, se opuso, pero respetó la decisión. Y cuando ella se enteró al escuchar a su madre comentando su enfermedad con una vecina, lo encaró a Feynman. El tenia preparada una carta, la carta del adiós, se la entregó y le pidió matrimonio. Se casaron, y él partió al poco tiempo para trabajar en el proyecto Manhattan, el de la bomba atómica. Después se supo que el diagnóstico era incorrecto: en vez de ese tipo de cáncer, Arline sufría una forma rara de tuberculosis (aún hoy, hay formas de tuberculosis que resisten los tratamientos actuales). Se retiró a un lugar para su tratamiento, pero pasaron los años y su situación no mejoro. Una carta de Feyman, estando a 160km de ella, escrita desde los Alamos, el 6 de junio de 1945:
Fue la última carta que Arline leyó de su marido. Murió el 16 de junio las nueve y veinte de la noche. Y el que sería el gran Feynman, el hombre de los mil amoríos, el eterno adolescente, no se recuperó fácilmente. Como escribía arriba, al cabo de un tiempo se concentró en ir construyendo su propia leyenda, luego de la segunda guerra. Y llegó lejos. Siempre generando comentarios, historias entre los que lo conocían. Pero hubo un papel que se guardó y sólo se encontró entre sus cosas, luego de su muerto. En medio de una depresión, habiendo pasado nueve días desde el fallecimiento de su padre, escribe a su esposa muerta en octubre de 1946:
Y termina con:
La carta se conservó, pero muy gastada. Parece que Feynman la leyó muchas veces, y la llevaba consigo. Encuentro todo esto en el excelente: "Feynman, la electrodinámica cuántica; cuando un fotón conoce a un electrón" de Miguel Angel Sabadell |
Publicado el 9 de Marzo, 2015, 6:30
The Reference Frame: Why complex numbers are fundamental in physics Student Years, 1920 - 1927: The Old Quantum Theory Student Years, 1920 - 1927: The Sad Story of Heisenberg's Doctorate Heisenberg / Uncertainty Principle - Werner Heisenberg and the Uncertainty Principle Semiclassical theory of helium atom - Scholarpedia History of classical Helium atom approximation Oral History Transcript — Dr. Werner Heisenberg On shell and off shell - Wikipedia, the free encyclopedia Charles Galton Darwin - Wikipedia, the free encyclopedia quantum mechanics - Darwin term and Zitterbewegung - Physics Stack Exchange Mis Enlaces Nos leemos! Angel "Java" Lopez |
Publicado el 8 de Marzo, 2015, 15:56
Todos estamos familiarizados con los cuerpos calientes y fríos. Sabemos lo caliente que puede estar una sartén recién retirada del fuego, conocemos cómo las brasas de carbón se ponen rojas al consumirse, y se espera que un cuerpo frío se vaya calentando al quedar expuesto al medio ambiente normal. Llamamos "calor" a algo que se tardó un gran tiempo en entender. Dentro de la revolución newtoniana, los fenómenos del calor tuvieron su lugar, pero no quedaron explicados por completo. El caso del carbón pone de manifiesto que hay una relación entre la emisión de calor y la emisión de radiación. El Sol debe ser el fenómeno más presente, pero también hay que recordar que mucha de la emisión de calor es invisible, así que no siempre fue evidente la relación entre radiación de calor y emisión-absorción de luz. Newton estableció en 1701 su ley de enfriamiento (la tasa de enfriamiento de un cuerpo es proporcional a la diferencia entre su temperatura y su medio ambiente, ver también), y luego en 1760 aparece la ley de Lambert, con la relación entre el flujo de la luz y el plano por el que pasa, y la ley de Prevost en 1792, sobre el intercambio de calor, que afirma que los cuerpos radían y absorven energía, y en un sistema cerrado, la suma algebraica de los calores que se pierden o ganan en cada cuerpo dentro del sistema es igual a cero. En el siglo XIX el desarrollo de la teoría del calor avanzó más, y ante el desarrollo paralelo de la teoría ondulatoria de la luz, quedó más claro la relación entre luz y calor. Herschel descubre los rayos infrarrojos en 1800, al descubrir que hay parte del espectro (invisible) que sigue aumentando la temperatura de un termómetro. En 1817 aparece la ley de enfriamiento de Dulong-Petit, que modifica la de Newton aceptando que la proporción de enfriamiento puede estar elevada a un exponente distinto de uno (de nuevo ver este paper). En 1833 Ritchie publica su experimento, que muestra que la capacidad de emisión de una superficie es proporcional a la capacidad de absorción, lo que es la antesala a las leyes de Kirchoff. Ampere consideró por esos tiempos una ley de desplazamiento de la radiación térmica. En termodinámica, Carnot presenta su ciclo de máquina de calor en 1814 (otra fuente da 1824). Mayer anuncia la ley de conservación de energía en 1842 (no fue bien recibida al principio, debido a lo nebuloso que todavía era eso de "energía", mucho del crédito pasó a Joule, que hizo experimentos más detallados sobre el tema en 1843). Finalmente Helmhozt declara la ley de conservación de energía en 1847, con exactitud prusiana. Clausius propone la segunda ley de la termodinámica en 1850, seguido por W.Thompson en 1851, y la teoría cinética de los gases por Kronig en 1856, y el propio Clausius en 1857. Notablemente, muchos de estos aspectos del calor, emisión y absorción, SON INDEPENDIENTES del material del que están hechos los cuerpos utilizados. Esto comenzó a develar una unidad en la estructura de la materia y su comportamiento que sólo se hizo evidente luego con la teoría atómica y la mecánica cuántica. De esta forma, el desarrollo de la teoría del calor se fue asentando en bases más firmes. Y tuvo impulso en la Alemania de entonces debido al rápido desarrollo de su industria, tanto civil como militar. Principal fuente consultada: The Formation and logic of quantum mechanics, de Mituo Taketani, Masayuki Nagasaki. Nos leemos! Angel "Java" Lopez |
Publicado el 6 de Marzo, 2015, 6:57
Publicado el 5 de Marzo, 2015, 16:17
Publicado el 2 de Marzo, 2015, 14:10
Se fue otro mes, y llegó la hora de trabajar en las resoluciones del nuevo mes. Antes, un repaso del resultado de las de Febrero - Seguir mi serie sobre la Ecuación de Schrödinger [pendiente] Además hubo posts como: El teorema de la base de Hilbert (4) Resoluciones para el nuevo mes: - Seguir mi serie sobre la Ecuación de Schrödinger De nuevo, un mes matemático, y alguna orientación científica. Necesito dominar algunos temas, y esta serie de posts me están ayudando a pasarlos en limpio. Nos leemos! Angel "Java" Lopez |
Publicado el 1 de Marzo, 2015, 13:33
Las leyes de la mecánica clásica fueron reunida y expuestas en 1686 por Isaac Newton (1642-1727) en su famoso libro Philosophiae Naturalis Principia Mathematica (ver Los Principia de Newton, Mecánica Clásica) Durante los dos siglos siguientes fue extendida y usada para explicar todos los fenómenos de la física y la astronomía. Fue la primera "gran unficación": la de los cielos y la tierra, separados en explicación desde los tiempos de Aristóteles. Newton mostró que lo que hacía que un proyectil siguiera una trayectoria y no otra, tenía la misma explicación que las órbitas de la Luna y los planetas. Muchos después de Newton fueron extendiendo la mecánica clásica, incluso en formas que pienso le hubieran parecido extrañas al propio Newton (recordemos el planteamiento lagrangiano, ver Lagrangianos y Hamiltonianos). Pero con todo el triunfo de la mecánica clásica para explicar los fenómenos físicos, iba apareciedo, con el correr de los años, temas y conceptos que no encajaban en el gran esquema newtoniano. Uno era la luz: tratada de explicar como movimiento de partículas, chocó con la prueba experimental de la interferencia, y la explicación ondulatoria. Luego el calor también apareció, ligado a la luz en la explicación de la radiación. En el siglo XIX además aparecieron cuestiones como la constitución de la materia en estructura atómica y molecular (hay que admitir que era sólo una explicación tentativa, no todos aceptaban este modelo, hasta entrado el siglo XX hubo quienes no aceptaron la explicación atómica) y más sobre la naturaleza de la luz, como la ausencia experimental de detección de cambio de velocidad relativa (esto originó la primera teoría de la relatividad). Y todavía más: la electricidad y el magnetismo se fueron descubriendo como caras de la misma moneda, y desde Faraday a Maxwell vemos el avance del electromagnetismo. Pero vayamos apuntando al nacimiento de la mecánica cuántica. Como apunta Max Jammer, la teoría cuántica, en su primera formulación, tuvo su origen en la incapacidad de la física clásica de dar cuenta de lo observado experimentalmente en la distribución de la energía en el espectro continuo de la radiación de cuerpo negro. No era un problema fácil: era la cuantificación de la energía en vibraciones electromagnéticas armónicas, ligadas a una estructura atómica que todavía no estaba clara. Tal vez se hubiera avanzado más si la atención se hubiera detenido en otro fenómenos, como el calor específico. O que se hubiera descubierto la cuantización de la energía atómica al ver que la energía agregada siempre iba a la energía cinética de los átomos y no era absorbida internamente, en su energía de ligadura. Pero eso es especulación. En el próximo post, veremos el estado de la teoría del calor y la radiación, con la llegada de las leyes de Kirchoff. Fuente adicional consultada: Quantum Mechanics, A Conceptual Approach, por Hendrik A. Hameka Nos leemos! Angel "Java" Lopez |