Publicado el 30 de Marzo, 2011, 11:48
Ya comenté a Newton en otros posts, por ejemplo: Los Principia de Newton Hoy quiero comentar brevemente, como introducción a temas de mecánica clásica, las tres leyes del movimiento que Newton plantea en sus Principia. Este es el texto publicado (cada ley tiene su enunciado original y el comentario de Newton):
Esta ley es un punto que se les "escapó" a los antiguos, como Aristóteles, pero que tiene sus precedentes en la edad media (tengo revisar mis fuentes), en Galileo y en Descartes (tengo que comentar las ideas de este último expuestas en su "Tratado del Mundo"). Lo que Newton expone en esta ley es que la velocidad sin cambio ("uniform motion") es una propiedad que se mantiene sin necesidad de ayuda, cosa que hubiera asombrado a Aristóteles, que hubiera afirmado que una flecha necesita de algo que la empuje en el medio del aire para que siga avanzando. El reconocimiento de esta ley (que no es evidente, AHORA nos parece evidente) fue un arduo camino que mereció recorrerse. Vean cómo Newton menciona a planetas y cometas. Junto con Galileo, Newton va ha realizar la primera gran unificación de la historia de la física: la de las cosas "terrenales" y "celestiales". Desde entonces, serán lo mismo, sujetas a las mismas leyes.
Esta ley se puede tomar como definición de fuerza, o como simple enunciado de los efectos de una fuerza. Las fuerzas cambian la "motion". Y ese cambio es proporcional lineal a la fuerza, como lo expone en el comentario. Considera cambio también a la dirección. Y aclaro que "quantity of motion" para Newton es proporcional a la masa y a la velocidad del sistema (partícula material para muchos casos que trata Newton).
Según Penrose, Newton tiene un escrito anterior donde había colocado cuatro o cinco leyes. Una era la relatividad de Galileo. Luego se dió cuenta que podía reducir la cantidad de leyes y deducir lo mismo. Newton quería imitar a los "antiguos", como Euclides: un exceso de axiomas (el capítulo donde aparecen estas leyes se llama "Axioms, or laws of motions") sería una "mancha" en su sistema. La tercera ley, hoy sabemos, no se cumple en todos los casos. Su formulación es válida en las colisiones, por ejemplo, pero más discutible en los casos donde no hay contacto directo. En esos casos, hoy preferimos el modelo de campos intermedios, que evita la "acción a distancia" que aparece más adelante en Newton con su explicación de la gravedad. Esta tercera ley la coloca Newton para explicar la conservación del momento. Tal vez hubiera sido mejor para Newton poner como ley la conservación del momento, y deducir esta ley. Temas pendientes: Principales fuentes consultadas: los propio Principia, en la edición que mencioné en el post citado al principio. Y el "Classical Mechanics" de John Michael Finn, que tiene una buena introducción histórica a estos temas. Quiero tratar en algunos post sobre el tema de mecánica clásica, porque es un tema que quiero explicar (para terminar de entenderlo), ver su historia (cómo aportó a la matemática, a la mecánica celeste, en especial al cálculo), la aparición de nuevos problemas (como la luz, la cuerda vibrante), las nuevas formulaciones (hamiltonianos, lagrangianos), y cómo todo esto nos pone, al comienzo del siglo XX, de puertas a la relatividad einsteniana y la física cuántica. Y todo esto, para comenzar a entender ¿Qué hace el Universo? ;-) ;-) Nos leemos! Angel "Java" Lopez |
Publicado el 29 de Marzo, 2011, 11:46
Ya comenté algo sobre mis primeras lecturas de Juvenilia, de Miguel Cané, en: En la introducción de ese libro, leído en mi infancia, encontré una referencia a un tema que me intrigó:
Ese era el estilo de Cané: claro, detallado, humano. Me llama la atención hoy lo de: "¡Cuánta matemática, cuánta químìca y filosofía inútiles!". Pueden leer el texto completo del libro en línea, este fragmento está en la introducción. (Nota curiosa: llegado a la adolescencia, recuerdo haber sacado una mala nota, porque a la profesora Serodino no le gustó que en mi crítica a este autor, lo llamará "Cané", con mucha familiaridad ;-) Me llamó la atención ese fragmento. ¿Qué era el binomio de Newton? Yo conocía a Newton, seguramente de libros como el que mencioné en Mi primer contacto con Buffon. Pero no tenía libros de matemáticas. Tal vez por eso me llamó más la atención qué era un binomio. Pueden leer sobre el binomio de Newton en: Binomial theorem. Ahí está un dato que conocí bastantes años después: Newton no fue el primero en plantear el desarrollo del binomio, sino que fue el primero en extenderlo a exponentes no naturales. Mis dudas sobre el binomio, habrán durado uno o dos años: al tiempo conseguí un libro de matemáticas, que iba bastante más allá de lo que aprendía en el colegio. Lo consideraría mi primer contacto con las matemáticas. Y en la tapa tenía la foto (para mí fascinante) de un pizarrón con varias fórmulas, una era el desarrollo de binomio. Pero ese libro ya merece ser tema de otro post ;-). Aprovecho este post para contestar un comentario de @Bilinkis en el post sobre Amadeo Jacques:
Estuve tratando de recordar cómo llegó ese libro a mi casa. Me lo compraron para mí, no estaba "de antes". Supongo que habrá venido en una serie de libros, donde estaba Corazón (de Edmundo De Amicis), El abuelo inmortal (de Arturo Capdevila) y otros. Pero no estoy seguro. En estos días, Juvenilia aparece de nuevo en los kioskos de Argentina, en la colección Robin Hood. Me gustó del libro que el autor leyera libros, me sentí identificado en ese punto. Y yo también, como Bilinkis, me acuerdo del tema "Chacarita de los Colegiales". Mi madre siempre recordaba la escena, de la película "Juvenilia", con un jovencísimo Gogó Andreu corriendo con una sandía ;-) (creo haber visto esa escena alguna vez, en una reposición en televisión de esa antigua película, de 1943). Enlaces sobre la película: Juvenilia (Película) Nos leemos! Angel "Java" Lopez |
Publicado el 27 de Marzo, 2011, 0:36
En los últimos posts de esta serie sobre ¿Qué es la realidad? : Cambios, causas y azar quedó planteado que los cambios en las cosas se pueden producir por causas, o por azar. Traté en algún detalle el tema de causas y causalidad. Llega el turno de presentar el papel del azar en la realidad. Primero, recuerdo algo que escribí en esta serie:
Es decir, puede que todo azar sea derivado y no fundamental. Lo que se yergue para no llegar a esa conclusión es lo que conocemos hasta ahora del nivel cuántico (pueden leer algo sobre el tema, en la serie de post que he iniciado sobre física cuántica). Es tal vez el único nivel de la realidad donde lo que pasa, los cambios, no tienen una explicación por proceso, mecanismos, sino que es "así", como si hubiéramos llegado al final, al lugar donde se dibujan las reglas del juego de la realidad, sin mayor explicación desde un nivel debajo. Pasando a la ciencia, esa forma de la cuántica, basada en probabilidades y azar, es lo que puso inquieto a Einstein: él siempre buscó una ciencia explicativa, más que descriptiva. Es en la cuántica donde tenemos que contentarnos con "X pasa", con la explicación "porque la realidad es así". En otros niveles, podemos explicar "leyes" como la de los gases en base a la teoría molecular, o "ley de valencia" en base a la estructura atómica. Por ahora, en este post, enumeremos los tipos de azar que encontramos en la realidad. Uno es el azar que aparece cuando dos cosas, en sus líneas de vida, se cruzan, sin anterior relación causal. Ejemplo clásico: dos personas que nunca se vieron ni se trataron, se cruzan en un paseo, al coincidir en el mismo bar. Lo mismo que dos personas, puede pasar con dos moléculas en la atmósfera. La línea de vida de cada cosa puede ser consecuencia de causas, pero encontrarse con otras cosas bien puede ser parte del azar. Es decir: su trayectoria puede estar determinada por causas y procesos, pero su coincidencia es azarosa. No hubo causa en su coincidencia. Tendría que revisar la Física de Aristóteles (el jueves pasado comenté un fragmento en ... pero no involucraba el azar), donde parece estar tratado este tipo de azar. Podemos encontrarlo también, como oportunidad única e irrepetible, en la evolución biológica. Desde la caída de un meteorito en el Cretácico, hasta las exaptaciones de Stephen Jay Gould (un órgano preparado para una función resulta apropiado para otras), son casos de este tipo de azar. Un tema fascinante para explorar. Lamentablemente, el azar por coincidencia ha sido tomado por el pensamiento mágico, que lo explica por conexiones impenetrables al análisis: es decir, hay causas, pero no somos capaces de descubrirlas. Semejante actitud la encontramos desde la "sincronicidad" de Jung hasta en la New Age. Apenas cabe agregar que semejante "explicación" no ha sido corroborada ni ha aportado un solo centímetro de avance en el conocimiento humano. La segunda clase de azar a presentar es el desorden: lo encontramos al batir, revolver, agitar, calentar, al producir disturbios. Este tipo de azar es el que trata la mecánica estadística o la estadística notarial. Podemos encontrarla en el ruido blanco de las transmisiones, los patrones de las gotas de lluvia, los resultados de los juegos de azar, los seguros de vidas y los errores experimentales. Encontramos sienpre fluctuación estadística. Si lo piensan, las compañías de seguro se basan en este tipo de azar. Pero si se mantuvieran las tablas y tasas de estas compañías, seguirían en el negocio aunque supieran la fecha de fallecimiento de cada uno de sus asegurados (esto lo señaló Poincaré). La idea es: su negocio se basa en una distribución, si esa distribución se cumple, ya sea por azar, o simplemente porque los fallecimientos sigan esa pauta, el negocio sigue. Hasta puede pasar que lo que llamamos azar en un nivel sea resultado de la causalidad en otro nivel, y viceversa. Alguien podría decir que los juegos de azar no son tales en realidad, porque las monedas, dados y cartas se mueven según las leyes de la mecánica clásica (esto asume que no hay influencias cuánticas en esos procesos). Pero aún así, los resultados son aleatorios: mientras no se detecte una pauta en los resultados de la ruleta, no importa que tengamos un proceso causal por abajo. El resultado es indistinguible del azar fundamental. Un ejemplo de las matemáticas: nadie duda que los dígitos de pi son producto de un proceso (un algoritmo matemático, no proceso real), pero todo análisis realizado hasta ahora ha indicado que siguen una distribución que coincide con una distribución al azar. Sin conocer el proceso de producción de los dígitos, no tenemos ninguna pauta para "acertar" el próximo dígito. Al principio de la revolución científica, no fue aceptado este tipo de azar. Gracias al trabajo de Cardano, Galileo, Pascar, Descartes, Fermat y el caballero de Mere se comenzaron a descubrir las leyes de azar (una expresión que podría pasar por contradictoria). Más tarde, Daniel Bernoulli comenzó a aplicar las probabilidades a la propia física. Boltzmann llevaría a la cumbre su aplicación, completada luego por Einstein, Fermi y Bose. En ciencias sociales aparecieron las estadísticas, y el estudio de eventos en grandes poblaciones humanas. Dejo para próximo post el tercer tipo de azar: la fluctuación espontánea. Fuente consulta, del beato Bunge: A la caza de la realidad, La controversia sobre el realismo. Mario Bunge. Capítulo 4 "La causalidad y el azar: ¿aparentes o reales? Sección 2: "Azar, tipos" Nos leemos! Angel "Java" Lopez |
Publicado el 26 de Marzo, 2011, 13:22
Primer post de la serie En el anterior post presenté más formalmente a los espacios vectoriales, que hemos de alguna forma usado en toda la serie. Pero además presenté la notación de Dirac, donde los vectores aparece como elementos entre | y >, como |V>, |W>. Pero en física, además de vectores, manejamos números, cantidades de observables. Las operaciones que vimos en espacios vectoriales (suma de vectores, multiplicar un escalar (número complejo en nuestro caso) por un vector) siempre nos dan vectores. ¿Cómo aparece una cantidad en este formalismo? Pero antes, ¿y por qué esa notación de parte de Dirac? ¿por qué no representar simplemente los vectores por letras, sin usar | y >? Veamos la justificación. En espacios vectoriales, en general (en matemáticas, no solamente en física), se consideran operaciones (funciones) que dado un vector consiguen un escalar: Se plantea en particular, el estudio de las funciones que son lineales con los vectores:
Se puede mostrar que esas funciones también forman espacio vectorial. Se llama el espacio vectorial dual. Y sus elementos se llaman covectores. Y acá viene algo interesante: se puede asociar a cada vector: A una de esas funciones covectores, y Dirac la escribe como: Es decir, por cada vector original, tenemos una función covector! No es trivial el tema. ¿Pero cómo obtenemos un número? En esta nueva notación tenemos:
De ahí la notación de Dirac! Vean cómo encajan los <W| con los |V> como si encastraran. De ahora en más, cada vez que veamos <W|V> eso no es un vector, es una operación entre covector y vector que produce un número. Se podría definir esa operación de muchas formas. Pero se espera que cumpla con: Es decir, que la multiplicación de un covector por su vector produzca un número real no negativo. Esto es importante para nuestro interés en la física. En general (no siempre) nos interesan obtener valores reales, no complejos, para nuestras mediciones. En la realidad, aparecen valores reales para los observables. Alguna vez lo representamos gráficamente como un vector columna: (Nota matemática: si nos pusiéramos más formales, debería poder discutir todo esto sin apelar a una base, y menos a una base finita. Pero acá, en esta serie, me interesa más aplicar estos conceptos como se manejan en física cuántica; dejaré para otra serie, el examinar los espacios vectoriales en forma más abstracta. Recuerdo que la primera vez que me topé con los covectores y espacios duales fue en el excelente Algebra Lineal de Larrotonda, editorial Eudeba, que aún conservo). Sean los vectores |V> y |W> expresados como combinaciones lineales de una base de dos vectores: Tomamos como <W| a (vean que tenemos covectores de base, y coeficientes conjugados): Multiplicamos <W| con |V> y aplicando linealidad: Uau! Pero acá viene algo más. Si, como hasta ahora, tomamos vectores de base tales que: Es decir, son vectores de estado (<V|V>=1) y se dicen que son ortogonales <i|j> =0 para i<>j. Queda simplificado: Volvamos a la representación gráficamente. Sean los vectores |V> y |W> en representación vectores columnas: Pues bien, el covector <W| es un vector fila, obtenido del original |W> pero con sus coeficientes conjugados (es decir, si c1 = a+ib, su conjugado es a-ib): Y "definimos" el producto interno de covector <W| y vector |V> como el producto de los vectores: Que nos da la expresión de arriba: Este producto produce para <V|V>: Si nos fijamos en esta "definición", vemos que tomar el producto interno en sentido inverso da el conjugado del original: Y acá aparece otra cualidad de la notación de Dirac. Hasta ahora, habíamos manejado coeficientes, amplitudes v1, v2. Se pueden expresar como multiplicación del vector por los covectores base: Entonces podemos escribir: Vean que esta vez las amplitudes, coeficientes los he puesto A LA DERECHA de cada vector base |i> Donde i recorre todos los vectores de base. ¿Cómo expresar el covector como suma de covectores base? Así: Vean que esta vez coloqué las amplitudes A LA IZQUIERDA de los vectores base. Eso permite que esta "pieza" termine hacia la derecha con un <W| (covector) que se puede "enganchar" con un |V> vector. La notación de Dirac termina siendo un juego de encastre! ;-) Todavía nos dá más. Si revisamos todo lo que sabemos, nos da que la multiplicación de dos vectores se puede expresar como: Pero como <i,j> = 1 si i=j, =0 si i<>j, simplificamos a: Dirac diría: hay que considerar el | (barra vertical) como una "abreviatura" de: Siempre y cuando hayamos elegido vectores de base de estado y ortogonales. Siempre podemos reemplazar la barra vertical por esa expresión sumatoria. Ahora algo importante. Hay algo más de significado físico. Hasta ahora, no habíamos considerado físicamente números como <W|V>. Habíamos considerado las amplitudes como <1|V> o <2|V> que nos daba la amplitud de encontrar, en una medida, el resultado base 1 o 2 (ceca o cara en nuestro ejemplo de la moneda cuántica). Llegó el momento de crecer, y aprender uno de los postulados que vamos a manejar en física cuántica: <W|V> es la amplitud de pasar al estado W estando en el estado V. Hay bastante para discutir sobre eso de "pasar". Pero por ahora basta agregar esa afirmación. Físicamente, esa amplitud <W|V> es una característica de la realidad. Y no importa los vectores de base (ortogonales y de estado, eso sí) que pongamos, <W|V> nos da el mismo número: Para reafirmar lo dicho: Podemos tomar vectores para expresar otros vectores como combinación lineal de los primeros Y nos interesamos por los vectores de estado. Que dan también: <W|V> es la amplitud (NO la probabilidad) de "pasar" del estado V al W Bueno, ha sido bastante por hoy. Ya exploramos un poco cómo obtener cantidades a partir de los vectores. Nos faltan algunas otras formas derivadas de estas. Próximos temas: cómo transformar vectores (por ejemplo, en el tiempo); cómo obtener algún valor útil de todo este formulismo. Ah! ¿y por qué el título Bra y Kets para este post? Pues Dirac, ingenioso, nombró <W| como un Bra, y un |V> es un Ket. Entonces <W|V> es un Bra-Ket, que en inglés "bracket" es la combinación <...>, "poner entre brackets" es algo parecido a "poner entre paréntesis", pero en lugar de () los brackets son los <>. Ver Bra-Ket notation. Vean también que las amplitudes de los bras van a la izquierda, mientras las amplitudes de los kets van a la derecha. En matemática, los coeficientes van generalmente de un solo lado. Pero Dirac quiso usar esta notación para poder "enganchar" expresión con expresón, como estuvimos viendo. Noten que multiplicar por un escalar a un Ket, y pasarlo al dual, IMPLICA conjugar ese escalar. Esa es la "otra vuelta de tuerca" a recordar. Nos leemos! Angel "Java" Lopez |
Publicado el 24 de Marzo, 2011, 17:25
Hoy quiero escribir sobre algo que ya comenté en Physis para los griegos, física en Aristóteles, revisitando el tema. Aristóteles escribe cerca del comienzo de su Física (physis para él es, digamos, ciencias de la naturaleza, en contraposición a las matemáticas (aritmética, geometría en su tiempo), y metafísica, por ejemplo):
Es curioso que Aristóteles mencione eso de los niños llamando padre a todos los hombres: no parece ser el caso siempre. Pero veamos hacia dónde va el estagirita con este párrafo. No se llega a entender si no recordamos el que lo precede:
Vean que distingue entre lo "más claro y cognoscible" para nosotros de lo "más claro y cognoscible" por naturaleza. ¿Cómo debo entender esto? Si tuviera que ponerlo en mis palabras, diría: nosotros, como seres humanos, estamos dotados de sentidos, conciencia, imaginación, razón, sentimientos. Vamos por nuestra vida, experimentando nuestro mundo interior y el exterior. Pero lo que nos llega, es sólo lo que yo llamo el ambiente, no la realidad. Estamos preparados, si quieren verlo por evolución biológica, a manejarnos entre los fenómenos, no los hechos últimos de la realidad. Aristóteles distingue, en otros libros, entre lo "que parece el caso" de lo "que es el caso". Una cosa son los fenómenos, y nuestra elaboración de los mismos para producir imágenes, representaciones del mundo, y otra es lo "que es el caso". Por tomar un ejemplo clásico: nosotros "vemos" girar al Sol. Es "claro y evidente". Pero ese fenómeno no es el hecho, no "es lo que es el caso". Es sólo apariencia. Y es apariencia clara y evidente para nosotros, como organismos, seres humanos, porque nada nos llevó a discriminar más fino: como Sherlock Holmes, no nos interesa si el Sol gira, o la Tierra gira, porque no afecta a nuestras actividades y conocimientos necesarios de todos los días. Solamente llegados al tiempo de sentarnos a observar más en detalle, llegados al momento de plantear modelos como los de Aristarco y Ptolomeo, podemos ir preguntándonos si realmente es el Sol el que gira, y los planetas también, para llegar como Copérnico a plantear el geocentrismo, no como una simple forma de mejorar los cálculos, sino como parte de la realidad, como "lo que es el caso". Escrito esto, volvamos al primer párrafo mencionado:
Aristóteles no da un ejemplo de algo claro y evidente que sea a la vez confuso.
Bien, acá hay más de donde agarrarnos. Aristóteles plantea el análisis, el tener en cuenta que una cosa tiene elementos. Y como plantea antes, "toda investigación sobre cosas que tienen principios , causas o elementos". Gran parte del libro Física se va en justamente descubrir los elementos de la naturaleza, y sus principios. Y tiene puesta gran esperanza en que todo lo que se nos presenta, tiene principios generales. Tal es el caso de las causas, que el estagirista presenta en este libro. Aunque reconoce que hay cambios en multitud de cosas, se ve impelido a buscar causas de esos cambios. Pero no causas para los cambios en los animales, y causas para los cambios en los seres humanos, y causas para los cambios encosas inanimadas. Busca los tipos de causas de todos los cambios. Prosigue entonces:
Es curioso que plantee esta postura. No da ejemplo de "un todo es más cognoscible para la sensación". Tengo que suponer un ejemplo: cuando, parados en la cima de un monte, miramos al valle, vemos al río, no vemos sus partes, agua por separado, meandros, y demás. Vemos, captamos e imaginamos "río". Cuando vemos lo verde del valle, captamos "bosque", aunque un análisis más detallado nos mostrará que lo que vemos como una cosa, es una cosa compuesta de multitud de árboles, de distintos tipos, de otros vegetales, animales, caminos y demás. Vean que menciona "sensación". Aristóteles tiene en gran estima a nuestros sentidos. No es tan escéptico a esa información como otros filósofos. Tengo que revisar el libro IV de su Metafísica, donde repasa y critica justamente posiciones escépticas sobre los sentidos y la percepción. Apenas De Anima trata que los sentidos pueden fallar dependiendo de a qué objetos nos dirigimos. Decir "esto es blanco" tiene menos posibilidad de fallar que "esto blanco es una margarita". Pero no hace mucho hincapié en esas cuestiones. Tal vez, como reacción a Platón, que desde el mito de la caverna plantea la duda a lo que percibimos. Aristóteles pone, como elementos básicos de la realidad (lo que se llamó "substancia") a las cosas, como animales, vegetales, seres humanos, rocas, utensilios, que percibimos. Pero en el párrafo citado, reconoce que una cosa comprende una multiplicidad de partes. Siempre veo Aristóteles llegando a "partir" las cosas. Otra operación similar, es "clasificar" las cosas que se le presentan, como cuando escribe de cuatro causas, o de las categorías, o de las formas de decir/emplear "ser". Pero veo que son dos operaciones: una, es dividir una cosa, en partes. Otra, es dividir en clases la multiplicidad de ejemplos de algo. Recordemos que Aristóteles escribió un "De la partes de los animales". Yo llego a afirmar que gran parte del pensamiento de Aristóteles abreva de su inclinación por el estudio de los animales: sus ideas sobre teleología en la naturaleza, el desarrollo de una semilla, el tomar una cosa como compuesta y funcionando gracias a sus elementos, todo el origen de esas posturas se puede ver más claro cuando se recuerda que fue hijo de un médico y dedicó sus primeros años a estudiar los animales. Entonces, Aristóteles habla de comenzar por la cosa en conjunto, y luego seguir a sus partes. Pero ¿realmente emplea ese método? No hay mucha mención en sus escritos a metódo, camino para llegar a conocimiento. Muchas veces, lo que hace, para avanzar en un tema es: - Enumerar las posturas de sus antecesores, y criticarlas, tomando lo adecuado, señalando lo inadecuado de cada una Pero, en mi opinión, es raro encontrar en él, eso de "comenzar por la cosa en conjunto". Justamente, en el libro Física donde está este párrafo, emplea los tres items mencionados arriba. Lo que puedo rescatar de "comenzar por la cosa en conjunto" es que aborda el estudio de la naturaleza, no con casos particulares, sino yendo directamente a lo general: los cambios, sus causas y relaciones. Tal vez en ese sentido hay que entender lo de "la cosa en conjunto". ¿Se puede criticar esa posición? En parte sí. Muchas veces, comenzar por la cosa en conjunto, sea como "cosa" tipo "bosque" para pasar a los "árboles", sea como "cosa" tipo "general", para pasar a lo "particular", no es siempre abordable. Tal vez para un genio como Aristóteles, ése sea el camino más fácil o agradable. Pero muchos temas (como la naturaleza en general, que es de que trata la Física) o cosas (como un organismo o bosque), son tan complejos, tienen tantos vericuetos, elementos, relaciones, que no es fácil abordarlos primero en conjunto. Siglos después, Descartes (siempre tratando de construir todo por sí mismo, olvidando a sus antecesores) planteará ir a puntos sencillos (línea recta en geometría) para ir luego avanzando en otros temas (curvas), y conseguir al final una síntesis. Recordemos los cuatro puntos de su método (ver http://www.philosophypages.com/hy/4b.htm): - Aceptar como verdadero sólo lo que es indudable El segundo punto podemos llamarlo análisis (ver Las cuatro reglas del método de Descartes). El tercero podemos llamarlo síntesis. Podría detectar algo de esto en el párrafo de Aristóteles:
si él afirmara que "lo más claro para nosotros" son las partes. Pero no. El se decanta por "tenemos que proceder desde las cosas en su conjunto a sus constituyentes particulares". Esa es la crítica que se le puede hacer a Aristóteles. Partir de las cosas en su conjunto puede no ser fácil. Puede inducirnos, por la razón, a plantear relaciones, patrones que al final no son "el caso" cuando lleguemos a su aplicaciones a las cosas individuales y a sus partes. El ejemplo más claro de "un camino descarriado" fueron sus causas: las aplica a todo, sean rocas, plantas, animales, herramientas, acciones humanas. Tengo pensado escribir más sobre Aristóteles: tal vez una serie de posts. Por un lado, es un pensador y científico fascinante. Por otro, es un poco lejano para lo algunos temas que podemos tratar más modernamente. Pero igual es interesante. Veré si tengo tiempo de iniciar esa serie. Nos leemos! Angel "Java" Lopez |
Publicado el 21 de Marzo, 2011, 6:10
Primer post de la serie Luego de presentar ejemplos en esta serie como: La moneda cuántica Llegó el momento de presentar más en detalle algunos elementos matemáticos que he usado. El tema de este post será entonces introducir más formalmente la estructura de espacio vectorial, como se usa en física cuántica. Dejaré para otro post, fuera de esta serie, el tratamiento de esa esta estructura desde el punto de vista matemático, estructura muy rica, pero que debe su desarrollo principalmente a su aplicación temprana en la física newtoniana y siguiente. ¿Cuándo apareció este tema en esta serie? Desde el principio: cuando describí el experimento mental de una moneda cuántica, y expuse que su estado se puede expresar como combinación lineal de otros estados. Veamos cómo se liga eso a espacios vectoriales. Llamamos espacio vectorial (hay autores que agregan "lineal") a un conjunto de elementos V: Llamados vectores, sobre los que existe una operación de suma: Operación binaria que dado dos vectores obtiene otro vector del mismo conjunto: se dice que es una operación cerrada en V. (Para los que conocen espacios vectoriales en matemáticas, les parecerá extraña esta notación que uso: es debida a Dirac, y es la que se usa frecuentemente en física cuántica: veremos su extensión a covectores en un próximo post). La adición de vectores es conmutativa: La adición de vectores es asociativa: Existe un vector: Tal que su suma con cualquier otro vector, ya sea a izquierda o a derecha, lo deja inalterado: Para todo vector, hay otro que es su inverso: Todo esto indica que la suma de vectores forma un grupo conmutativo o abeliano (ver Grupos: definición y ejemplos) No solamente hay vectores en un espacio vectorial. También hay un conjunto de números K (en términos más matemáticos K es un cuerpo), llamados escalares. Para nuestra discusión en esta serie, son números complejos. Hay una multiplicación de escalar por vector, que da otro vector: Esa multiplicación cumple que es distributiva con la suma de vectores: La multiplicación es distributiva con la suma de escalares: La multiplicación de escalares es asociativa: Se puede mostrar rápidamente que:
Se suele representar a los vectores como flechas: Vean que en este tipo de representación las flechas comparten el mismo origen, no son "flechas" distribuidas sobre un espacio, plano o variedad (como sería en el caso de campo vectorial, también muy importante en el formulismo y conceptos físicos). Pero no quisiera insistir mucho en esta representación, si bien la usé en los anteriores posts. Tenemos que ir a acostumbrarnos a: - Los escalares son números complejos, con lo que es fácil visualizar en el diagrama de arriba la multiplicación por un escalar (un número a) no real Llegados a este post en esta serie, los vectores que vimos fueron vectores de estado: y vamos a concentrarnos en ellos. En esta nueva notación, el vector de estado de la moneda cuántica, presentado en Física Cuántica (Parte 1) Primer Ejemplo podemos expresarlo como: Donde |1> sería el vector de estado ceca, y |2> sería el estado de estado cara. Es una combinación lineal de otros vectores, en este caso, de vectores de base. Pero una cosa que distinguió a los vectores de estado de estos vectores de un espacio vectorial, es que tiene "longitud" unitaria. Falta que defina lo que es norma (la "longitud" en términos matemáticos) de un vector. Pero hemos visto que, en física cuántica, la norma al cuadrado de un vector de estado da 1. Ahora que estamos armados de esta estructura más formal, tenemos que estudiar: - Cómo un vector cualquiera, y luego, un vector de estado, cambia en otro, ya sea por el transcurso del tiempo, por el acto de una medida o por cambio en las condiciones del ambiente - Cómo cambia su representación al cambiar los vectores de base - Definir un producto de vectores (o mejor dicho, de vector con covector) para dar un número. Necesitamos, en una teoría física dar cuenta de cantidades observables, como momento, posición o cosas parecidas. Fuente principal consultada: capítulo 1, Principles of Quantum Mechanics, de R.Shankar, excelente libro, detallado, que usa la notación de Dirac, y tiene una buena introducción a todos estos temas. Nos leemos! Angel "Java" Lopez |
Publicado el 20 de Marzo, 2011, 12:10
En el anterior post de esta serie sobre ¿Qué es la realidad? comencé a tratar las causas como fuente de los cambios en las cosas (no la única fuente, tengo que comentar sobre el azar). Veamos un ejemplo de búsqueda de explicación causal. Podría tomar un ejemplo de ciencias naturales, pero adentrémonos en un caso de ciencias sociales, más precisamente, un caso de economía. Es el caso de la ley de Say, que aún se discute. Jean-Baptiste Say (1767-1832) era un hombre de negocios que desde joven se dedicó a los seguros de vida, luego fue profesor y terminó su carrera en el College de France. Como autor francés ha sido menos considerado en la historia del pensamiento económico que los autores ingleses, como Smith y Ricardo. Pero en realidad, tuvo su influencia. Escribiendo Traité d'Economie Politique, pasó a forma más ordena las ideas expuestas por Adam Smith en La riquiza de las naciones. También ponderó la importancia del empresario en el desarrollo económico, siendo un precursor de Schumpeter. Pero es más conocido por su ley de Say. Para exponerla, leo hoy a John Kenneth Galbraith:
No todos aceptaron la ley de Say, ya en su tiempo. Por ejemplo, Roberth Malthus tenía sus dudas. Ya luego de Say, hubo depresiones, donde lo que se producía no se vendía, contrario a lo que afirmaba Say. Pero los economistas arreglaron el asunto: los ciclos al final pasaban, y a un "largo plazo" la ley de Say sobrevivía. Galbraith destaca:
Vean cómo Galbraith también destaca el aspecto político de abrazar una explicación. Confieso que me cuesta entender del todo a la ley de Say. Tengo que revisar conceptos como demanda, oferta, pero principalmente, salario, interés, renta, su uso y distribución. Y el texto original de Say. A primera vista, no parece que la distribución sea la adecuada para que todo lo que se produzca genere de alguna forma su demanda. Pero veamos: lo que Say y sus seguidores plantearon, fue un modelo para explicar el funcionamiento de la economía. Como siempre, lo que hay que ver en un modelo es si corresponde a lo que sucede en la realidad. Un golpe fuerte (para algunos, un golpe de gracia) vino en la depresión del 30 y la crítica de Keynes. Vean Supply creates its own demand (donde se afirma que fue Keynes quien expuso de esta forma lo que decía Say: "la oferta crea su propia demanda") Es decir, como dice Bunge: "tú produce que alguien comprará, porque el mercado aborrece los desequilibrios". Justamente, Keynes arremete contra la ley de Say al vivir y analizar la Gran Depresión. Pero entendiendo todo o no, es interesante centrarse en este tema, la ley de Say, como un modelo para explicar un proceso económico. Para Say, según Keynes, la flecha causal se ve así (así lo expone Bunge):
¿Será así el proceso causal? ¿La oferta genera su demanda? Es un modelo interesante, pero todo indica que es simplista. Pero siempre es interesante que alguien plantee un modelo: permite examinarlo, criticarlo, mejorarlo, modificarlo. ¿Cuál es un problema en este planteamiento? Que olvida que la demanda es consecuencia de las decisiones individuales. Lo que falta en el diagrama de arriba, es el tener en cuenta que estamos tratando con niveles de la realidad: en un nivel, está la sociedad y su economía y el mercado. Pero en otro nivel, están los individuos. Así como en química tenemos leyes (como el de la valencia), pero cuya explicación viene de los niveles físicos (electrones exteriores en un átomo, principio de exclusión de Pauli, etc..), así también tendremos que manejarnos en este caso, sin olvidar la existencia de niveles. Se puede proponer, como hace Keynes:
Es por todo esto que es importante el análisis de las causas. Vean cómo puede haber dos explicaciones, pero no pueden las dos tener el mismo valor explicativo. Puede que tampoco la formulación de Keynes sea la última palabra. Pero es notable cómo estos modelos tienen OPUESTAS flechas causales: señal de que el problema no es trivial. Yo diría que hay más para investigar de este punto, para comenzar a comprender el sistema económico (un tema pendiente en esta serie: sistemas, y mecanismos en sistemas). Es interesante, para la historia del pensamiento económico, repasar lo que escribe Galbraith:
Sirva también este post para indicar la importancia del análisis crítico de causas, modelos y procesos. Es acá donde de nuevo, la filosofía puede ayudar al proceso de nuestro conocimiento, apuntando a revisar nuestras concepciones nacidas de la actividad científica. Y para mostrar que la discusión de una postura realista es importante para nosotros, no es sólo un "tema filosófico, una discusión bizantina": una postura no-realista podría decir que lo de Say y Keynes son "puntos de vista" ninguno mejor que el otro. Ver La importancia del realismo. Fuentes consultadas: Historia de la Economía, John Kenneth Galbraith y la obra del beato: A la caza de la realidad, La controversia sobre el realismo. Mario Bunge. Nos leemos! Angel "Java" Lopez |
Publicado el 18 de Marzo, 2011, 12:14
En el post Dirac revisando el trabajo de Heisenberg había mencionado cómo Dirac había conseguido revisar el trabajo de Heisenberg de 1925. Dirac descubre que lo importante, el quid de las ideas de Heisenberg, estaba en la no conmutatividad de los cálculos de Heisenberg. Dirac intuye la existencia de una profunda analogía formal entre esas cantidades de la mecánica cuántica y la mecánica clásica. Según él, las ecuaciones deberían ser las mismas, cambiando los clásicos posiciones y velocidades por las matrices de Heisenberg. Este había encontrado expresiones (llamadas conmutadores) donde AB - BA no era cero. Heisenberg no se había dado cuenta, pero estaba empleando expresiones que eran idénticas a la multiplicación de matrices, elementos matemáticos no bien conocidos por los físicos de entonces. Encuentro hoy un texto de Dirac, refiriéndose a la época alrededor de agosto de 1925 (debe referirse a cuando estaba haciendo investigación teórica en el St John's College de Cambridge):
Es un texto del "Proceedings of the International School of Physics 'Enrico Fermi', vol. 57", citado pro Emilio Segré en "De los rayos X a los quarks". Yo lo encuentro en el muy bueno "La teoría de los quanta, breve historia de su elaboración", de Ana Elisa Spielberg. Dejo para mi serie sobre física cuántica, o para otro post, describir en detalle a lo que llega Dirac, a sus propios paréntesis de Dirac. Tengo pendiente de lectura sus "Lectures on Quantum Mechanics" donde describe su desarrollo. Algo de ese formulismo es manejado en los cursos y textos de hoy, pero no sabía que había sido desarrollado por Dirac. Pensé que ya estaba en el "paper" original de Heisenberg. Pero no: no se menciona en ese "paper" a la multiplicación de matrices como tal (aparecería en un "paper" de Born y Jordan, de septiembre de 1927; ahí también aparecería por primera vez AB-BA). Dirac trabajó por su cuenta, y publicó sus conclusiones, introduciendo la expresión de Poisson modificada por él, en un "paper" de noviembre de 1925 "The fundamental equations of Quantum Mechanics". Son los "papers" 12, 13, y 14 incluidos en el excelente "Sources of Quantum Mechanics" de B.L.Van Der Waerden, que tengo que revisar. Nos leemos! Angel "Java" Lopez |
Publicado el 17 de Marzo, 2011, 5:47
El martes pasado había comentado un texto de Dirac donde él destacaba la no conmutatividad de los operadores como lo destacable de la mecánica cuántica planteada por Heisenberg en 1925. Es un texto de 1971. Hoy encuentro otro texto suyo, publicado en 1972, pero dado como discurso en 1970, titulado Fields and Quanta:
Más adelante, concluye:
Traté el tema de amplitudes y probabilidades en varios puntos de los posts: Física Cuántica (Parte 1) Primer Ejemplo Ver también Probability amplitude. Sigue Dirac, destacando cómo la probabilidad es lo que aparece en nuestros experimentos, y la amplitud no aparece directamente:
Encuentro este texto citado en el excelente artículo de Chen Ning Yang "Square root of minus one, complex phase and Erwin Schrödinger", en el volumen "Schrödinger, centenary celebration of a polymath" (Sí, es el Yang de las teorías Yang-Mill, y el que descubrió la no conservación de la paridad con Lee). Es uno de los artículos con más deliciosa información (histórica, conceptual) he encontrado; lo estoy consultando para llegar a explicar por qué aparece un número como i (raíz cuadrada de -1) con Schrodinger y sus ecuaciones, como prometí tratar en mi serie sobre física cuántica. En ese artículo Yang menciona a la transformación "gauge" de Weyl, que ya estuve adelantando en hacia el final de un post de mi serie. Es un tema fascinante, como desarrollo histórico y desde la física misma: cómo hay transformaciones que tienen importancia en las teorías que armamos, pero que están (como destaca Dirac arriba) "ocultas" en la naturaleza. Nos leemos! Angel "Java" Lopez |
Publicado el 15 de Marzo, 2011, 11:36
En el post Erwin Schrödinger creando su ecuación, por P.A.M.Dirac presenté un texto de Dirac, sobre la creación de la ecuación de Schrödinger. Hoy quería comentar otro fragmento, del mismo discurso (The Development of Quantum Theory, J.Robert Oppenheimer Memorial Prize acceptance speech, Center for Theoretical Studes, University of Miami, 1971), donde Dirac recuerda a Heisenberg, quien a mediados de 1925 publica su trabajo principal sobre mecánica cuántica (Uber quantentheoretischer Umdeutung kinematischer und mechanischer Beziehungen, en inglés Quantum-Theoretical Re-interpretation of Kinematic and Mechanical Relations). Heisenberg empleaba en su teoría multiplicación de matrices (aunque él mismo no las reconociera como tales entonces; las matrices no eran elementos matemáticos muy conocidos). Eso llevaba a expresar valores físicos, pero donde curiosamente A por B no es lo mismo que B por A (no conmutatividad). Dirac dice:
Interesante. No conocía del temor de Heisenberg. Como en otros casos, el paper a publicar circuló para ser revisado. Prosigue Dirac:
Dirac siempre se dejó guiar más por la belleza de la idea que por cualquier problema, incongruencia que presentara. Vean cómo reconoce (luedo de "una o dos semanas") la importancia de la idea de la no conmutatividad de algunas cantidades (que representan observables físicos). Tengo que ubicar otro texto de Dirac sobre esos tiempos, donde nombra que reconoce en ese temprano trabajo de Heisenberg a los paréntesis de Poisson (a confirmar si se refería al mismo paper). También tengo que buscar qué posición ocupaba Dirac en aquellos tiempos, donde faltaba uno o dos años para que floreciera su genio. ¿Qué había publicado hasta ese momento? ¿En qué había trabajado, para que tuviera oportunidad de leer anticipadamente el paper de Heisenberg? Por lo que sé, estaba desde 1923 en el St John's College, Cambridge, en Gran Bretaña, haciendo investigación teórica. Como mencioné, Heisenberg no se dió cuenta que empleaba multiplicación de matrices en su artículo. Ver Matrix mechanics. Fue luego de ese artículo, en ese mismo año de 1925, que junto con Pascual Jordan y Max Born llegó a esa formulación. El principio de incertidumbre llegaría recién en 1926, ver Heisenberg - Quantum Mechanics, 1925-1927, The Uncertainty Principle. Nos leemos! Angel "Java" Lopez |
Publicado el 13 de Marzo, 2011, 11:04
Vemos cambios en las cosas, sean desde cosas simples, hasta organismos, sociedades y galaxias. Hemos aprendido a conocer mejor esos cambios, que primero se nos aparecían en los sentidos, gracias al a actividad científica. Hoy tenemos modelos de cambios y evolución de galaxias, que nada de los sentidos y capacidades humanas en solitario nos hubiera dado. Aún seguimos investigando, tanto en ciencias naturales como sociales, sobre cómo esos cambios son causados. Averiguar si hay causa y cuál es, es algo que queda a determinar en la actividad científica y en el conocimiento que va produciendo. Pero desde el punto ontológico, de lo que es y sucede en la realidad, podemos mostrar qué es eso de la causa. Hay términos que se refieren a eso, como los términos causación, causalidad. Hay una expresión más fuerte que es el principio de causalidad: todo cambio tiene causa. Veremos que ese principio está en cuestión, como adelanté en mi anterior post: hay cambios originados en el azar, otro tema que tendré que comentar en próximos posts. Hay que discutir si ese azar es fundamental (por ejemplo, el que aparece en la física cuántica, como el ejemplo de "tomar la foto de la moneda cuántica") o es derivado (como el producido por la participación de muchos elementos, como en los movimientos de un gas). Pero no podemos obviar el azar en la discusión de los cambios en la realidad. Pero hoy quiero escribir sobre las causas. Veamos ejemplos. Cuando una bola de billar choca a otra en reposo, cambia su cantidad de movimiento, su dirección y cambia esas propiedades a su compañera. Cuando una ameba encuentra un ámbito hostil, comienza a mover sus pseudópodos para alejarse de ese lugar. Cuando nuestra mano toca algo demasiado caliente, nuestro brazo se retira. Cuando aparece un nuevo producto en el mercado, la gente lo adopta. En varios de esos cambios, veo lo siguiente: una cadena de cambios. La ameba no se mueve porque sí. Primero, tiene sensores que miden el PHP u otra propiedad del ambiente, que provocan una señal que activa tal otra parte de su organismo, y finalmente, luego de una cadena de cambios causales, sus pseudópodos se mueven. Nuestra piel "sensa" el calor excesivo, transmite esa información por nervios, llega a parte de nuestro sistema nervioso, y provoca cambios en nervios que terminan provocando cambios en los músculos que terminan contrayéndose. Y así podría seguir. Entonces, muchos cambios exhiben una cadena de causas. Son procesos que involucran varias cosas, y cambios en sus estados. Decimos que el proceso es causal cuando podemos ver que todos esos cambios no son porque sí, ni provocados por el azar, sino por causa. Entonces, ¿qué es ese elemento final, causa? Bien, adopto esta definición: El evento Y en la cosa B es causado por el evento X en la cosa A (distinta de B) si hay transferencia de energía entre A y B por haber sucedido X. Hay puntos para destacar y comentar. Primero, la existencia de transferencia de energía. Ya comenté la importancia de la energía en la realidad: una propiedad universal de las cosas. Ahora bien, no parece haber relación causal (entre dos eventos) sin transferencia de energía. Busquen, busquen, y no encontrarán. Segundo, me concentro en causas, en relación causal, entre dos cosas distintas. Habrá que investigar qué cambios en las cosas son provocados por causas (nacidas en cambios en otras cosas) y las que son provocadas sin intervención de relación causal. Lo que afirma esta corriente de realismo que expongo: casi todos los cambios son causados (evento en B viene de evento en A, con transferencia de energía). El principio de causalidad le sacaría el "casi". Pero por lo que conocemos, ese "casi todo" abarca una abrumadora mayoría de cambios. Tercero: la transferencia de energía inicial de un proceso causal no tienen que ser proporcional al resultado. Con solo apretar un botón, podemos lanzar una batería de misiles intercontinentales y destruir un país enemigo. Por lo que sabemos, no se pierde energía: si bien la energía inicial puede ser minúscula, en otros pasos del proceso causal la transferencia de energía puede ir aumentando. Pero no se crea ni destruye energía (de nuevo, una afirmación a corroborar con la actividad científica: nuestras capacidades humanas en solitario, sentidos, intuición, no puede llegar a una afirmación así con corroboración; por ejemplo, no tenemos sentidos para "medir energía"). Lo que pasa en el caso del misil, es que en un paso de la cadena causal nos encontramos con un sistema, cosas, que están en un estado de "touch and go": el combustible químico está en un estado que necesita de un simple "trigger", disparador, una chispa, para liberar su energía interna en reacciones químicas. Este tipo de procesos, donde la energía transferida inicial es sumamente diferente del resto de las transferencias, pone en el tapete otro punto: el resultado final puede variar mucho, dependiendo de mínimas condiciones iniciales. Es el ejemplo imaginario de "el vuelo de una mariposa en un lugar del mundo termina provocando una tormenta en otro punto alejado". Es un ejemplo que nació para ejemplificar el descubrimiento de algo que llamamos caos. Justamente, hoy en procesos dinámicos, se dice que algo es caótico si ante un cambio mínimo en las condiciones iniciales hay un gran cambio en los resultados finales. Pero eso sería tema para otro posts. Por ahora, queda presentado el tema de causa, causación. Queda reducido el alcance del principio de causalidad. Tengo que escribir sobre algunos ejemplos de causas, algunos ejemplos de modelos de causalidad equivocados y cómo luego llegamos a modelos más correctos. Y luego, pasar a un tema también grande: el azar y su papel en la realidad. Algunos enlaces para estudiar: http://en.wikipedia.org/wiki/Causality Como tantas otras veces, mi fuente principal fue el beato Bunge, esta vez dos libros, el segundo un clásico del tema: A la caza de la realidad, La controversia sobre el realismo. Mario Bunge. Como aperitivo y ejemplo de cadena de causas impresionante, les dejo un video sobre una Máquina Rube Goldberg:
Y les recuerdo un post que escribí hace un tiempo, sobre cuál es "the ultimate Rube Goldberg Machine". Más videos de Rube Goldberg Machine: http://comicon.com/pulse/index.php/2010/03/08/five-great-rube-goldberg-youtube-videos/ Nos leemos! Angel "Java" Lopez |
Publicado el 12 de Marzo, 2011, 6:30
Ya saben que me interesa la ciencia, su filosofía e historia. Desde hace unos meses, estoy revisando mis libros y apuntes, gracias a mi reconsolidación de libros. Uno de los temas que he visitado, cada vez con más detalle, es el del desarrollo de la física cuántica (ver Hacia la Física Cuántica: Notas de su Historia ). Hay varios periodos en ese desarrollo. Están los años de la creación de la mecánica cuántica en dos formulismos equivalentes, el de Heisenberg y el de Schrödinger, en la década de los veinte del siglo pasado. Estoy escribiendo una serie de posts sobre física cuántica en general, y en algún momento, llegaré a tratar esos resultados. La aproximación de Schrödinger se basa en ecuaciones creadas a fines de 1925, principios de 1926 (publicadas a principios de 1926). Pero parece que Schrödinger venía trabajando desde hacía un tiempo en esa formulación (Heisenberg ya había publicado sus ideas en 1925; bastante distintas en formulación aparente, pero equivalente a la de Schrödinger, como luego mostró Dirac). Hoy encuentro el texto de una conferencia de P.A.M.Dirac (The Development of Quantum Theory, J.Robert Oppenheimer Memorial Prize acceptance speech, Center for Theoretical Studes, University of
Interesante. Vean cómo Schrödinger se dedica a tratar de extender lo conocido en formulismo para explicar fenómenos atómicos: algo que alimentó el desarrollo de la física cuántica por años. Es en el ámbito atómico donde se encontraron más desviaciones de los conceptos clásicos. Y se basó en la hipótesis de De Broglie, hasta ese momento (1925/26, supongo) sin confirmación experimental.
Noten cómo Dirac pondera la belleza de la ecuación. Tiempo después, él mismo produciría una bella ecuación que extendería el desarrollo de Schrödinger al ámbito relativista. Ambos compartirían años después el premio Nobel. Pero la belleza de una ecuación no basta:
No conocía eso de abandonar el tema "por unos meses". Creía que la deducción de Schrödinger había sido un trabajo relativamente directo. Como mencioné, fue Dirac el encargado de extender luego el resultado de Schrödinger al ambiente de la relatividad. Al final, Schrödinger se convenció de su formulismo. Cuenta la leyenda que eso ocurrió en una escapada amorosa del invierno 1925/1926. Schrödinger estaba casado, pero se fue con una "amiguita" a algun lugar de los Alpes. No se sabe el nombre de la "amiguita", pero tal vez a ella le debemos parte del trabajo final de Schrödinger ;-) Schrödinger, al parecer, fue bastante mujeriego, pero mantuvo una buena relación con su esposa por años (debería conseguir la fuente de esto que estoy recordando). Encuentro el texto mencionado en un muy interesante libro: "Fundamental forces of nature; The story of Gauge Fields", de Kerson Huang. Post relacionado: Dirac y Feynman, por Abdul Salam donde comenté sobre la ecuación de Dirac Nos leemos! Angel "Java" Lopez |
Publicado el 10 de Marzo, 2011, 10:18
Después de tanto realismo (y realismo científico) llegó la hora de un poco de epistemología, de la mano de Les Luthiers:
;-) ;-) (hay que revisar el subtitulado, debe ser "tomista" en vez de "tobista" ;-) Post relacionado: Nos leemos! Angel "Java" Lopez |
Publicado el 9 de Marzo, 2011, 5:30
Hace una semana escribí un bosquejo de la historia de la física cuántica. Ver: Hacia la Física Cuántica: Notas de su Historia Ahí nombraba al pasar la electrodinámica cuántica. Hoy encuentro este texto de Freeman Dyson, sobre el trabajo temprano de Richard Feynman en ese campo. Muy interesante, porque describe la actitud de Feynman ante el estudio de la física:
El esfuerzo de Feynman luego se reflejó en sus claras explicaciones, como pueden leer en sus famosas Lectures.
Dyson se refiere al trabajo de Feynman sobre electrodinámica cuántica, que llevaron a sus Diagramas de Feynman (ver una descripción elemental en Diagramas de Feynman). Tengo que escribir cómo el trabajo de tesis de Feynman (1942) y un paper seminal post guerra (1948) llevaron a lo que se llama el Integral Path, la nueva formulación de Feynman de la física cuántica, que introduce el uso de lagrangianos, integrales funcionales, múltiples caminos para el cálculo de la evolución de un sistema físico (antes de esto, sólo había la formulación matricial de Heisenberg o de ondas de Schrodinger). Texto del libro de Dyson, "Disturbing the Universe". Citado en "Handbook of Feynman Integrals", de C.Grosche y F.Steiner. Nos leemos! Angel "Java" Lopez |
Publicado el 7 de Marzo, 2011, 11:55
Primer Post de la Serie Estuvimos visitando en los anteriores posts el ejemplo imaginario de una moneda cuántica. Tiene dos estados observables: cara o ceca. Es decir, cuando sacamos una foto (una medida) siempre la encontramos en cara o en ceca, nunca en otro estado. Pero vimos que el estado de la moneda es más complejo que eso: es una combinación lineal de los estados de base. Tratamos también a los estados como vectores, ya sean los estados/vectores de base como los estados/vectores combinaciones lineales de ellos. Pero no tratamos otros aspectos, como: ¿dónde está la moneda? Esto introduciría otro estado: la posición. Para ir acercándonos a este tipo de estado, hoy quiero presentar otro ejemplo imaginario: la pelotita cuántica. En nuestro experimento mental, tenemos una pelotita, y cuando la observamos, tomamos medida o sacamos foto, la encontramos en uno de los dos estados. O en la posición 1 (izquierda): O en la posición 2 (derecha): Pero su estado se describe, como nuestra moneda, como la combinación de dos estados de base: Donde e1 es el estado de base "está en 1", y e2 es el estado de base "está en 2". Ya sabemos que esos coeficientes, llamados amplitudes son números complejos, y que se cumple: El cuadrado del valor absoluto de cada amplitud da la probabilidad de encontrar la pelotita en 1 o en 2. Quiero intentar representar estos números complejos con colores. Es decir, para cada orientación en el plano complejo, quiero elegir un color, cubriendo la gama: Tomo tres colores básicos azul, rojo y verde, en ángulos de 120 grados. El azul son reales positivos, la mezcla por igual de rojo y verde es real negativo, y así. Y con la altura de una barra quiero representar el módulo (longitud) del número complejo. Queda entonces que un vector de estado de la pelotita, lo puedo representar como: Pero también podemos tener más posiciones: O todavía más: Podemos escribir el vector de estado como la suma de varios vectores de base: Para que esas amplitudes ci sigan dando amplitudes, se debe seguir cumpliendo: Tenemos que estudiar qué pasa si hay infinitas posiciones, o mejor aún: cuando las posibles posiciones toman valores continuos, reales, en vez de 1,2,3…. N. Vamos a ver que surgen cosas interesantes, y no triviales. Vean que podemos cambiar todos los colores (ángulos de las amplitudes en el plano complejo) y el vector de estado sigue representando LA misma situación física. Vean que las amplitudes no varían "abruptamente" de posición n a n+1. Hay una cierta parsimonia en esa distribución. Si la pelotita tuviera más probabilidades de aparecer en la segunda casilla, podríamos tener un vector de estado como: Y si al cabo de un tiempo, la pelotita tuviera más probabilidades de aparecer cerca de la cuarta casilla, tendríamos algo como: Podemos decir, en el ámbito clásico: la pelotita se movió de 2 a 4. Pero vamos a ir aprendiendo que el concepto de posición y trayectoria clásica se difumina en el ámbito cuántico. Si extrapoláramos al caso continuo, las amplitudes deberían tender a 0 en los extremos infinitos, para que la sumatoria de más arriba siga dando 1. Nos leemos! Angel "Java" Lopez |
Publicado el 6 de Marzo, 2011, 11:38
Habitualmente, los domingos publico un post de mis serie ¿Qué es la realidad? excepto cuando estoy ocupado o de viaje. Hoy quiero escribir este post, fuera de la serie, para plantear la importancia del tema. Uno podría decir: todo esto de la realidad y el realismo es una discusión bizantina, algo que no tiene interés nada más que para la filosofía y la gente interesada en tan abtrusos temas, tan alejados del día a día. Pero tengo que disentir. Veamos por qué. El realismo afirma: hay una realidad. Esta afirmación no es demostrable, pero todo nos lleva a eso. Pero hay gente que afirma cosas y luego dice: "esta es la realidad". Y cuando otra persona afirma cosas distintas, llega a decir: "esa es TU realidad, y es tan válida como la mía". Es un caso de lo que ya varias veces escribí: un caso de "la realidad es como yo la veo". Debe haber varias causas para esta actitud: en parte, por la historia de la modernidad, donde el individuo se atreve a tener sus propios pensamientos, en lugar de seguir una verdad revelada. Pero es ir demasiado lejos, es "too much". El realismo se opone a esas afirmaciones. Hay UNA realidad. Luego, cada uno tendrá imágenres, representaciones, modelos, parciales, imperfectos, mejorables. Pero hay UNA realidad. Los puntos de vista no tienen realidad en sí mismos: cualquier verdad que tengan se basa en la contrastación "con lo que es caso", diría Aristóteles. Si alguien afirma "la Tierra es plana", y otro dice "la Tierra es un cubo", no son DOS realidades. Son dos modelos que habrá que ver cómo casan con la realidad. Bien, uno podría decir: ok, pero ¿qué importancia tiene que uno piense que la Tierra es plana y otro piense distinto? ¿no es importante la libertad de pensamiento, la diversidad? Bien, pues sí. Pero resulta que hay otro factor, que frecuentemente se olvida. Si la persona A afirma X, y la persona B afirma Y (distinto de X), esa diferencia bien podría no tener consecuencias. Pero hay algo más. Y ese algo más es: vivimos en una sociedad, ud., yo, A y B. Ese es el punto. Si alguien afirma "tenemos alma inmortal" y otro afirma "no tenemos alma inmortal", esa diferencia puede no sólo tener importancia para la vida y decisiones de esas personas: influye en las decisiones, leyes (piensen en la pena de muerte), actitudes y acciones que tengamos en la sociedad en la que estamos. Si fuéramos habitantes del planeta Aurora (en una novela de Isaac Asimov) donde había una decena de personas habitando todo el planeta, y cada cual vivía en su feudo, casa, campo, con todo servido por sus propios robots, entonces cada cual podría vivir su vida. Pero vivimos en una sociedad donde estamos todos: los que afirman X, los que afirman Y y así. Estamos juntos, no somos cada uno un Robison Crusoe. Tal vez el ejemplo de "alma inmortal" toca demasiadas cuerdas internas de cada uno. Podría tomar algún otro ejemplo. Pero me sirve igual para explicar el punto. Si nos quedamos en "yo tengo MI realidad, y vos tenes TU realidad", no podemos avanzar en ver qué es realmente el caso. Una postura no realista deja la puerta abierta a la relatividad, no ya en los valores, sino en los puntos de vistas, modelos y demás, que tengamos para manejarnos en esta vida. No hay gacelas que "digan": "ahí hay un león", y otra diga: "no hay león", y las dos digan: "ah, bueno, esa e TU realidad, y ésta es MI realidad". No es así como están dadas las cosas. Y no veo futuro para una sociedad de gacelas así. Vivimos embebidos en una realidad, y tenemos que ir haciéndonos cargo. No rechazo el antirrealismo por sus consecuencias. Simplemente lo rechazo porque el realismo es abrumadoramente plausible, es la solución más simple y recubridora de todo lo que conocemos, y así. Podría aceptar el realismo por sus consecuencias de progreso científico, pero tampoco es mi principal argumento, apenas un argumento secundario. Uno no tiene que aceptar X por sus buenas consecuencias, o porque No-X, su negación, tenga malas consecuencias. Y menos aceptar X porque casa con nuestra forma de ver las cosas. No es así como hay que buscar la verdad. En todo caso, es la forma de buscar lo útil, pero no la verdad. Acepto el realismo, porque es lo que más explica lo "que es el caso". Acepto sí una inclinación mía: adopto el realismo, también, porque es la actitud que nos sirve para alejarnos de esa tan humana inclinación, tan profundamente enraizada, de "yo soy especial", "los seres humanos somos especiales", "somos algo que destaca en todo el Universo", y demás. El realismo nos pone en la perspectiva correcta: nosotros no somos los "creadores de la realidad", sólo unos humildes habitantes, como tantos otros. Y como seres humanos en sociedad, en una historia que estamos armando, es importante ponernos de acuerdo en cosas básicas. El realismo es una de ellas. Me es incómodo y hasta diría, difícil, convivir en sociedad con gente que afirma "la realidad es como yo la veo". Es prácticamente imposible avanzar en esto que es la historia humana, si pensamos así. Avanzaríamos simplemente por el paso del tiempo. El realismo nos permite interrogar a la realidad, compulsar nuestros "puntos de vista" con la realidad, con ese frontón que nos devuelve las pelotas que le lanzamos. Abrazar el realismo permite que, entre todos, tengamos un fondo de compulsa y acuerdo. Y ahora, voy a recargar las tintas. Este ejemplo es exagerado, toca más allá de la realidad, llegando a los valores humanos, pero me sirve para ilustrar el punto. Si aceptamos "la realidad es como yo la veo", entonces podemos justificar al actitud de gente, que en otra sociedad, apedrea hasta la muerte a una mujer adúltera. Ellos "tiene su propia realidad", donde una mujer ahí es distinto de una mujer acá. Es decir, el relativismo en la realidad, nos lleva al relativismo en los valores. Si apelo a este argumento, es sólo para pintar un aguafuerte, para llamar la atención. En el fondo, éste es un argumento del tipo "acepten X, porque sino, tienen malas consecuencias", y entonces, no es un argumento fuerte. Pero puede ser útil para llamar la atención. Es por todo esto que el realismo es importante. No se puede ir afirmando X y NoX como pancho por su casa. Por que no es nuestra casa: la realidad se impone a los puntos de vista. Y es importante tomar conciencia, tener "awareness" de todo esto. Es por eso que escribo sobre realismo: para que quede clarito como huevo de tero su importancia. Y que es una postura y no una simple opinión mía. Espero que algo haya aclarado. Nos leemos! Angel "Java" Lopez |
Publicado el 5 de Marzo, 2011, 14:20
Los que me conocen mis hábitos, saben que me gustan los desayunos largos acompañados de lecturas, pensar y escribir. Hoy fui a desayunar cerca de mi cubil principal. Enfrascado en la lectura, preparando algún tema para posts, no pude evitar escuchar a alguien que conversaba con otra persona, en una mesa vecina, diciendo cosas como: "... no podes estar en San Bernardo, todo lleno de gente... no es como hace años ..." San Bernardo es una ciudad a la orilla del Atlántico, acá en mi pais, Argentina. Es una ciudad muy visitada en verano, que por estos lares es la época de vacaciones. Hasta acá, lo más normal, pero luego escucho al tiempo: "... en cambio, después fui a X (no llegué a escuchar si era Cariló o qué lugar)... ahí sí, toda gente buena, matrimonios, nenes chiquitos, rubiecitos, como tiene que ser ... " No lo podía creer. Dijo más barbaridades, pero ya fue bastante para escuchar. Bueno, hoy me tocó desayunar al lado de Mickey Vainilla! ;-) Para los que no lo conocen, acá van los videos de este personaje de Peter Capusutto. Primero, un clásico:
Ver minuto 1:40 "Mamá, vos que querés lo mejor para tus hijos.. ". Es muy común que las publicidades de yogurth y otras se centren en esa idea a transmitir: "si tus hijos no toman Z, no van a crecer y ser fuertes"... Claro que no llegan a decir tanto como Mickey Vainilla ;-) pero hay una idea así flotando. Y todos los nenes que aparecen en las propagandas son, digamos, "rubiecitos" (raro alguien "no blanco" en una propaganda por estos lares). El de alambrar el "country" (barrio privado):
"no preocuparse, después de las 7 se vuelven a sus casas en el conurbano" :-) Vean la maratón Teresito (ver minuto 3:17) "morochos y asiáticos serán desviados en Florencio Varela":
Ver ahí minuto 4:20 ".. podríamos brillar, por toda la ciudad, pero está lleno de mendigos... chicos que venden estampitas... " Y uno del año pasado, indispensable para distinguir a un "cabecita negra" de alguien bien, recién tostado volviendo de Pinamar (ver minuto 4:20), con el Evo Test! "Para distinguir si con alguien podés cenar o te tiene que limpiar la mesa":
Ver en 0:33 cómo evitar dar una moneda. Y luego sigue un argumento que haría palidecer a un Malthus revivido. "... los pobres están organizados en una gran corporación ... ". No encontré el video donde Mickey Vainilla dice: "Mamá: vos que llevás a tus hijos a disfrutar de la plaza, con otros chicos de otros colores, ¿no te da un poco de miedito?". Lo bueno de Capusotto es cómo llama la atención a través del humor, de un tema de esta sociedad, que sino fuera por eso, se "barre debajo de la alfombra". Espero igual qu Recuerdo un dibujo de una página del genial Quino, hace décadas, en la revista de Clarín del domingo: un dibujo que mostraba el centro de Buenos Aires, una peatonal, con mucha gente, edificios y carteles. Y nada más. Tarde un poco en entender el chiste: todos los que caminaban, con pelo negro. Todos los personajes en los carteles de publicidad, con pelo blanco ... ;-) Y esta división, en mi pais Argentina, sigue estando, flotando, flotando... Hay más Mickey Vainilla? Y en otros paises? Nos leemos! Angel "Java" Lopez |
Publicado el 4 de Marzo, 2011, 10:17
El miércoles pasado comentaba el prefacio de Kant a la segunda edición (1787) de su "Crítica de la Razón Pura", el fragmento donde Kant menciona a las matemáticas. Inmediatamente despues trata a la física:
Acá viene una enumeración interesante:
Hoy pondríamos a los resultados de Stahl dentro de la química. Sigue Kant:
Me hace ruido tanto "razón produce". Es algo más complejo que eso. Es un tema a discutir: cómo es la actividad científica.
Destaca Kant al experimento. Es cierto que el experimento se arma, se orienta según algunos presupuestos del experimentador. Pero cuando el experimento no da resultados esperados o útiles, los modelos pueden cambiar. También es cierto que de esta forma "la razón ... [es] instruida por la naturaleza". No partimos solo de la razón. Hay un diálogo con la naturaleza.
Kant se sigue apresurando con "la razón ... ha puesto " algo en la naturaleza. Es parte fundamental de lo que quiere darnos en este libro. Pero es un tema a discutir, y bastante.
Ya en tiempos de Kant se reconoció esto: hubo un cambio que hizo avanzar a la física más de lo que los antiguos griegos y otros pueblos habían logrado. Llama la atención que las matemáticas como las conocemos nacieran casi dos mil años antes de este salto en física. Los griegos tenían renuencia al experimento, pero aceptaban la experiencia. Pero tampoco llegaron a poner su gema, las matemáticas, en uso en el ambiente físico (excepto en dos temas: la estática, supongo que con Arquímedes, y los cielos, que consideraban tan alejados de la experiencia común). Escribí algo en Experiencia y experimento. Luego, con el avance de la ciencia, física y matemáticas se fueron alimentando mutuamente, como en el análisis y la dinámica; colaboración mutua que aún hoy prosigue en la teoría de cuerdas, por ejemplo. Temas pendientes: La estructura de "La crítica de la razón pura" Nos leemos! Angel "Java" Lopez |
Publicado el 2 de Marzo, 2011, 11:03
Siempre tenía en mente comentar este fragmento de Kant, parte de su prólogo a la segunda edición (1787) de su "Crítica de la Razón Pura". Leo ahí:
Tengo que comentar qué escribe Kant sobre la lógica, y luego sobre la física, en otros posts.
Interesante la mención a los egipcios. Debo tener un texto de Herodoto o de Proclo mencionando el nacimiento de la geometría en Egipto. Pero hoy sabemos que las matemáticas eran manejadas (a veces notablemente) por otros pueblos, como los sumerios (ver Sumerian Mathematics) y en Babilonia (ver Babylonian Mathematics).
Ese es un punto de la historia de las matemáticas, del que no estamos seguros. ¿Manejaba alguien antes de los griegos demostraciones como hoy las entendemos? ¿O las matemáticas discurrían como una especie de reglas, trucos y formas de resolver problemas? Kant menciona a Diógenes Laercio. Creo que se refiere a su "Vida de los filósofos", y en particular, a Tales, ver Life of Thales, también encuentro ahí a Life of Euclides.
Es todo un tema tratar sobre qué es "a priori" para Kant. Leo que menciona "por construcción". Entiendo que, en este caso, una demostración "a priori" sobre los triángulos no está limitada a un triángulo en particular, sino que es válida para todos los triángulos. Entonces, no es "a priori" como "anterior a la experiencia", sino como "independiente de una experiencia particular". Leo en A priori and a posteriori:
El punto a entender es lo de "all possible experiencie", que traduzco en mi ejemplo a "todos los posibles triángulos". No se niega la experiencia, se evade la experiencia particular. "Possible experiencie" está siempre presenta en lo que escribe Kant: un tema a estudiar. No vi evidencia de un tema: el manejo de Kant de la matemática de su tiempo. Al parecer, no llegó a dominar el álgebra o el análisis. No sé si pudo entender los Principia Mathematica de Newton, entonces. Kant, interesado en la ciencia natural (ver Kant y las galaxias) ya es un hombre que no maneja todo el conocimiento de su tiempo, como podría ser Aristóteles. Temas pendientes: - El origen de la Geometría Post Relacionados Nos leemos! Angel "Java" Lopez |