Angel "Java" Lopez en Blog

Marzo del 2011


Publicado el 30 de Marzo, 2011, 11:48

Ya comenté a Newton en otros posts, por ejemplo:

Los Principia de Newton
Newton explicando la gravedad
Lugar y Movimiento Absoluto en Newton
Espacio y Tiempo en Newton
Primer contacto con el binomio de Newton

Hoy quiero comentar brevemente, como introducción a temas de mecánica clásica, las tres leyes del movimiento que Newton plantea en sus Principia. Este es el texto publicado (cada ley tiene su enunciado original y el comentario de Newton):

LAW I.
Every body perseveres in its state of rest, or of uniform motion in a right line, unless it is compelled to change that state by forces impressed thereon.

PROJECTILES persevere in their motions, so far as they are not retarded by the resistance of the air, or impelled downwards by the force of gravity A top, whose parts by their cohesion are perpetually drawn aside from rectilinear motions, does not cease its rotation, otherwise than as it is retarded by the air. The greater bodies of the planets and comets, meeting with less resistance in more free spaces, preserve their motions both progressive and circular for a much longer time.

Esta ley es un punto que se les "escapó" a los antiguos, como Aristóteles, pero que tiene sus precedentes en la edad media (tengo revisar mis fuentes), en Galileo y en Descartes (tengo que comentar las ideas de este último expuestas en su "Tratado del Mundo"). Lo que Newton expone en esta ley es que la velocidad sin cambio ("uniform motion") es una propiedad que se mantiene sin necesidad de ayuda, cosa que hubiera asombrado a Aristóteles, que hubiera afirmado que una flecha necesita de algo que la empuje en el medio del aire para que siga avanzando. El reconocimiento de esta ley (que no es evidente, AHORA nos parece evidente) fue un arduo camino que mereció recorrerse. Vean cómo Newton menciona a planetas y cometas. Junto con Galileo, Newton va ha realizar la primera gran unificación de la historia de la física: la de las cosas "terrenales" y "celestiales". Desde entonces, serán lo mismo, sujetas a las mismas leyes. 

LAW II.
The alteration of motion is ever proportional to the motive force impressed ; and is made in the direction of the right line in. which that force is impressed.

If any force generates a motion, a double force will generate double the motion, a triple force triple the motion, whether that force be impressed altogether and at once, or gradually and successively. And this motion (being always directed the same way with the generating force), if the body moved before, is added to or subducted from the former motion, according as they directly conspire with or are directly contrary to each other ; or obliquely joined, when they are oblique, so as to produce a new motion compounded from the determination of both.

Esta ley se puede tomar como definición de fuerza, o como simple enunciado de los efectos de una fuerza. Las fuerzas cambian la "motion". Y ese cambio es proporcional lineal a la fuerza, como lo expone en el comentario. Considera cambio también a la dirección. Y aclaro que "quantity of motion" para Newton es proporcional a la masa y a la velocidad del sistema (partícula material para muchos casos que trata Newton).

LAW III.
To every action there is always opposed an equal reaction : or the mutual actions of two bodies upon each other are always equal, and directed to contrary parts.

Whatever draws or presses another is as much drawn or pressed by that other. If you press a stone with your finger, the finger is also pressed by the stone. If a horse draws a stone tied to a rope, the horse (if I may so say) will be equally drawn back towards the stone: for the distended rope, by the same endeavour to relax or unbend itself, will draw the horse as much towards the stone, as it does the stone towards the horse, and will obstruct the progress of the one as much as it advances that of the other.

Según Penrose, Newton tiene un escrito anterior donde había colocado cuatro o cinco leyes. Una era la relatividad de Galileo. Luego se dió cuenta que podía reducir la cantidad de leyes y deducir lo mismo. Newton quería imitar a los "antiguos", como Euclides: un exceso de axiomas (el capítulo donde aparecen estas leyes se llama "Axioms, or laws of motions") sería una "mancha" en su sistema. La tercera ley, hoy sabemos, no se cumple en todos los casos. Su formulación es válida en las colisiones, por ejemplo, pero más discutible en los casos donde no hay contacto directo. En esos casos, hoy preferimos el modelo de campos intermedios, que evita la "acción a distancia" que aparece más adelante en Newton con su explicación de la gravedad. Esta tercera ley la coloca Newton para explicar la conservación del momento. Tal vez hubiera sido mejor para Newton poner como ley la conservación del momento, y deducir esta ley.

Temas pendientes:
Presentar las leyes en su forma matemática moderna
Deducir la tercera ley desde la ley de conservación del momento
Simetría y leyes de conservación
Comentar las definiciones que coloca Newton al principio
El concepto de partícula material
Las disputas de Newton y Hooke
Las disputas de Newton y Leibniz
Historia del Cálculo

Principales fuentes consultadas: los propio Principia, en la edición que mencioné en el post citado al principio. Y el "Classical Mechanics" de John Michael Finn, que tiene una buena introducción histórica a estos temas.

Quiero tratar en algunos post sobre el tema de mecánica clásica, porque es un tema que quiero explicar (para terminar de entenderlo), ver su historia (cómo aportó a la matemática, a la mecánica celeste, en especial al cálculo), la aparición de nuevos problemas (como la luz, la cuerda vibrante), las nuevas formulaciones (hamiltonianos, lagrangianos), y cómo todo esto nos pone, al comienzo del siglo XX, de puertas a la relatividad einsteniana y la física cuántica.

Y todo esto, para comenzar a entender ¿Qué hace el Universo? ;-) ;-)

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 29 de Marzo, 2011, 11:46

Ya comenté algo sobre mis primeras lecturas de Juvenilia, de Miguel Cané, en:

Recordando a Amadeo Jacques

En la introducción de ese libro, leído en mi infancia, encontré una referencia a un tema que me intrigó:

¡Cuánta matemática, cuánta químìca y filosofía inútiles! No hace mucho tiempo, al entrar en una oficina secundaria de la administración nacional, vi a un humilde escribiente cuyo cabello empezaba a encanecer, gravemente ocupado en trazar rayas equidistantes en un pliego de papel. Como tuve que esperar, pude observarle. Cada vez que concluía una línea dejaba la regla a un lado, sujetándola para que no rodara, con un pan de goma; levantaba la pluma, e inclinando la cabeza como el pintor que después de un golpe de pincel se aleja para ver el efecto, sonreía con satisfacción. Luego, como fascinado por el paralelismo de sus rayas, tomaba de nuevo la regla, la pasaba por la manga de una levita raída, cuyo tejido osteológico recibía con agrado ese apunte de negrura, la colocaba sobre el papel y con una presión de mano, serena e igual, trazaba una nueva paralela con idéntico éxito. Ese hombre, allá en los años de colegio, me había un día asombrado por la precisión de claridad con que expuso, tiza en mano, el binomio de Newton. Había repetido tantas veces su explicación a los compañeros más débiles en matemáticas que al fin perdió su nombre para no responder sino al apodo de "Binomio".

Ese era el estilo de Cané: claro, detallado, humano. Me llama la atención hoy lo de: "¡Cuánta matemática, cuánta químìca y filosofía inútiles!". Pueden leer el texto completo del libro en línea, este fragmento está en la introducción. (Nota curiosa: llegado a la adolescencia, recuerdo haber sacado una mala nota, porque a la profesora Serodino no le gustó que en mi crítica a este autor, lo llamará "Cané", con mucha familiaridad ;-)

Me llamó la atención ese fragmento. ¿Qué era el binomio de Newton? Yo conocía a Newton, seguramente de libros como el que mencioné en Mi primer contacto con Buffon. Pero no tenía libros de matemáticas. Tal vez por eso me llamó más la atención qué era un binomio.

Pueden leer sobre el binomio de Newton en: Binomial theorem. Ahí está un dato que conocí bastantes años después: Newton no fue el primero en plantear el desarrollo del binomio, sino que fue el primero en extenderlo a exponentes no naturales. Mis dudas sobre el binomio, habrán durado uno o dos años: al tiempo conseguí un libro de matemáticas, que iba bastante más allá de lo que aprendía en el colegio. Lo consideraría mi primer contacto con las matemáticas. Y en la tapa tenía la foto (para mí fascinante) de un pizarrón con varias fórmulas, una era el desarrollo de binomio. Pero ese libro ya merece ser tema de otro post ;-).

Aprovecho este post para contestar un comentario de @Bilinkis en el post sobre Amadeo Jacques:

Qué lindo recuerdo Juvenilia, Angel!

Me queda picando una duda... Más allá de que está buenísimo, qué te llevó a leerlo tantas veces hace años?

Mi recuerdo más lindo es el capítulo donde narra su ida en las vacaciones hasta la "Chacarita de los Colegiales" (hoy los barrios de Chacarita y Colegiales) como si fuera una travesía hasta el corazón del Amazonas.

Yo iba todas las mañanas hasta el Colegio desde más lejos!!! :)

Estuve tratando de recordar cómo llegó ese libro a mi casa. Me lo compraron para mí, no estaba "de antes". Supongo que habrá venido en una serie de libros, donde estaba Corazón (de Edmundo De Amicis), El abuelo inmortal (de Arturo Capdevila) y otros. Pero no estoy seguro. En estos días, Juvenilia aparece de nuevo en los kioskos de Argentina, en la colección Robin Hood. Me gustó del libro que el autor leyera libros, me sentí identificado en ese punto.

Y yo también, como Bilinkis, me acuerdo del tema "Chacarita de los Colegiales". Mi madre siempre recordaba la escena, de la película "Juvenilia", con un jovencísimo Gogó Andreu corriendo con una sandía ;-) (creo haber visto esa escena alguna vez, en una reposición en televisión de esa antigua película, de 1943). Enlaces sobre la película:

Juvenilia (Película)
Los sesenta años de la película "Juvenilia"
Cine nacional - Juvenilia

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Publicado el 27 de Marzo, 2011, 0:36

En los últimos posts de esta serie sobre ¿Qué es la realidad? :

Cambios, causas y azar
Causas
Un ejemplo de causalidad en economía

quedó planteado que los cambios en las cosas se pueden producir por causas, o por azar. Traté en algún detalle el tema de causas y causalidad. Llega el turno de presentar el papel del azar en la realidad.

Primero, recuerdo algo que escribí en esta serie:

... puede pasar, es que el azar aparezca en un nivel, y tenga una explicación causal en un nivel inferior. Por ejemplo, podría explicarse el ruido de un canal, como un azar derivado de algún proceso a nivel atómico que tenga causas, y entonces sea un azar no fundamental sino derivado. Con lo que sabemos, el azar que aparece en nuestros modelos del nivel cuántico parece fundamental, no derivado. Pero es una cuestión del ámbito de la ciencia.

Es decir, puede que todo azar sea derivado y no fundamental. Lo que se yergue para no llegar a esa conclusión es lo que conocemos hasta ahora del nivel cuántico (pueden leer algo sobre el tema, en la serie de post que he iniciado sobre física cuántica). Es tal vez el único nivel de la realidad donde lo que pasa, los cambios, no tienen una explicación por proceso, mecanismos, sino que es "así", como si hubiéramos llegado al final, al lugar donde se dibujan las reglas del juego de la realidad, sin mayor explicación desde un nivel debajo. Pasando a la ciencia, esa forma de la cuántica, basada en probabilidades y azar, es lo que puso inquieto a Einstein: él siempre buscó una ciencia explicativa, más que descriptiva. Es en la cuántica donde tenemos que contentarnos con "X pasa", con la explicación "porque la realidad es así". En otros niveles, podemos explicar "leyes" como la de los gases en base a la teoría molecular, o "ley de valencia" en base a la estructura atómica.

Por ahora, en este post, enumeremos los tipos de azar que encontramos en la realidad.

Uno es el azar que aparece cuando dos cosas, en sus líneas de vida, se cruzan, sin anterior relación causal. Ejemplo clásico: dos personas que nunca se vieron ni se trataron, se cruzan en un paseo, al coincidir en el mismo bar. Lo mismo que dos personas, puede pasar con dos moléculas en la atmósfera. La línea de vida de cada cosa puede ser consecuencia de causas, pero encontrarse con otras cosas bien puede ser parte del azar. Es decir: su trayectoria puede estar determinada por causas y procesos, pero su coincidencia es azarosa. No hubo causa en su coincidencia. Tendría que revisar la Física de Aristóteles (el jueves pasado comenté un fragmento en ... pero no involucraba el azar), donde parece estar tratado este tipo de azar.

Podemos encontrarlo también, como oportunidad única e irrepetible, en la evolución biológica. Desde la caída de un meteorito en el Cretácico, hasta las exaptaciones de Stephen Jay Gould (un órgano preparado para una función resulta apropiado para otras), son casos de este tipo de azar. Un tema fascinante para explorar.

Lamentablemente, el azar por coincidencia ha sido tomado por el pensamiento mágico, que lo explica por conexiones impenetrables al análisis: es decir, hay causas, pero no somos capaces de descubrirlas. Semejante actitud la encontramos desde la "sincronicidad" de Jung hasta en la New Age. Apenas cabe agregar que semejante "explicación" no ha sido corroborada ni ha aportado un solo centímetro de avance en el conocimiento humano.

La segunda clase de azar a presentar es el desorden: lo encontramos al batir, revolver, agitar, calentar, al producir disturbios. Este tipo de azar es el que trata la mecánica estadística o la estadística notarial. Podemos encontrarla en el ruido blanco de las transmisiones, los patrones de las gotas de lluvia, los resultados de los juegos de azar, los seguros de vidas y los errores experimentales. Encontramos sienpre fluctuación estadística. Si lo piensan, las compañías de seguro se basan en este tipo de azar. Pero si se mantuvieran las tablas y tasas de estas compañías, seguirían en el negocio aunque supieran la fecha de fallecimiento de cada uno de sus asegurados (esto lo señaló Poincaré). La idea es: su negocio se basa en una distribución, si esa distribución se cumple, ya sea por azar, o simplemente porque los fallecimientos sigan esa pauta, el negocio sigue. Hasta puede pasar que lo que llamamos azar en un nivel sea resultado de la causalidad en otro nivel, y viceversa.

Alguien podría decir que los juegos de azar no son tales en realidad, porque las monedas, dados y cartas se mueven según las leyes de la mecánica clásica (esto asume que no hay influencias cuánticas en esos procesos). Pero aún así, los resultados son aleatorios: mientras no se detecte una pauta en los resultados de la ruleta, no importa que tengamos un proceso causal por abajo. El resultado es indistinguible del azar fundamental. Un ejemplo de las matemáticas: nadie duda que los dígitos de pi son producto de un proceso (un algoritmo matemático, no proceso real), pero todo análisis realizado hasta ahora ha indicado que siguen una distribución que coincide con una distribución al azar. Sin conocer el proceso de producción de los dígitos, no tenemos ninguna pauta para "acertar" el próximo dígito.

Al principio de la revolución científica, no fue aceptado este tipo de azar. Gracias al trabajo de Cardano, Galileo, Pascar, Descartes, Fermat y el caballero de Mere se comenzaron a descubrir las leyes de azar (una expresión que podría pasar por contradictoria). Más tarde, Daniel Bernoulli comenzó a aplicar las probabilidades a la propia física. Boltzmann llevaría a la cumbre su aplicación, completada luego por Einstein, Fermi y Bose. En ciencias sociales aparecieron las estadísticas, y el estudio de eventos en grandes poblaciones humanas.

Dejo para próximo post el tercer tipo de azar: la fluctuación espontánea.

Fuente consulta, del beato Bunge:

A la caza de la realidad, La controversia sobre el realismo. Mario Bunge. Capítulo 4 "La causalidad y el azar: ¿aparentes o reales? Sección 2: "Azar, tipos"

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Filosofía

Publicado el 26 de Marzo, 2011, 13:22

Primer post de la serie
Anterior post de la serie
Siguiente post de la serie

En el anterior post presenté más formalmente a los espacios vectoriales, que hemos de alguna forma usado en toda la serie. Pero además presenté la notación de Dirac, donde los vectores aparece como elementos entre | y >, como |V>, |W>.

Pero en física, además de vectores, manejamos números, cantidades de observables. Las operaciones que vimos en espacios vectoriales (suma de vectores, multiplicar un escalar (número complejo en nuestro caso) por un vector) siempre nos dan vectores. ¿Cómo aparece una cantidad en este formalismo?
Algo ya apareció cuando vimos en La moneda cuántica una definición de productor interno. Veamos de nuevo el tema, más en detalle. (Pueden leer también Inner product space).

Pero antes, ¿y por qué esa notación de parte de Dirac? ¿por qué no representar simplemente los vectores por letras, sin usar | y >? Veamos la justificación.

En espacios vectoriales, en general (en matemáticas, no solamente en física), se consideran operaciones (funciones) que dado un vector consiguen un escalar:

Se plantea en particular, el estudio de las funciones que son lineales con los vectores:


Se puede mostrar que esas funciones también forman espacio vectorial. Se llama el espacio vectorial dual. Y sus elementos se llaman covectores. Y acá viene algo interesante:  se puede asociar a cada vector:

A una de esas funciones covectores, y Dirac la escribe como:

Es decir, por cada vector original, tenemos una función covector! No es trivial el tema. ¿Pero cómo obtenemos un número? En esta nueva notación tenemos:


De ahí la notación de Dirac! Vean cómo encajan los <W| con los |V> como si encastraran. De ahora en más, cada vez que veamos <W|V> eso no es un vector, es una operación entre covector y vector que produce un número. Se podría definir esa operación de muchas formas. Pero se espera que cumpla con:

Es decir, que la multiplicación de un covector por su vector produzca un número real no negativo. Esto es importante para nuestro interés en la física. En general (no siempre) nos interesan obtener valores reales, no complejos, para nuestras mediciones. En la realidad, aparecen valores reales para los observables.
Todo esto es muy lindo, pero muy formal. No tenemos una forma de entender cómo se obtiene un covector desde el vector, y cómo se calcula el producto interno. Eso se ve mejor si consideramos a un vector como combinación lineal de dos vectores de base, como en nuestro ejemplo de moneda cuántica:

Alguna vez lo representamos gráficamente como un vector columna:

(Nota matemática: si nos pusiéramos más formales, debería poder discutir todo esto sin apelar a una base, y menos a una base finita. Pero acá, en esta serie, me interesa más aplicar estos conceptos como se manejan en física cuántica; dejaré para otra serie, el examinar los espacios vectoriales en forma más abstracta. Recuerdo que la primera vez que me topé con los covectores y espacios duales fue en el excelente Algebra Lineal de Larrotonda, editorial Eudeba, que aún conservo).

Sean los vectores |V> y |W> expresados como combinaciones lineales de una base de dos vectores:


Tomamos como <W| a (vean que tenemos covectores de base, y coeficientes conjugados):

Multiplicamos <W| con |V> y aplicando linealidad:

Uau! Pero acá viene algo más. Si, como hasta ahora, tomamos vectores de base tales que:

Es decir, son vectores de estado (<V|V>=1) y se dicen que son ortogonales <i|j> =0 para i<>j.

Queda simplificado:

Volvamos a la representación gráficamente. Sean los vectores |V>  y |W> en representación vectores columnas:

Pues bien, el covector <W| es un vector fila, obtenido del original |W> pero  con sus coeficientes conjugados (es decir, si c1 = a+ib, su conjugado es a-ib):

Y "definimos" el producto interno de covector  <W| y vector |V> como el producto de los vectores:

Que nos da la expresión de arriba:

Este producto produce para <V|V>:

Si nos fijamos en esta "definición", vemos que tomar el producto interno en sentido inverso da el conjugado del original:

Y acá aparece otra cualidad de la notación de Dirac. Hasta ahora, habíamos manejado coeficientes, amplitudes v1, v2. Se pueden expresar como multiplicación del vector por los covectores base:


Entonces podemos escribir:

Vean que esta vez las amplitudes, coeficientes los he puesto A LA DERECHA de cada vector base |i>
En forma más genérica, podemos expresar un vector por la suma:

Donde i recorre todos los vectores de base. ¿Cómo expresar el covector como suma de covectores base? Así:

Vean que esta vez coloqué las amplitudes A LA IZQUIERDA de los vectores base. Eso permite que esta "pieza" termine hacia la derecha con un <W| (covector) que se puede "enganchar" con un |V> vector. La notación de Dirac termina siendo un juego de encastre! ;-)

Todavía nos dá más. Si revisamos todo lo que sabemos, nos da que la multiplicación de dos vectores se puede expresar como:

Pero como <i,j> = 1 si i=j, =0 si i<>j, simplificamos a:

Dirac diría: hay que considerar el | (barra vertical) como una "abreviatura" de:

Siempre y cuando hayamos elegido vectores de base de estado y ortogonales. Siempre podemos reemplazar la barra vertical por esa expresión sumatoria.

Ahora algo importante. Hay algo más de significado físico. Hasta ahora, no habíamos considerado físicamente números como <W|V>. Habíamos considerado las amplitudes como <1|V> o <2|V> que nos daba la amplitud de encontrar, en una medida, el resultado base 1 o 2 (ceca o cara en nuestro ejemplo de la moneda cuántica). Llegó el momento de crecer, y aprender uno de los postulados que vamos a manejar en física cuántica:

<W|V> es la amplitud de pasar al estado W estando en el estado V.

Hay bastante para discutir sobre eso de "pasar". Pero por ahora basta agregar esa afirmación. Físicamente, esa amplitud <W|V> es una característica de la realidad. Y no importa los vectores de base (ortogonales y de estado, eso sí) que pongamos, <W|V> nos da el mismo número:

Para reafirmar lo dicho:

 Podemos tomar vectores para expresar otros vectores como combinación lineal de los primeros
 Si con esos vectores podemos expresar TODOS los vectores, tenemos una base del espacio vectorial (matemáticamente, habría que agregar que son linealmente independientes, pero por ahora nos basta)
 Hasta ahora hemos elegido vectores de base que además son:
 Vectores  de estado <i|i> =1
 Ortogonales <i|j> = 0  si i<>j

Y nos interesamos por los vectores de estado. Que dan también:

<W|V> es la amplitud (NO la probabilidad) de "pasar" del estado V al W

Bueno, ha sido bastante por hoy. Ya exploramos un poco cómo obtener cantidades a partir de los vectores. Nos faltan algunas otras formas derivadas de estas. Próximos temas: cómo transformar vectores (por ejemplo, en el tiempo); cómo obtener algún valor útil de todo este formulismo.

Ah! ¿y por qué el título Bra y Kets para este post? Pues Dirac, ingenioso, nombró <W| como un Bra, y un |V> es un Ket. Entonces <W|V> es un Bra-Ket, que en inglés "bracket" es la combinación <...>, "poner entre brackets" es algo parecido a "poner entre paréntesis", pero en lugar de () los brackets son los <>. Ver Bra-Ket notation.  Vean también que las amplitudes de los bras van a la izquierda, mientras las amplitudes de los kets van a la derecha. En matemática, los coeficientes van generalmente de un solo lado. Pero Dirac quiso usar esta notación para poder "enganchar" expresión con expresón, como estuvimos viendo.  Noten que multiplicar por un escalar a un Ket, y pasarlo al dual, IMPLICA conjugar ese escalar. Esa es la "otra vuelta de tuerca" a recordar.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 24 de Marzo, 2011, 17:25

Hoy quiero escribir sobre algo que ya comenté en Physis para los griegos, física en Aristóteles, revisitando el tema. Aristóteles escribe cerca del comienzo de su Física (physis para él es, digamos, ciencias de la naturaleza, en contraposición a las matemáticas (aritmética, geometría en su tiempo), y metafísica, por ejemplo):

Las cosas que inicialmente nos son claras y evidentes son más bien confusas; sólo después, cuando las analizamos, llegan a sernos conocidos sus elementos y sus principios. Por ello tenemos que proceder desde las cosas en su conjunto  a sus constituyentes particulares; porque un todo es más cognoscible para la sensación, y la cosa en su  conjunto es de alguna manera un todo, ya que la cosa en su conjunto comprende una multiplicidad de partes. Esto mismo ocurre en cierto modo con los nombres respecto de su definición, pues un nombre significa un todo sin distinción de partes, como por ejemplo «círculo», mientras que su definición lo analiza en sus partes constitutivas. También los niños comienzan llamando «padre» a todos los hombres, y «madre» a todas las mujeres; sólo después distinguen quién es cada cual.

Es curioso que Aristóteles mencione eso de los niños llamando padre a todos los hombres: no parece ser el caso siempre. Pero veamos hacia dónde va el estagirita con este párrafo. No se llega a entender si no recordamos el que lo precede:

Puesto que en toda investigación sobre cosas que tienen principios , causas o elementos, el saber y la ciencia resultan del conocimiento de éstos —ya que sólo creemos conocer una cosa cuando conocemos sus primeras causas y sus primeros  principios, e incluso sus elementos—, es evidente que también en la ciencia de la naturaleza tenemos que intentar determinar en primer lugar cuanto se refiere a los principios .

La vía natural consiste en ir desde lo que es más cognoscible y más claro para nosotros hacia lo que es más claro y más cognoscible por naturaleza ; porque lo cognoscible con respecto a nosotros no es lo mismo que lo cognoscible en sentido absoluto. Por eso tenemos que proceder de esta manera: desde lo que es menos claro por naturaleza, pero más claro para nosotros, a lo que es más claro y cognoscible por naturaleza.

Vean que distingue entre lo "más claro y cognoscible" para nosotros de lo "más claro y cognoscible" por naturaleza. ¿Cómo debo entender esto? Si tuviera que ponerlo en mis palabras, diría: nosotros, como seres humanos, estamos dotados de sentidos, conciencia, imaginación, razón, sentimientos. Vamos por nuestra vida, experimentando nuestro mundo interior y el exterior. Pero lo que nos llega, es sólo lo que yo llamo el ambiente, no la realidad. Estamos preparados, si quieren verlo por evolución biológica, a manejarnos entre los fenómenos, no los hechos últimos de la realidad. Aristóteles distingue, en otros libros, entre lo "que parece el caso" de lo "que es el caso". Una cosa son los fenómenos, y nuestra elaboración de los mismos para producir imágenes, representaciones del mundo, y otra es lo "que es el caso". Por tomar un ejemplo clásico: nosotros "vemos" girar al Sol. Es "claro y evidente". Pero ese fenómeno no es el hecho, no "es lo que es el caso". Es sólo apariencia. Y es apariencia clara y evidente para nosotros, como organismos, seres humanos, porque nada nos llevó a discriminar más fino: como Sherlock Holmes, no nos interesa si el Sol gira, o la Tierra gira, porque no afecta a nuestras actividades y conocimientos necesarios de todos los días. Solamente llegados al tiempo de sentarnos a observar más en detalle, llegados al momento de plantear modelos como los de Aristarco y Ptolomeo, podemos ir preguntándonos si realmente es el Sol el que gira, y los planetas también, para llegar como Copérnico a plantear el geocentrismo, no como una simple forma de mejorar los cálculos, sino como parte de la realidad, como "lo que es el caso".

Escrito esto, volvamos al primer párrafo mencionado:

Las cosas que inicialmente nos son claras y evidentes son más bien confusas

Aristóteles no da un ejemplo de algo claro y evidente que sea a la vez confuso.

sólo después, cuando las analizamos, llegan a sernos conocidos sus elementos y sus principios.

Bien, acá hay más de donde agarrarnos. Aristóteles plantea el análisis, el tener en cuenta que una cosa tiene elementos. Y como plantea antes, "toda investigación sobre cosas que tienen principios , causas o elementos". Gran parte del libro Física se va en justamente descubrir los elementos de la naturaleza, y sus principios. Y tiene puesta gran esperanza en que todo lo que se nos presenta, tiene principios generales. Tal es el caso de las causas, que el estagirista presenta en este libro. Aunque reconoce que hay cambios en multitud de cosas, se ve impelido a buscar causas de esos cambios. Pero no causas para los cambios en los animales, y causas para los cambios en los seres humanos, y causas para los cambios encosas inanimadas. Busca los tipos de causas de todos los cambios.

Prosigue entonces:

Por ello tenemos que proceder desde las cosas en su conjunto a sus constituyentes particulares; porque un todo es más cognoscible para la sensación, y la cosa en su  conjunto es de alguna manera un todo, ya que la cosa en su conjunto comprende una multiplicidad de partes.

Es curioso que plantee esta postura. No da ejemplo de "un todo es más cognoscible para la sensación". Tengo que suponer un ejemplo: cuando, parados en la cima de un monte, miramos al valle, vemos al río, no vemos sus partes, agua por separado, meandros, y demás. Vemos, captamos e imaginamos "río". Cuando vemos lo verde del valle, captamos "bosque", aunque un análisis más detallado nos mostrará que lo que vemos como una cosa, es una cosa compuesta de multitud de árboles, de distintos tipos, de otros vegetales, animales, caminos y demás.

Vean que menciona "sensación". Aristóteles tiene en gran estima a nuestros sentidos. No es tan escéptico a esa información como otros filósofos. Tengo que revisar el libro IV de su Metafísica, donde repasa y critica justamente posiciones escépticas sobre los sentidos y la percepción. Apenas De Anima trata que los sentidos pueden fallar dependiendo de a qué objetos nos dirigimos. Decir "esto es blanco" tiene menos posibilidad de fallar que "esto blanco es una margarita". Pero no hace mucho hincapié en esas cuestiones. Tal vez, como reacción a Platón, que desde el mito de la caverna plantea la duda a lo que percibimos. Aristóteles pone, como elementos básicos de la realidad (lo que se llamó "substancia") a las cosas, como animales, vegetales, seres humanos, rocas, utensilios, que percibimos.

Pero en el párrafo citado, reconoce que una cosa comprende una multiplicidad de partes. Siempre veo Aristóteles llegando a "partir" las cosas. Otra operación similar, es "clasificar" las cosas que se le presentan, como cuando escribe de cuatro causas, o de las categorías, o de las formas de decir/emplear "ser". Pero veo que son dos operaciones: una, es dividir una cosa, en partes. Otra, es dividir en clases la multiplicidad de ejemplos de algo. Recordemos que Aristóteles escribió un "De la partes de los animales". Yo llego a afirmar que gran parte del pensamiento de Aristóteles abreva de su inclinación por el estudio de los animales: sus ideas sobre teleología en la naturaleza, el desarrollo de una semilla, el tomar una cosa como compuesta y funcionando gracias a sus elementos, todo el origen de esas posturas se puede ver más claro cuando se recuerda que fue hijo de un médico y dedicó sus primeros años a estudiar los animales.

Entonces, Aristóteles habla de comenzar por la cosa en conjunto, y luego seguir a sus partes. Pero ¿realmente emplea ese método? No hay mucha mención en sus escritos a metódo, camino para llegar a conocimiento. Muchas veces, lo que hace, para avanzar en un tema es:

- Enumerar las posturas de sus antecesores, y criticarlas, tomando lo adecuado, señalando lo inadecuado de cada una
- Enumerar los casos, y encontrar clasificaciones
- Plantear problemas y resolverlos

Pero, en mi opinión, es raro encontrar en él, eso de "comenzar por la cosa en conjunto". Justamente, en el libro Física donde está este párrafo, emplea los tres items mencionados arriba. Lo que puedo rescatar de "comenzar por la cosa en conjunto" es que aborda el estudio de la naturaleza, no con casos particulares, sino yendo directamente a lo general: los cambios, sus causas y relaciones. Tal vez en ese sentido hay que entender lo de "la cosa en conjunto".

¿Se puede criticar esa posición? En parte sí. Muchas veces, comenzar por la cosa en conjunto, sea como "cosa" tipo "bosque" para pasar a los "árboles", sea como "cosa" tipo "general", para pasar a lo "particular", no es siempre abordable. Tal vez para un genio como Aristóteles, ése sea el camino más fácil o agradable. Pero muchos temas (como la naturaleza en general, que es de que trata la Física) o cosas (como un organismo o bosque), son tan complejos, tienen tantos vericuetos, elementos, relaciones, que no es fácil abordarlos primero en conjunto. Siglos después, Descartes (siempre tratando de construir todo por sí mismo, olvidando a sus antecesores) planteará ir a puntos sencillos (línea recta en geometría) para ir luego avanzando en otros temas (curvas), y conseguir al final una síntesis. Recordemos los cuatro puntos de su método (ver http://www.philosophypages.com/hy/4b.htm):

- Aceptar como verdadero sólo lo que es indudable
- Dividir cada cuestión en partes manejables
- Comenzar con los temas más simples y ascender desde ahí a los más complejos
- Revisar frecuentemente para no omitir nada

El segundo punto podemos llamarlo análisis (ver Las cuatro reglas del método de Descartes). El tercero podemos llamarlo síntesis.

Podría detectar algo de esto en el párrafo de Aristóteles:

La vía natural consiste en ir desde lo que es más cognoscible y más claro para nosotros hacia lo que es más claro y más cognoscible por naturaleza

si él afirmara que "lo más claro para nosotros" son las partes. Pero no. El se decanta por "tenemos que proceder desde las cosas en su conjunto a sus constituyentes particulares".

Esa es la crítica que se le puede hacer a Aristóteles. Partir de las cosas en su conjunto puede no ser fácil. Puede inducirnos, por la razón, a plantear relaciones, patrones que al final no son "el caso" cuando lleguemos a su aplicaciones a las cosas individuales y a sus partes. El ejemplo más claro de "un camino descarriado" fueron sus causas: las aplica a todo, sean rocas, plantas, animales, herramientas, acciones humanas.

Tengo pensado escribir más sobre Aristóteles: tal vez una serie de posts. Por un lado, es un pensador y científico fascinante. Por otro, es un poco lejano para lo algunos temas que podemos tratar más modernamente. Pero igual es interesante. Veré si tengo tiempo de iniciar esa serie.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Filosofía

Publicado el 21 de Marzo, 2011, 6:10

Primer post de la serie
Anterior post de la serie
Siguiente post de la serie

Luego de presentar ejemplos en esta serie como:

La moneda cuántica
La pelotita cuántica

Llegó el momento de presentar más en detalle algunos elementos matemáticos que he usado. El tema de este post será entonces introducir más formalmente la estructura de espacio vectorial, como se usa en física cuántica. Dejaré para otro post, fuera de esta serie, el tratamiento de esa esta estructura desde el punto de vista matemático, estructura muy rica, pero que debe su desarrollo principalmente a su aplicación temprana en la física newtoniana y siguiente.

¿Cuándo apareció este tema en esta serie? Desde el principio: cuando describí el experimento mental de una moneda cuántica, y expuse que su estado se puede expresar como combinación lineal de otros estados. Veamos cómo se liga eso a espacios vectoriales.

Llamamos espacio vectorial (hay autores que agregan "lineal") a un conjunto de elementos V:

Llamados vectores, sobre los que existe una operación de suma:

Operación binaria que dado dos vectores obtiene otro vector del mismo conjunto: se dice que es una operación cerrada en V.

(Para los que conocen espacios vectoriales en matemáticas, les parecerá extraña esta notación que uso: es debida a Dirac, y es la que se usa frecuentemente en física cuántica: veremos su extensión a covectores en un próximo post).

La adición de vectores es conmutativa:

La adición de vectores es asociativa:

Existe un vector:

Tal que su suma con cualquier otro vector, ya sea a izquierda o a derecha, lo deja inalterado:

Para todo vector, hay otro que es su inverso:

Todo esto indica que la suma de vectores forma un grupo conmutativo o abeliano (ver Grupos: definición y ejemplos)

No solamente hay vectores en un espacio vectorial. También hay un conjunto de números K (en términos más matemáticos K es un cuerpo), llamados escalares. Para nuestra discusión en esta serie, son números complejos. Hay una multiplicación de escalar por vector, que da otro vector:

Esa multiplicación cumple que es distributiva con la suma de vectores:

La multiplicación es distributiva con la suma de escalares:

La multiplicación de escalares es asociativa:

Se puede mostrar rápidamente que:




Se suele representar a los vectores como flechas:

Vean que en este tipo de representación las flechas comparten el mismo origen, no son "flechas" distribuidas sobre un espacio, plano o variedad (como sería en el caso de campo vectorial, también muy importante en el formulismo y conceptos físicos). Pero no quisiera insistir mucho en esta representación, si bien la usé en los anteriores posts. Tenemos que ir a acostumbrarnos a:

- Los escalares son números complejos, con lo que es fácil visualizar en el diagrama de arriba la multiplicación por un escalar (un número a) no real
- Veremos ejemplos muy usados de funciones como vectores, y que en lugar de poder expresarse en una combinación lineal de una cantidad finita o aún numerable, se arman sobre bases no numerables (imaginen por ahora, una función f(x) que dependa de la coordenada x, continua, que va a aparecer más adelante como "función de onda", en lugar de nuestro experimento de la bolita, donde el vector de estado era f(n), con n recorriendo los números de las posibles casillas). Pero no quisiera llegar todavía a ese caso, hasta que no avancemos más en todo esto, hasta que lo "extraño" de la física cuántica se nos haga más "familiar".
- Por qué tenemos que recurrir a espacios vectoriales (adelanto: el principio de superposición)
- Por qué los números son complejos (tenemos un largo camino para recorrer acá, siguiendo el camino de Schrodinger)

Llegados a este post en esta serie, los vectores que vimos fueron vectores de estado: y vamos a  concentrarnos en ellos. En esta nueva notación, el vector de estado de la moneda cuántica, presentado en Física Cuántica (Parte 1) Primer Ejemplo  podemos expresarlo como:

Donde |1> sería el vector de estado ceca, y |2> sería el estado de estado cara. Es una combinación lineal de otros vectores, en este caso, de vectores de base. Pero una cosa que distinguió a los vectores de estado de estos vectores de un espacio vectorial, es que tiene "longitud" unitaria. Falta que defina lo que es norma (la "longitud" en términos matemáticos) de un vector. Pero hemos visto que, en física cuántica, la norma al cuadrado de un vector de estado da 1.

Ahora que estamos armados de esta estructura más formal, tenemos que estudiar:

- Cómo un vector cualquiera, y luego, un vector de estado, cambia en otro, ya sea por el transcurso del tiempo, por el acto de una medida o por cambio en las condiciones del ambiente

- Cómo cambia su representación al cambiar los vectores de base

- Definir un producto de vectores (o mejor dicho, de vector con covector) para dar un número. Necesitamos, en una teoría física dar cuenta de cantidades observables, como momento, posición o cosas parecidas.

Fuente principal consultada: capítulo 1, Principles of Quantum Mechanics, de R.Shankar, excelente libro, detallado, que usa la notación de Dirac, y tiene una buena introducción a todos estos temas.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 20 de Marzo, 2011, 12:10

En el anterior post de esta serie sobre ¿Qué es la realidad? comencé a tratar las causas como fuente de los cambios en las cosas (no la única fuente, tengo que comentar sobre el azar). Veamos un ejemplo de búsqueda de explicación causal. Podría tomar un ejemplo de ciencias naturales, pero adentrémonos en un caso de ciencias sociales, más precisamente, un caso de economía.

Es el caso de la ley de Say, que aún se discute. Jean-Baptiste Say (1767-1832) era un hombre de negocios que desde joven se dedicó a los seguros de vida, luego fue profesor y terminó su carrera en el College de France. Como autor francés ha sido menos considerado en la historia del pensamiento económico que los autores ingleses, como Smith y Ricardo. Pero en realidad, tuvo su influencia. Escribiendo Traité d'Economie Politique, pasó a forma más ordena las ideas expuestas por Adam Smith en La riquiza de las naciones. También ponderó la importancia del empresario en el desarrollo económico, siendo un precursor de Schumpeter. Pero es más conocido por su ley de Say. Para exponerla, leo hoy a John Kenneth Galbraith:

La ley de Say sostiene que la producción de bienes genera una demanda agregada efectiva (es decir, realmente gastada) suficiente para comprar todos los bienes ofrecidos. Ni más, ni menos. Por lo tanto, nunca puede originarse en el sistema económico una superproducción generalizada. En términos algo más modernos, esta ley viene a expresar que el precio de cada unidad de producto vendido genera unos ingresos bajo la forma de salarios, intereses, beneficios o rentas de la tierra, suficientes para comprar dicho producto. Alguien, en alguna parte, percibe todo este valor. Y una vez percibido, lo desembolsa, hasta igualar el precio de lo producid. En consecuencia, nunca puede ocurrir una insuficiencia de la demanda, que es la otra cara de la moneda de la superproducción. Es posible, eso sí, que algunas personas ahorren parte de los ingresos resultantes de la venta. Pero una vez realizado ese ahorro, habrán de invertirlo, asegurando así la continuidad del gasto. Incluso en el caso de que atesoren parte de dichos ingresos no se modificará la situación, pues entonces los precios bajarán, para adaptarse al menor flujo de ingresos. Una vez más, no habrá exceso general de bienes ni insuficiencia generalizada de capacidad adquisitiva.

No todos aceptaron la ley de Say, ya en su tiempo. Por ejemplo, Roberth Malthus tenía sus dudas. Ya luego de Say, hubo depresiones, donde lo que se producía no se vendía, contrario a lo que afirmaba Say. Pero los economistas arreglaron el asunto: los ciclos al final pasaban, y a un "largo plazo" la ley de Say sobrevivía.

Galbraith destaca:

Y no sólo sobrevivió [la ley de Say], sino que su aceptación llegó a convertirse en el índice de un adecuado nivel de refinamiento en materia de economía. Se trataba de la prueba de fuego mediante la cual se diferenciaba a los genuinos estudiosos de los farsantes y los maniáticos, o sea, de quienes por debilidad intelectual no podían o no querían ver cuán obviamente la oferta creaba su propia demanda. Era también una indispensable y aguerrida defensa contra aquellos que, mediante la monetarización de la plata, la impresión y puesta en circulación de papel moneda, y el endeudamiento y gasto gubernamental, se proponían aumentar el poder adquisitivo para superar lo que era falsamente percibido como una insuficiencia de la demanda. Se trataba de una defensa contra un  mal que no podía existir.

Vean cómo Galbraith también destaca el aspecto político de abrazar una explicación. Confieso que me cuesta entender del todo a la ley de Say. Tengo que revisar conceptos como demanda, oferta, pero principalmente, salario, interés, renta, su uso y distribución. Y el texto original de Say. A primera vista, no parece que la distribución sea la adecuada para que todo lo que se produzca genere de alguna forma su demanda.

Pero veamos: lo que Say y sus seguidores plantearon, fue un modelo para explicar el funcionamiento de la economía. Como siempre, lo que hay que ver en un modelo es si corresponde a lo que sucede en la realidad. Un golpe fuerte (para algunos, un golpe de gracia) vino en la depresión del 30 y la crítica de Keynes. Vean

Supply creates its own demand (donde se afirma que fue Keynes quien expuso de esta forma lo que decía Say: "la oferta crea su propia demanda")
Keynes vs Say

Es decir, como dice Bunge: "tú produce que alguien comprará, porque el mercado aborrece los desequilibrios". Justamente, Keynes arremete contra la ley de Say al vivir y analizar la Gran Depresión.

Pero entendiendo todo o no, es interesante centrarse en este tema, la ley de Say, como un modelo para explicar un proceso económico. Para Say, según Keynes, la flecha causal se ve así (así lo expone Bunge):

¿Será así el proceso causal? ¿La oferta genera su demanda? Es un modelo interesante, pero todo indica que es simplista. Pero siempre es interesante que alguien plantee un modelo: permite examinarlo, criticarlo, mejorarlo, modificarlo. ¿Cuál es un problema en este planteamiento? Que olvida que la demanda es consecuencia de las decisiones individuales. Lo que falta en el diagrama de arriba, es el tener en cuenta que estamos tratando con niveles de la realidad: en un nivel, está la sociedad y su economía y el mercado. Pero en otro nivel, están los individuos. Así como en química tenemos leyes (como el de la valencia), pero cuya explicación viene de los niveles físicos (electrones exteriores en un átomo, principio de exclusión de Pauli, etc..), así también tendremos que manejarnos en este caso, sin olvidar la existencia de niveles. Se puede proponer, como hace Keynes:

Es por todo esto que es importante el análisis de las causas. Vean cómo puede haber dos explicaciones, pero no pueden las dos tener el mismo valor explicativo. Puede que tampoco la formulación de Keynes sea la última palabra. Pero es notable cómo estos modelos tienen OPUESTAS flechas causales: señal de que el problema no es trivial. Yo diría que hay más para investigar de este punto, para comenzar a comprender el sistema económico (un tema pendiente en esta serie: sistemas, y mecanismos en sistemas).

Es interesante, para la historia del pensamiento económico, repasar lo que escribe Galbraith:

... al perder vigencia la ley de Say .... el valor y la distribución, los precios, los salarios y otros conceptos perdieron muchos puestos en la jerarquía del pensamiento económico, como lo indica la actual designación de su estudio bajo el nombre de microeconomía. En cambio, la gestión de la demanda se convirtió en el nuevo sector al que se dedica mayor atención y se reconoce mayor prestigio, bajo el nombre augusto de macroeconomía. La macroeconomía nació al liberarse la disciplina del largo reinado de Jean-Baptiste Say.

Sirva también este post para indicar la importancia del análisis crítico de causas, modelos y procesos. Es acá donde de nuevo, la filosofía puede ayudar al proceso de nuestro conocimiento, apuntando a revisar nuestras concepciones nacidas de la actividad científica. Y para mostrar que la discusión de una postura realista es importante para nosotros, no es sólo un "tema filosófico, una discusión bizantina": una postura no-realista podría decir que lo de Say y Keynes son "puntos de vista" ninguno mejor que el otro. Ver La importancia del realismo.

Fuentes consultadas:

Historia de la Economía, John Kenneth Galbraith

y la obra del beato:

A la caza de la realidad, La controversia sobre el realismo. Mario Bunge.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Filosofía

Publicado el 18 de Marzo, 2011, 12:14

En el post Dirac revisando el trabajo de Heisenberg había mencionado cómo Dirac había conseguido revisar el trabajo de Heisenberg de 1925. Dirac descubre que lo importante, el quid de las ideas de Heisenberg, estaba en la no conmutatividad de los cálculos de Heisenberg. Dirac intuye la existencia de una profunda analogía formal entre esas cantidades de la mecánica cuántica y la mecánica clásica. Según él, las ecuaciones deberían ser las mismas, cambiando los clásicos posiciones y velocidades por las matrices de Heisenberg. Este había encontrado expresiones (llamadas conmutadores) donde AB - BA no era cero. Heisenberg no se había dado cuenta, pero estaba empleando expresiones que eran idénticas a la multiplicación de matrices, elementos matemáticos no bien conocidos por los físicos de entonces.

Encuentro hoy un texto de Dirac, refiriéndose a la época alrededor de agosto de 1925 (debe referirse a cuando estaba haciendo investigación teórica en el St John's College de Cambridge):

Durante algún tiempo traté de desentrañar esta verdadera relación general, procurando encontrar una vinculación con las leyes ya bien conocidas de la mecánica. En aquella época solía realizar los domingos largas caminatas solitarias en las que pensaba en estos problemas, y fue durante uno de esos paseos cuando se me ocurrió la idea de que el conmutador A por B menos B por A era muy similar a la expresión de Poisson que aparece en mecánica clásica cuando las ecuaciones se formulan según la forma hamiltoniana. Fue una idea que me hizo saltar apenas se me ocurrió, pero inmediatamente me vi detenido por el hecho de que yo no sabía muy bien en qué consistía una expresión de Poisson. Era algo sobre lo cual había leído en libros avazados de dinámica pero que realmente no tenía mucho uso, de modo que después de leer sobre ella se me había ido de la mente y yo no recordaba muy bien de lo que se trataba. Sentí la necesidad de verificar si podía hacerse que la expresión de Poisson correspondiera al conmutador, y para ello necesitaba una definición precisa de la expresión de Poisson.

Bien, corría a casa y revisé todos mis libros y papeles sin encontrar ninguna referencia a la expresión de Poisson. Mis libros eran demasiados elementales. Era domingo, y por consiguiente no podía ir a la biblioteca; todo lo que pude hacer fue esperar con impaciencia toda la noche y después, cuando las bibliotecas abrieron temprano a la mañana siguiente, fui y comprobé qué era una expresión de Poisson y encontré lo que había supuesto: se podía establecer la vinculación entre la expresión de Poisson y un conmutador. Esto proporcionaba una conexión muy estrecha entre la mecánica clásica a la que la gente estaba acostumbrada, y la nueva mecánica de cantidades no conmutables que había sido introducida por Heisenberg.

Es un texto del "Proceedings of the International School of Physics 'Enrico Fermi', vol. 57", citado pro Emilio Segré en "De los rayos X a los quarks". Yo lo encuentro en el muy bueno "La teoría de los quanta, breve historia de su elaboración", de Ana Elisa Spielberg.

Dejo para mi serie sobre física cuántica, o para otro post, describir en detalle a lo que llega Dirac, a sus propios paréntesis de Dirac. Tengo pendiente de lectura sus "Lectures on Quantum Mechanics" donde describe su desarrollo. Algo de ese formulismo es manejado en los cursos y textos de hoy, pero no sabía que había sido desarrollado por Dirac. Pensé que ya estaba en el "paper" original de Heisenberg. Pero no: no se menciona en ese "paper" a la multiplicación de matrices como tal (aparecería en un "paper" de Born y Jordan, de septiembre de 1927; ahí también aparecería por primera vez AB-BA). Dirac trabajó por su cuenta, y publicó sus conclusiones, introduciendo la expresión de Poisson modificada por él, en un "paper" de noviembre de 1925 "The fundamental equations of Quantum Mechanics". Son los "papers" 12, 13, y 14 incluidos en el excelente "Sources of Quantum Mechanics" de B.L.Van Der Waerden, que tengo que revisar.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 17 de Marzo, 2011, 5:47

El martes pasado había comentado un texto de Dirac donde él destacaba la no conmutatividad de los operadores como lo destacable de la mecánica cuántica planteada por Heisenberg en 1925. Es un texto de 1971. Hoy encuentro otro texto suyo, publicado en 1972, pero dado como discurso en 1970, titulado Fields and Quanta:

La cuestión que aparece es si la no conmutatividad es realmente la principal nueva idea de la mecánica cuántica. Antes, yo siempre había pensado que lo era pero recientemente he comenzado a dudarlo y comienzo a pensar que, desde el punto de vista físico, puede que la no conmutatividad no es la única importante idea y hay quizás una idea más produnda, algún cambio más profundo en nuestros conceptos ordinarios que ha sido traído por la mecánica cuántica.

Más adelante, concluye:

Así que si uno se pregunta cuál es la principal característica de la mecánica cuántica, me siento inclinado ahora a decir que no es el álgebra no conmutativa. Es la existencia de amplitudes de probabilidad que aparece debajo de todos los procesos atómicos.

Traté el tema de amplitudes y probabilidades en varios puntos de los posts:

Física Cuántica (Parte 1) Primer Ejemplo
Física Cuántica (Parte 2) La Moneda Cuántica
Física Cuántica (Parte 3) Vectores de Estado y Realidad Física (leer acá, lo más relacionado con el discurso de Dirac)
Física Cuántica (Parte 4) La Pelotita Cuántica

Ver también  Probability amplitude.

Sigue Dirac, destacando cómo la probabilidad es lo que aparece en nuestros experimentos, y la amplitud no aparece directamente:

Ahora una amplitud de probabilidad se relaciona con experimento pero solamente parcialmente. El cuadrado de su módulo es algo que podemos observar. Esa es la probabilidad que la gente experimental obtiene. Pero debajo de ella está la fase, un número de módulo unidad que podemos modificar sin afectar el cuadrado del módulo. Y esa fase es muy importante porque es la fuente de todos los fenómenos de interferencia, pero su significado físico es oscuro. Así que el real genio de Heisenberg y Schrödinger, podemos decir, fue descubrir la existencia de las amplitudes de probabilidades que contienen esa cantidad de fase que está muy bien oculta en la naturaleza y esto porque estaba tan bien oculta  que la gente no había pensado en una mecánica cuánticas más tempranamente.

Encuentro este texto citado en el excelente artículo de Chen Ning Yang "Square root of minus one, complex phase and Erwin Schrödinger", en el volumen "Schrödinger, centenary celebration of a polymath" (Sí, es el Yang de las teorías Yang-Mill, y el que descubrió la no conservación de la paridad con Lee).  Es uno de los artículos con más deliciosa información (histórica, conceptual) he encontrado; lo estoy consultando para llegar a explicar por qué aparece un número como i (raíz cuadrada de -1) con Schrodinger y sus ecuaciones, como prometí tratar en mi serie sobre física cuántica.

En ese artículo Yang menciona a la transformación "gauge" de Weyl, que ya estuve adelantando en hacia el final de un post de mi serie. Es un tema fascinante, como desarrollo histórico y desde la física misma: cómo hay transformaciones que tienen importancia en las teorías que armamos, pero que están (como destaca Dirac arriba) "ocultas" en la naturaleza.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 15 de Marzo, 2011, 11:36

En el post Erwin Schrödinger creando su ecuación, por P.A.M.Dirac presenté un texto de Dirac, sobre la creación de la ecuación de Schrödinger. Hoy quería comentar otro fragmento, del mismo discurso (The Development of Quantum Theory, J.Robert Oppenheimer Memorial Prize acceptance speech, Center for Theoretical Studes, University of Miami, 1971), donde Dirac recuerda a Heisenberg, quien a mediados de 1925 publica su trabajo principal sobre mecánica cuántica (Uber quantentheoretischer Umdeutung kinematischer und mechanischer Beziehungen, en inglés Quantum-Theoretical Re-interpretation of Kinematic and Mechanical Relations). Heisenberg empleaba en su teoría multiplicación de matrices (aunque él mismo no las reconociera como tales entonces; las matrices no eran elementos matemáticos muy conocidos). Eso llevaba a expresar valores físicos, pero donde curiosamente A por B no es lo mismo que B por A (no conmutatividad). Dirac dice:

Era inconcebible que dos cosas físicas cuando se multiplican en un orden no dieran el mismo resultado que cuando eran multiplicadas en otro orde. Era bastante inquietante para Heisenberg. El temía que hubiera algún error fundamental en su teoría y que tuviera entonces que abandonar la hermosa idea completa.

Interesante. No conocía del temor de Heisenberg. Como en otros casos, el paper a publicar circuló para ser revisado. Prosigue Dirac:

Recibí una copia temprana del primer trabajo de Heisenberg, un poco antes de su publicación. Lo estudié por un tiempo, y luego de una o dos semanas vi que la no conmutación era realmente la característica dominante de la nueva teoría de Heisenberg. Era realmente más importante que la idea de Heisenberg de armar su teoría en términos de cantidades muy conectadas con los resultados experimentales. Así que esto me llevó a concentrarme en la idea de no conmutación, y ver cómo la dinámica ordinaria, que la gente había esta usando hasta entonces, debería ser modificada para incluirla.

En este punto, vean, yo tenía una ventaja sobre Heisenberg porque no compartía sus temores.

Dirac siempre se dejó guiar más por la belleza de la idea que por cualquier problema, incongruencia que presentara. Vean cómo reconoce (luedo de "una o dos semanas") la importancia de la idea de la no conmutatividad de algunas cantidades (que representan observables físicos).

Tengo que ubicar otro texto de Dirac sobre esos tiempos, donde nombra que reconoce en ese temprano trabajo de Heisenberg a los paréntesis de Poisson (a confirmar si se refería al mismo paper). También tengo que buscar qué posición ocupaba Dirac en aquellos tiempos, donde faltaba uno o dos años para que floreciera su genio. ¿Qué había publicado hasta ese momento? ¿En qué había trabajado, para que tuviera oportunidad de leer anticipadamente el paper de Heisenberg? Por lo que sé, estaba desde 1923 en el St John's College, Cambridge, en Gran Bretaña, haciendo investigación teórica.

Como mencioné, Heisenberg no se dió cuenta que empleaba multiplicación de matrices en su artículo. Ver Matrix mechanics. Fue luego de ese artículo, en ese mismo año de 1925, que junto con Pascual Jordan y Max Born llegó a esa formulación. El principio de incertidumbre llegaría recién en 1926, ver Heisenberg - Quantum Mechanics, 1925-1927, The Uncertainty Principle.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 13 de Marzo, 2011, 11:04

En el anterior post de esta serie sobre ¿Qué es la realidad? dejé planteado dos orígenes de los cambios en la realidad: causa y azar. Hoy me toca escribir más en detalle sobre el primero: la causa.

Vemos cambios en las cosas, sean desde cosas simples, hasta organismos, sociedades y galaxias. Hemos aprendido a conocer mejor esos cambios, que primero se nos aparecían en los sentidos, gracias al a actividad científica. Hoy tenemos modelos de cambios y evolución de galaxias, que nada de los sentidos y capacidades humanas en solitario nos hubiera dado. Aún seguimos investigando, tanto en ciencias naturales como sociales, sobre cómo esos cambios son causados. Averiguar si hay causa y cuál es, es algo que queda a determinar en la actividad científica y en el conocimiento que va produciendo. Pero desde el punto ontológico, de lo que es y sucede en la realidad, podemos mostrar qué es eso de la causa. Hay términos que se refieren a eso, como los términos causación, causalidad. Hay una expresión más fuerte que es el principio de causalidad: todo cambio tiene causa. Veremos que ese principio está en cuestión, como adelanté en mi anterior post: hay cambios originados en el azar, otro tema que tendré que comentar en próximos posts. Hay que discutir si ese azar es fundamental (por ejemplo, el que aparece en la física cuántica, como el ejemplo de "tomar la foto de la moneda cuántica") o es derivado (como el producido por la participación de muchos elementos, como en los movimientos de un gas). Pero no podemos obviar el azar en la discusión de los cambios en la realidad.

Pero hoy quiero escribir sobre las causas. Veamos ejemplos. Cuando una bola de billar choca a otra en reposo, cambia su cantidad de movimiento, su dirección y cambia esas propiedades a su compañera. Cuando una ameba encuentra un ámbito hostil, comienza a mover sus pseudópodos para alejarse de ese lugar. Cuando nuestra mano toca algo demasiado caliente, nuestro brazo se retira. Cuando aparece un nuevo producto en el mercado, la gente lo adopta. En varios de esos cambios, veo lo siguiente: una cadena de cambios. La ameba no se mueve porque sí. Primero, tiene sensores que miden el PHP u otra propiedad del ambiente, que provocan una señal que activa tal otra parte de su organismo, y finalmente, luego de una cadena de cambios causales, sus pseudópodos se mueven. Nuestra piel "sensa" el calor excesivo, transmite esa información por nervios, llega a parte de nuestro sistema nervioso, y provoca cambios en nervios que terminan provocando cambios en los músculos que terminan contrayéndose. Y así podría seguir.

Entonces, muchos cambios exhiben una cadena de causas. Son procesos que involucran varias cosas, y cambios en sus estados. Decimos que el proceso es causal cuando podemos ver que todos esos cambios no son porque sí, ni provocados por el azar, sino por causa. Entonces, ¿qué es ese elemento final, causa?

Bien, adopto esta definición:

El evento Y en la cosa B es causado por el evento X en la cosa A (distinta de B) si hay transferencia de energía entre A y B por haber sucedido X.

Hay puntos para destacar y comentar. Primero, la existencia de transferencia de energía. Ya comenté la importancia de la energía en la realidad: una propiedad universal de las cosas. Ahora bien, no parece haber relación causal (entre dos eventos) sin transferencia de energía. Busquen, busquen, y no encontrarán. Segundo, me concentro en causas, en relación causal, entre dos cosas distintas. Habrá que investigar qué cambios en las cosas son provocados por causas (nacidas en cambios en otras cosas) y las que son provocadas sin intervención de relación causal. Lo que afirma esta corriente de realismo que expongo: casi todos los cambios son causados (evento en B viene de evento en A, con transferencia de energía). El principio de causalidad le sacaría el "casi". Pero por lo que conocemos, ese "casi todo" abarca una abrumadora mayoría de cambios.

Tercero: la transferencia de energía inicial de un proceso causal no tienen que ser proporcional al resultado. Con solo apretar un botón, podemos lanzar una batería de misiles intercontinentales y destruir un país enemigo. Por lo que sabemos, no se pierde energía: si bien la energía inicial puede ser minúscula, en otros pasos del proceso causal la transferencia de energía puede ir aumentando. Pero no se crea ni destruye energía (de nuevo, una afirmación a corroborar con la actividad científica: nuestras capacidades humanas en solitario, sentidos, intuición, no puede llegar a una afirmación así con corroboración; por ejemplo, no tenemos sentidos para "medir energía").

Lo que pasa en el caso del misil, es que en un paso de la cadena causal nos encontramos con un sistema, cosas, que están en un estado de "touch and go": el combustible químico está en un estado que necesita de un simple "trigger", disparador, una chispa, para liberar su energía interna en reacciones químicas.

Este tipo de procesos, donde la energía transferida inicial es sumamente diferente del resto de las transferencias, pone en el tapete otro punto: el resultado final puede variar mucho, dependiendo de mínimas condiciones iniciales. Es el ejemplo imaginario de "el vuelo de una mariposa en un lugar del mundo termina provocando una tormenta en otro punto alejado". Es un ejemplo que nació para ejemplificar el descubrimiento de algo que llamamos caos. Justamente, hoy en procesos dinámicos, se dice que algo es caótico si ante un cambio mínimo en las condiciones iniciales hay un gran cambio en los resultados finales. Pero eso sería tema para otro posts.

Por ahora, queda presentado el tema de causa, causación. Queda reducido el alcance del principio de causalidad. Tengo que escribir sobre algunos ejemplos de causas, algunos ejemplos de modelos de causalidad equivocados y cómo luego llegamos a modelos más correctos. Y luego, pasar a un tema también grande: el azar y su papel en la realidad.

Algunos enlaces para estudiar:

http://en.wikipedia.org/wiki/Causality
http://plato.stanford.edu/entries/causation-metaphysics/
http://plato.stanford.edu/entries/aristotle-causality/ (un tema a tratar fuera de esta serie, los cuatro tipos de causa de Aristóteles, y cómo la ciencia natural hoy busca la causa eficiente; pero sin olvidar que en ciencias sociales tenemos que volver a poner causa final de alguna forma)
http://plato.stanford.edu/entries/kant-hume-causality/ (tanto para discutir con Kant y Hume)
http://plato.stanford.edu/entries/leibniz-causation/ (la posición de Leibniz, el principio de razón suficiente; tendría que comentar la crítica de Voltaire y su Dr. Pangloss en Cándido, notablemente retomada en el siglo pasado por Stephen Jay Gould y Lewontin)
The fall and rise of Dr Pangloss: adaptationism and the Spandrels paper 20 years later (un tema para tratar, en otro post, fuera o no de esta serie: la exaptación, otro concepto que ayuda a remover causas finales en evolución biológica)

Como tantas otras veces, mi fuente principal fue el beato Bunge, esta vez dos libros, el segundo un clásico del tema:

A la caza de la realidad, La controversia sobre el realismo. Mario Bunge.
La causalidad: el principio de causalidad en la ciencia moderna Mario Bunge, publicado en 1959, varias reediciones. Descubro, con satisfacción, que está alineado con mis posts Conceptos, Modelos, Mecanismos y Ciencia, y Ciencia es más que leyes. (Notablemente, en el humanismo argentino, perduran las ideas de Hempel, y quizás Popper, como predominantes).

Como aperitivo y ejemplo de cadena de causas impresionante, les dejo un video sobre una Máquina Rube Goldberg:

Y les recuerdo un post que escribí hace un tiempo, sobre cuál es "the ultimate Rube Goldberg Machine".

Más videos de Rube Goldberg Machine: http://comicon.com/pulse/index.php/2010/03/08/five-great-rube-goldberg-youtube-videos/

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Filosofía

Publicado el 12 de Marzo, 2011, 6:30

Ya saben que me interesa la ciencia, su filosofía e historia. Desde hace unos meses, estoy revisando mis libros y apuntes, gracias a mi reconsolidación de libros. Uno de los temas que he visitado, cada vez con más detalle, es el del desarrollo de la física cuántica (ver Hacia la Física Cuántica: Notas de su Historia ). Hay varios periodos en ese desarrollo. Están los años de la creación de la mecánica cuántica en dos formulismos equivalentes, el de Heisenberg y el de Schrödinger, en la década de los veinte del siglo pasado. Estoy escribiendo una serie de posts sobre física cuántica en general, y en algún momento, llegaré a tratar esos resultados. La aproximación de Schrödinger se basa en ecuaciones creadas a fines de 1925, principios de 1926 (publicadas a principios de 1926). Pero parece que Schrödinger venía trabajando desde hacía un tiempo en esa formulación (Heisenberg ya había publicado sus ideas en 1925; bastante distintas en formulación aparente, pero equivalente a la de Schrödinger, como luego mostró Dirac).

Hoy encuentro el texto de una conferencia de P.A.M.Dirac (The Development of Quantum Theory, J.Robert Oppenheimer Memorial Prize acceptance speech, Center for Theoretical Studes, University of
Miami, 1971) donde cuenta algo que no conocía: una vacilación de Schrödinger en su confianza sobre su ecuación:

Las ideas de De Broglie se aplicaban solamente a electrones libres y Schrödinger se encontraba con el problema de modificar la ecuación de De Broglie para hacerla aplicable a un electrón moviéndose en un campo, en particular para aplicarla a electrones en átomos.

Interesante. Vean cómo Schrödinger se dedica a tratar de extender lo conocido en formulismo para explicar fenómenos atómicos: algo que alimentó el desarrollo de la física cuántica por años. Es en el ámbito atómico donde se encontraron más desviaciones de los conceptos clásicos. Y se basó en la hipótesis de De Broglie, hasta ese momento (1925/26, supongo) sin confirmación experimental.

Luego de trabajar en ese tema por un tiempo, Schrödinger pudo arribar a una ecuación, a una muy pura y bella ecuación, que parecía ser correcta desde un punto de vista general.

Noten cómo Dirac pondera la belleza de la ecuación. Tiempo después, él mismo produciría una bella ecuación que extendería el desarrollo de Schrödinger al ámbito relativista. Ambos compartirían años después el premio Nobel. Pero la belleza de una ecuación no basta:

Por supuesto, era necesario aplicarla para ver si funcionaría en la práctica. Schrödinger la aplicó al problema del electrón en el átomo de hidrógeno y pudo calcularr el espectro del hidrógeno. Pero el resultado que obtuvo no estaba de acuerdo con el experimento. Esto fue decepcionante para Schrödinger.... Abandonó el tema por unos meses, según me dijo. Y entonces, después de todo, cuando él se repuso de esa decepción, retornó a su trabajo y notó que si él aplicaba sus ideas con menos precisión, no tomando en cuenta efectos debidos al movimiento relativístico del electrón, con esta menor precisión, su teoría coincidía con la observación.

No conocía eso de abandonar el tema "por unos meses". Creía que la deducción de Schrödinger había sido un trabajo relativamente directo. Como mencioné, fue Dirac el encargado de extender luego el resultado de Schrödinger al ambiente de la relatividad.

Al final, Schrödinger se convenció de su formulismo. Cuenta la leyenda que eso ocurrió en una escapada amorosa del invierno 1925/1926. Schrödinger estaba casado, pero se fue con una "amiguita" a algun lugar de los Alpes. No se sabe el nombre de la "amiguita", pero tal vez a ella le debemos parte del trabajo final de Schrödinger ;-) Schrödinger, al parecer, fue bastante mujeriego, pero mantuvo una buena relación con su esposa por años (debería conseguir la fuente de esto que estoy recordando).

Encuentro el texto mencionado en un muy interesante libro: "Fundamental forces of nature; The story of Gauge Fields", de Kerson Huang.

Post relacionado:

Dirac y Feynman, por Abdul Salam donde comenté sobre la ecuación de Dirac

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 10 de Marzo, 2011, 10:18

Después de tanto realismo (y realismo científico) llegó la hora de un poco de epistemología, de la mano de Les Luthiers:

;-) ;-) (hay que revisar el subtitulado, debe ser "tomista" en vez de "tobista" ;-)

Post relacionado:

Partido filosófico

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Filosofía

Publicado el 9 de Marzo, 2011, 5:30

Hace una semana escribí un bosquejo de la historia de la física cuántica. Ver:

Hacia la Física Cuántica: Notas de su Historia

Ahí nombraba al pasar la electrodinámica cuántica. Hoy encuentro este texto de Freeman Dyson, sobre el trabajo temprano de Richard Feynman en ese campo. Muy interesante, porque describe la actitud de Feynman ante el estudio de la física:

Dick [así llamaba Dyson a Feynman] era también un científico profundamente original. Rechazaba tomar solamente la palabra de alguien para explicar algo. Esto significó que fuera empujado a redescubrir o reinventar por sí mismo prácticamente toda la física.

El esfuerzo de Feynman luego se reflejó en sus claras explicaciones, como pueden leer en sus famosas Lectures.

Le tomó cinco años de trabajo concentrado para reinventar la mecánica cuántica. El decía que no podía entender la versión oficial de la mecánica cuántica que era enseñada en los libros de textos, así que él había comenzado desde el principio. Esta fue una empresa heroica. Trabajó más duro que cualquier otro que yo hubiera conocido, durante esos años. Al final él obtuvo su propia versión de la mecánica cuántica que podía entender. Entonces, volvió a calcular cómo se comportaba un electrón usando su versión. Pudo reproducir el resultado que Hans Bethe había calculado un poco antes, usando la teoría ortodoxa. Pero Dick fue más lejos. Calculó con su propia teoría detalles finos de la conducta del electrón que el método de Hans no podía ni tratar. Dick pudo calcular estas cosas con mucha más precisión, y de forma más fácil que cualquier otro. El cálculo que hice para Hans, usando la teoría ortodoxa, me tomó varios meses y varios cientos de páginas. Dick pudo obtener la misma respuesta, calculando en un pizarrón durante media hora.

Dyson se refiere al trabajo de Feynman sobre electrodinámica cuántica, que llevaron a sus Diagramas de Feynman (ver una descripción elemental en Diagramas de Feynman).

Tengo que escribir cómo el trabajo de tesis de Feynman (1942) y un paper seminal post guerra (1948) llevaron a lo que se llama el Integral Path, la nueva formulación de Feynman de la física cuántica, que introduce el uso de lagrangianos, integrales funcionales, múltiples caminos para el cálculo de la evolución de un sistema físico (antes de esto, sólo había la formulación matricial de Heisenberg o de ondas de Schrodinger).

Texto del libro de Dyson, "Disturbing the Universe". Citado en "Handbook of Feynman Integrals",  de C.Grosche y F.Steiner.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 7 de Marzo, 2011, 11:55

Primer Post de la Serie
Anterior Post de la Serie
Siguiente Post de la Serie

Estuvimos visitando en los anteriores posts el ejemplo imaginario de una moneda cuántica. Tiene dos estados observables: cara o ceca. Es decir, cuando sacamos una foto (una medida) siempre la encontramos en cara o en ceca, nunca en otro estado. Pero vimos que el estado de la moneda es más complejo que eso:  es una combinación lineal de los estados de base. Tratamos también a los estados como vectores, ya sean los estados/vectores de base como los estados/vectores combinaciones lineales de ellos.

Pero no tratamos otros aspectos, como: ¿dónde está la moneda? Esto introduciría otro estado: la posición. Para ir acercándonos a este tipo de estado, hoy quiero presentar otro ejemplo imaginario: la pelotita cuántica.

En nuestro experimento mental,  tenemos una pelotita, y cuando la observamos, tomamos medida o sacamos foto, la encontramos en uno de los dos estados. O en la posición 1 (izquierda):

O en la posición 2 (derecha):

Pero su estado se describe, como nuestra moneda, como la combinación de dos estados de base:

Donde e1 es el estado de base "está en 1", y e2 es el estado de base "está en 2". Ya sabemos que esos coeficientes, llamados amplitudes son números complejos, y que se cumple:

El cuadrado del valor absoluto de cada amplitud da la probabilidad de encontrar la pelotita en 1 o en 2. Quiero intentar representar estos números complejos con colores. Es decir, para cada orientación en el plano complejo, quiero elegir un color, cubriendo la gama:

Tomo tres colores básicos azul, rojo y verde, en ángulos de 120 grados. El azul son reales positivos, la mezcla por igual de rojo y verde es real negativo, y así. Y con la altura de una barra quiero representar el módulo (longitud) del número complejo. Queda entonces que un vector de estado de la pelotita, lo puedo representar como:

Pero también podemos tener más posiciones:

O todavía más:

Podemos escribir el vector de estado como la suma de varios vectores de base:

Para que esas amplitudes ci sigan dando amplitudes, se debe seguir cumpliendo:

Tenemos que estudiar qué pasa si hay infinitas posiciones, o mejor aún: cuando las posibles posiciones toman valores continuos, reales, en vez de 1,2,3…. N.  Vamos a ver que surgen cosas interesantes, y no triviales.

Vean que podemos cambiar todos los colores (ángulos de las amplitudes en el plano complejo) y el vector de estado sigue representando LA misma situación física. Vean que las amplitudes no varían "abruptamente" de posición n a n+1. Hay una cierta parsimonia en esa distribución.

Si la pelotita tuviera más probabilidades de aparecer en la segunda casilla, podríamos tener un vector de estado como:

Y si al cabo de un tiempo, la pelotita tuviera más probabilidades de aparecer cerca de la cuarta casilla, tendríamos algo como:

Podemos decir, en el ámbito clásico: la pelotita se movió de 2 a 4. Pero vamos a ir aprendiendo que el concepto de posición y trayectoria clásica se difumina en el ámbito cuántico.

Si extrapoláramos al caso continuo, las amplitudes deberían tender a 0 en los extremos infinitos, para que la sumatoria de más arriba siga dando 1.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 6 de Marzo, 2011, 11:38

Habitualmente, los domingos publico un post de mis serie ¿Qué es la realidad? excepto cuando estoy ocupado o de viaje. Hoy quiero escribir este post, fuera de la serie, para plantear la importancia del tema.

Uno podría decir: todo esto de la realidad y el realismo es una discusión bizantina, algo que no tiene interés nada más que para la filosofía y la gente interesada en tan abtrusos temas, tan alejados del día a día. Pero tengo que disentir. Veamos por qué.

El realismo afirma: hay una realidad. Esta afirmación no es demostrable, pero todo nos lleva a eso. Pero hay gente que afirma cosas y luego dice: "esta es la realidad". Y cuando otra persona afirma cosas distintas, llega a decir: "esa es TU realidad, y es tan válida como la mía". Es un caso de lo que ya varias veces escribí: un caso de "la realidad es como yo la veo". Debe haber varias causas para esta actitud: en parte, por la historia de la modernidad, donde el individuo se atreve a tener sus propios pensamientos, en lugar de seguir una verdad revelada. Pero es ir demasiado lejos, es "too much".

El realismo se opone a esas afirmaciones. Hay UNA realidad. Luego, cada uno tendrá imágenres, representaciones, modelos, parciales, imperfectos, mejorables. Pero hay UNA realidad. Los puntos de vista no tienen realidad en sí mismos: cualquier verdad que tengan se basa en la contrastación "con lo que es caso", diría Aristóteles. Si alguien afirma "la Tierra es plana", y otro dice "la Tierra es un cubo", no son DOS realidades. Son dos modelos que habrá que ver cómo casan con la realidad.

Bien, uno podría decir: ok, pero ¿qué importancia tiene que uno piense que la Tierra es plana y otro piense distinto? ¿no es importante la libertad de pensamiento, la diversidad? Bien, pues sí. Pero resulta que hay otro factor, que frecuentemente se olvida. Si la persona A afirma X, y la persona B afirma Y (distinto de X), esa diferencia bien podría no tener consecuencias. Pero hay algo más. Y ese algo más es: vivimos en una sociedad, ud., yo, A y B.

Ese es el punto. Si alguien afirma "tenemos alma inmortal" y otro afirma "no tenemos alma inmortal", esa diferencia puede no sólo tener importancia para la vida y decisiones de esas personas: influye en las decisiones, leyes (piensen en la pena de muerte), actitudes y acciones que tengamos en la sociedad en la que estamos. Si fuéramos habitantes del planeta Aurora (en una novela de Isaac Asimov) donde había una decena de personas habitando todo el planeta, y cada cual vivía en su feudo, casa, campo, con todo servido por sus propios robots, entonces cada cual podría vivir su vida. Pero vivimos en una sociedad donde estamos todos: los que afirman X, los que afirman Y y así. Estamos juntos, no somos cada uno un Robison Crusoe.

Tal vez el ejemplo de "alma inmortal" toca demasiadas cuerdas internas de cada uno. Podría tomar algún otro ejemplo. Pero me sirve igual para explicar el punto. Si nos quedamos en "yo tengo MI realidad, y vos tenes TU realidad", no podemos avanzar en ver qué es realmente el caso. Una postura no realista deja la puerta abierta a la relatividad, no ya en los valores, sino en los puntos de vistas, modelos y demás, que tengamos para manejarnos en esta vida.

No hay gacelas que "digan": "ahí hay un león", y otra diga: "no hay león", y las dos digan: "ah, bueno, esa e TU realidad, y ésta es MI realidad". No es así como están dadas las cosas. Y no veo futuro para una sociedad de gacelas así. Vivimos embebidos en una realidad, y tenemos que ir haciéndonos cargo.

No rechazo el antirrealismo por sus consecuencias. Simplemente lo rechazo porque el realismo es abrumadoramente plausible, es la solución más simple y recubridora de todo lo que conocemos, y así. Podría aceptar el realismo por sus consecuencias de progreso científico, pero tampoco es mi principal argumento, apenas un argumento secundario. Uno no tiene que aceptar X por sus buenas consecuencias, o porque No-X, su negación, tenga malas consecuencias. Y menos aceptar X porque casa con nuestra forma de ver las cosas. No es así como hay que buscar la verdad. En todo caso, es la forma de buscar lo útil, pero no la verdad. Acepto el realismo, porque es lo que más explica lo "que es el caso". Acepto sí una inclinación mía: adopto el realismo, también, porque es la actitud que nos sirve para alejarnos de esa tan humana inclinación, tan profundamente enraizada, de "yo soy especial", "los seres humanos somos especiales", "somos algo que destaca en todo el Universo", y demás. El realismo nos pone en la perspectiva correcta: nosotros no somos los "creadores de la realidad", sólo unos humildes habitantes, como tantos otros.

Y como seres humanos en sociedad, en una historia que estamos armando, es importante ponernos de acuerdo en cosas básicas. El realismo es una de ellas. Me es incómodo y hasta diría, difícil, convivir en sociedad con gente que afirma "la realidad es como yo la veo". Es prácticamente imposible avanzar en esto que es la historia humana, si pensamos así. Avanzaríamos simplemente por el paso del tiempo.

El realismo nos permite interrogar a la realidad, compulsar nuestros "puntos de vista" con la realidad, con ese frontón que nos devuelve las pelotas que le lanzamos. Abrazar el realismo permite que, entre todos, tengamos un fondo de compulsa y acuerdo.

Y ahora, voy a recargar las tintas. Este ejemplo es exagerado, toca más allá de la realidad, llegando a los valores humanos, pero me sirve para ilustrar el punto. Si aceptamos "la realidad es como yo la veo", entonces podemos justificar al actitud de gente, que en otra sociedad, apedrea hasta la muerte a una mujer adúltera. Ellos "tiene su propia realidad", donde una mujer ahí es distinto de una mujer acá. Es decir, el relativismo en la realidad, nos lleva al relativismo en los valores. Si apelo a este argumento, es sólo para pintar un aguafuerte, para llamar la atención. En el fondo, éste es un argumento del tipo "acepten X, porque sino, tienen malas consecuencias", y entonces, no es un argumento fuerte. Pero puede ser útil para llamar la atención.

Es por todo esto que el realismo es importante. No se puede ir afirmando X y NoX como pancho por su casa. Por que no es nuestra casa: la realidad se impone a los puntos de vista. Y es importante tomar conciencia, tener "awareness" de todo esto.

Es por eso que escribo sobre realismo: para que quede clarito como huevo de tero su importancia. Y que es una postura y no una simple opinión mía. Espero que algo haya aclarado.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Filosofía

Publicado el 5 de Marzo, 2011, 14:20

Los que me conocen mis hábitos, saben que me gustan los desayunos largos acompañados de lecturas, pensar y escribir. Hoy fui a desayunar cerca de mi cubil principal. Enfrascado en la lectura, preparando algún tema para posts, no pude evitar escuchar a alguien que conversaba con otra persona, en una mesa vecina, diciendo cosas como:

"... no podes estar en San Bernardo, todo lleno de gente... no es como hace años ..."

San Bernardo es una ciudad a la orilla del Atlántico, acá en mi pais, Argentina. Es una ciudad muy visitada en verano, que por estos lares es la época de vacaciones.

Hasta acá, lo más normal, pero luego escucho al tiempo:

"... en cambio, después fui a X (no llegué a escuchar si era Cariló o qué lugar)... ahí sí, toda gente buena, matrimonios, nenes chiquitos, rubiecitos, como tiene que ser ... "

No lo podía creer. Dijo más barbaridades, pero ya fue bastante para escuchar. Bueno, hoy me tocó desayunar al lado de Mickey Vainilla! ;-)

Para los que no lo conocen, acá van los videos de este personaje de Peter Capusutto.

Primero, un clásico:

Ver minuto 1:40 "Mamá, vos que querés lo mejor para tus hijos.. ". Es muy común que las publicidades de yogurth y otras se centren en esa idea a transmitir: "si tus hijos no toman Z, no van a crecer y ser fuertes"... Claro que no llegan a decir tanto como Mickey Vainilla ;-) pero hay una idea así flotando. Y todos los nenes que aparecen en las propagandas son, digamos, "rubiecitos" (raro alguien "no blanco" en una propaganda por estos lares).

El de alambrar el "country" (barrio privado):

"no preocuparse, después de las 7 se vuelven a sus casas en el conurbano" :-)

Vean la maratón Teresito (ver minuto 3:17) "morochos y asiáticos serán desviados en Florencio Varela":

Ver ahí minuto 4:20 ".. podríamos brillar, por toda la ciudad, pero está lleno de mendigos... chicos que venden estampitas... "

Y uno del año pasado, indispensable para distinguir a un "cabecita negra" de alguien bien, recién tostado volviendo de Pinamar (ver minuto 4:20), con el Evo Test! "Para distinguir si con alguien podés cenar o te tiene que limpiar la mesa":

Ver en 0:33 cómo evitar dar una moneda. Y luego sigue un argumento que haría palidecer a un Malthus revivido. "... los pobres están organizados en una gran corporación ... ".

No encontré el video donde Mickey Vainilla dice: "Mamá: vos que llevás a tus hijos a disfrutar de la plaza, con otros chicos de otros colores, ¿no te da un poco de miedito?".

Lo bueno de Capusotto es cómo llama la atención a través del humor, de un tema de esta sociedad, que sino fuera por eso, se "barre debajo de la alfombra".  Espero igual qu

Recuerdo un dibujo de una página del genial Quino, hace décadas, en la revista de Clarín del domingo: un dibujo que mostraba el centro de Buenos Aires, una peatonal, con mucha gente, edificios y carteles. Y nada más. Tarde un poco en entender el chiste: todos los que caminaban, con pelo negro. Todos los personajes en los carteles de publicidad, con pelo blanco ... ;-)

Y esta división, en mi pais Argentina, sigue estando, flotando, flotando...

Hay más Mickey Vainilla? Y en otros paises?

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: General

Publicado el 4 de Marzo, 2011, 10:17

El miércoles pasado comentaba el prefacio de Kant a la segunda edición (1787) de su "Crítica de la Razón Pura", el fragmento donde Kant menciona a las matemáticas. Inmediatamente despues trata a la física:

La física tardó mucho más tiempo en encontrar el camino de la ciencia; pues no hace más que siglo y medio que la propuesta del judicioso Bacon de Verulam ocasionó en parte -o quizá más bien dio vida, pues ya se andaba tras él- el descubrimiento, que puede igualmente explicarse por una rápida revolución antecedente en el pensamiento. Voy a ocuparme aquí de la física sólo en cuanto se funda sobre
principios empíricos.

Acá viene una enumeración interesante:

Cuando Galileo hizo rodar por el plano inclinado las bolas cuyo peso había él mismo determinado; cuando Torricelli hizo soportar al aire un peso que de antemano había pensado igual al de una determinada columna de agua; cuando más tarde Stahl transformó metales en cal y ésta a su vez en metal, sustrayéndoles y devolviéndoles algo, entonces percibieron todos los físicos una luz nueva.

Hoy pondríamos a los resultados de Stahl dentro de la química. Sigue Kant:

Comprendieron que la razón no conoce más que lo que ella misma produce según su bosquejo; que debe adelantarse con principios de sus juicios, según leyes constantes, y obligar a la naturaleza a contestar a sus preguntas, no empero dejarse conducir como con andadores; pues de otro modo, las observaciones contingentes, los hechos sin ningún plan bosquejado de antemano, no pueden venir a conexión en una ley necesaria, que es sin embargo lo que la razón busca y necesita.

Me hace ruido tanto "razón produce". Es algo más complejo que eso. Es un tema a discutir: cómo es la actividad científica.

La razón debe acudir a la naturaleza llevando en una mano sus principios, según los cuales tan sólo los fenómenos concordantes pueden tener el valor de leyes, y en la otra el experimento, pensado según aquellos principios; así conseguirá ser instruida por la naturaleza, mas no en calidad de discípulo que escucha todo lo que el maestro quiere, sino en la de juez autorizado, que obliga a los testigos a contestar a las preguntas que les hace.

Destaca Kant al experimento. Es cierto que el experimento se arma, se orienta según algunos presupuestos del experimentador. Pero cuando el experimento no da resultados esperados o útiles, los modelos pueden cambiar. También es cierto que de esta forma "la razón ... [es] instruida por la naturaleza". No partimos solo de la razón. Hay un diálogo con la naturaleza.

Y así la misma física debe tan provechosa evolución de su pensamiento, a la ocurrencia de buscar (no imaginar) en la naturaleza, conformemente a lo que la razón misma ha puesto en ella, lo que ha de aprender de ella de lo cual por si misma no sabría nada.

Kant se sigue apresurando con "la razón ...  ha puesto " algo en la naturaleza. Es parte fundamental de lo que quiere darnos en este libro. Pero es un tema a discutir, y bastante.

Solo así ha logrado la física entrar en el camino seguro de una ciencia, cuando durante tantos siglos no había sido más que un mero tanteo.

Ya en tiempos de Kant se reconoció esto: hubo un cambio que hizo avanzar a la física más de lo que los antiguos griegos y otros pueblos habían logrado. Llama la atención que las matemáticas como las conocemos nacieran casi dos mil años antes de este salto en física. Los griegos tenían renuencia al experimento, pero aceptaban la experiencia. Pero tampoco llegaron a poner su gema, las matemáticas, en uso en el ambiente físico (excepto en dos temas: la estática, supongo que con Arquímedes, y los cielos, que consideraban tan alejados de la experiencia común). Escribí algo en Experiencia y experimento. Luego, con el avance de la ciencia, física y matemáticas se fueron alimentando mutuamente, como en el análisis y la dinámica; colaboración mutua que aún hoy prosigue en la teoría de cuerdas, por ejemplo.

Temas pendientes:

La estructura de "La crítica de la razón pura"
Espacio, tiempo en Kant

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 2 de Marzo, 2011, 11:03

Siempre tenía en mente comentar este fragmento de Kant, parte de su prólogo a la segunda edición (1787) de su "Crítica de la Razón Pura". Leo ahí:

La matemática ha marchado por el camino seguro de una ciencia, desde los tiempos más remotos que alcanza la historia de la razón humana, en el admirable pueblo griego. Mas no hay que pensar que le haya sido tan fácil como a la lógica, en donde la razón no tiene que habérselas más que consigo misma, encontrar o mejor dicho abrirse ese camino real;

Tengo que comentar qué escribe Kant sobre la lógica, y luego sobre la física, en otros posts. 

 más bien creo que ha permanecido durante largo tiempo en meros anteos (sobre todo entre los egipcios) y que ese cambio es de atribuir a una revolución, que la feliz ocurrencia de un sólo hombre llevó a cabo, en un ensayo, a partir del cual, el carril que había de tornarse ya no podía fallar y la marcha segura de una ciencia quedaba para todo tiempo y en infinita lejanía, emprendida y señalada.

Interesante la mención a los egipcios. Debo tener un texto de Herodoto o de Proclo mencionando el nacimiento de la geometría en Egipto. Pero hoy sabemos que las matemáticas eran manejadas (a veces notablemente) por otros pueblos, como los sumerios (ver Sumerian Mathematics) y en Babilonia (ver Babylonian Mathematics).

La historia de esa revolución del pensamiento, mucho más importante que el descubrimiento del camino para doblar el célebre cabo, y la del afortunado que la llevó a bien, no nos ha sido conservada. Sin embargo, la leyenda que nos trasmite Diógenes Laercio, quien nombra al supuesto descubridor de los elementos mínimos de las demostraciones geométricas, elementos que, según el juicio común, no necesitan siquiera de prueba, demuestra que el recuerdo del cambio efectuado por el primer descubrimiento de este nuevo camino, debió parecer extraordinariamente importante a los matemáticos y por eso se hizo inolvidable.

Ese es un punto de la historia de las matemáticas, del que no estamos seguros. ¿Manejaba alguien antes de los griegos demostraciones como hoy las entendemos? ¿O las matemáticas discurrían como una especie de reglas, trucos y formas de resolver problemas? Kant menciona a Diógenes Laercio. Creo que se refiere a su "Vida de los filósofos", y en particular, a Tales, ver Life of Thales, también encuentro ahí a Life of Euclides.

El primero que demostró el triángulo isósceles (háyase llamado Thales o como se quiera), percibió una luz nueva; pues encontró que no tenía que inquirir lo que veía en la figura o aún en el mero concepto de ella y por decirlo así aprender de ella sus propiedades, sino que tenía que producirla, por medio de lo que, según conceptos, él mismo había pensado y expuesto en ella a priori (por construcción), y que para saber seguramente algo a priori, no debía atribuir nada a la cosa, a no ser lo que se sigue necesariamente de aquello que él mismo, conformemente a su concepto, hubiese puesto en ella.

Es todo un tema tratar sobre qué es "a priori" para Kant. Leo que menciona "por construcción". Entiendo que, en este caso, una demostración "a priori" sobre los triángulos no está limitada a un triángulo en particular, sino que es válida para todos los triángulos. Entonces, no es "a priori" como "anterior a la experiencia", sino como "independiente de una experiencia particular". Leo en A priori and a posteriori:

Eighteenth-century German philosopher Immanuel Kant (1781) advocated a blend of rationalist and empiricist theories. Kant states, "although all our knowledge begins with experience, it does not follow that it arises from experience"[2] According to Kant, a priori knowledge is transcendental, or based on the form of all possible experience, while a posteriori knowledge is empirical, based on the content of experience. Kant states, "... it is quite possible that our empirical knowledge is a compound of that which we receive through impressions, and that which the faculty of cognition supplies from itself (sensuous impressions giving merely the occasion)."[2] Thus, unlike the empiricists, Kant thinks that a priori knowledge is independent of the content of experience; moreover, unlike the rationalists, Kant thinks that a priori knowledge, in its pure form, that is without the admixture of any empirical content, is knowledge limited to the deduction of the conditions of possible experience.

El punto a entender es lo de "all possible experiencie", que traduzco en mi ejemplo a "todos los posibles triángulos". No se niega la experiencia, se evade la experiencia particular. "Possible experiencie" está siempre presenta en lo que escribe Kant: un tema a estudiar.

No vi evidencia de un tema: el manejo de Kant de la matemática de su tiempo. Al parecer, no llegó a dominar el álgebra o el análisis. No sé si pudo entender los Principia Mathematica de Newton, entonces. Kant, interesado en la ciencia natural (ver Kant y las galaxias) ya es un hombre que no maneja todo el conocimiento de su tiempo, como podría ser Aristóteles.

Temas pendientes:

- El origen de la Geometría
- Matemáticas en la antigua Babilonia
- Kant y Lógica

Post Relacionados

- Kant y Física

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez