Angel "Java" Lopez en Blog

Mayo del 2011


Publicado el 29 de Mayo, 2011, 16:12

Primer Post
Anterior Post
Siguiente Post

Ya dí ejemplos de mecanismos en sistemas. Hoy voy a revisar y mejorar la exposición sobre mecanismos. En el anterior post vimos que los sistemas tienen estructura con relaciones vinculantes. Pero ese tipo de relaciones se establece entre objetos cualesquiera, ya sea concretos o conceptuales (aunque siempre de la misma clase: los concretos con los concretos, los conceptuales con los conceptuales). Cuando tratamos de entender y descubrir mecanismos (otro de los elementos de un sistema), hay algo nuevo: los mecanismos son exclusivos de los sistemas concreto (no conceptuales, como las teorías). Pero tengo que definir qué es entonces mecanismo.

Puedo intentar la definición:

Mecanismo en un sistema es un conjunto de procesos que producen o impiden algún cambio (en una propiedad o proceso) en el sistema como totalidad.

Produce en el sentido de emergencia: por ejemplo un mecanismo puede producir la emergencia del habla durante el crecimiento y desarrollo de un ser humano. Otros mecanismos mantienen el metabolismo de un organismo. Cuando un mecanismo falla, el sistema generalmente pierde algo: o una propiedad, o un proceso se ve interrumpido. Como la constante de las cosas concretas es el cambio, toda cosa compuesta tiene, de alguna forma, que "mantenerse" para no desaparecer. Algunos sistemas se mantienen por miles de millones de años, como una galaxia o un sistema estelar y planetas madura. El mecanismo de "mantenimiento" de nuestro sistema solar, se basa en la gravedad. Recuerdo a Laplace, luego de haber publicado su "Mecánica Celeste", donde explicaba cómo podía mantenerse sin "disolverse" nuestro sistema solar. Napoleón le pregunta: "¿Dónde está Dios en su libro?". La pregunta era pertinente: en aquel entonces no se entendía que pudiera mantenerse la estabilidad de los planetas (sujetos a interferencias mutuas) sin "la mano de Dios". Laplace le contestó: "Sire, no tuve necesidad de esa hipótesis" (no he conseguido la fuente de esta anécdota; supongo que estaba mencionada en algún libro de Ernest Nagel).

También tenemos mecanismos en los sistemas sociales: está los mecanismos de la producción, del trabajo, el legal, el de transporte. Tanto los sistemas biológicos como los sociales son los más interesantes de estudiar en términos de mecanismos: no son triviales, están "cerca" de los hechos observables (contrariamente a los mecanismos de la física cuántica), y son notables: los biológicos por su emergencia por autoensamblado, evolución biológica, autoorganización y automantenimiento. Y los sistemas y mecanismos sociales son notables por haber sido generados por los seres humanos, muchas veces con intención y propósito.

Hasta tenemos mecanismos en sistemas artificiales, como un reloj o locomotora. Un reloj de cuerda automática basa su funcionamiento en un mecanismo que aprovecha el movimiento del brazo para transformar esa energía en movimiento controlado con pauta. Una locomotora de vapor posee partes, estructura que permiten transformar la energía del calor en movimiento, de nuevo controlado. Los mecanismos de sistemas artificales (desde relojes a aviones) empalidecen ante la complejidad de los mecanismos de una célula (ver ¿Qué está haciendo el Universo? Parte 3). Vean que ha sido un largo camino el recorrido hasta ahora en esta serie ¿Qué es la Realidad? Pero aunque a muchos les parezca que poco puede decirse en la respuesta a esa pregunta, yo no pienso lo mismo: gracias a la historia del conocimiento humano, a la filosofía, a la filosofía de la ciencia, y a la actividad científica, hemos llegado a todo esto que estamos revisando en estos posts: la existencia de sistemas, su emergencia y extinción.

Los elementos simples, como electrones y quarks, no tienen mecanismos. A ver, mejor dicho: los elementos, cosas simples no tienen mecanismos; por lo que sabemos, electrones y quarks son cosas simples, no compuestas. Entonces, que el electrón emita un fotón no puede explicarse con un mecanismo: no hay un modelo de electrón que explique su emisión del fotón. Sólo tenemos una probabilidad (creo que es la constante de estructura fina, ver el post La constante de estructura fina). Al no tener componentes (insisto, por lo que sabemos) un electrón no es una cosa compuesta, no puede tener estructura, no puede ser sistema, y no tiene mecanismo.

Afirmo que es la formulación de modelos de mecanismos es uno de los puntos fundamentales de la actividad científica, aún más que la formulación de leyes. Sólo hay pocas leyes básicas fundamentales. Otras leyes, como la de los gases, pueden ser derivadas, en su explicación, a mecanismos, como los choques entre moléculas, eventos aleatorios que producen al final un orden en un nivel superior. Una teoría que no ofrezca un mecanismo, es una teoría que aparece como incompleta. Eso es lo que le molestaba a Einstein de la física cuántica: no mostrar un mecanismo para explicar lo que pasaba en el fondo de los sucesos. Eso es lo que le preocupaba a Darwin, cuando daba una teoría de la evolución biológica, con un mecanismo de selección natural que podía explicarse y estudiarse, más una herencia con variación de la cual no tenía mecanismo claro entonces.

Temas a tratar: mecanismos y explicación, mecanimos de emergencia, tipos de sistemas, modelos de sistemas, más ejemplos de sistemas y mecanismos (especialmente biológicos y sociales). Vean que la primera parte de esta serie se concentró en la ontología del realismo materialista. Pero hay algo más, muy importante: la existencia de sistemas. El quedarse sólo en el realismo materialista dejaría fuera elementos relevantes de la realidad, como los sistemas, emergencia y extinción de sistemas, propiedades, procesos y mecanismos. Por ejemplo, dejaría la puerta abierta a ataques: "¿Cómo puede explicarse la vida desde la materia?". O a un Bergson afirmando algo como: "la ciencia no puede comprender el cambio y la evolución".

Como en el anterior post, mi fuente principal ha sido el beato Bunge, en especial su excelente libro: Emergencia y convergencia, novedad cualitativa y unidad del conocimiento, editorial Gedisa. En particular, Capítulo 1, "Parte y todo, resultante y emergente", Sección 4: "Estructura y Mecanismos".

Imagen tomada de Antique Pocket Watches.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Filosofía

Publicado el 27 de Mayo, 2011, 12:31

Creo que nunca leí a Ayn Rand (novelista, filósofa, guionista) (1905-1982), sólo he visto entrevistas en video, como el que presento en este post. Los temas que toca en este fragmento los he mencionado en varios posts, como en La cinta roja. Por ejemplo, he escrito sobre la formación de modelos de la realidad, ya sea en forma de mito, religión o ciencia. Pero un punto que nos toca como humanos, es conocer, comprender nuestra vida, y nuestra muerte.

Si ya son lectores de este blog, conocen que estoy cerca de Ayn Rand. Es interesante cómo compara la religión con la filosofía. Ambos tiene, de alguna forma, puntos de partida. Y sobre ellos construimos. Pero aclararía algo: la filosofía (la personal, o la compartida) es revisable. Es un punto en el que la religión se nos aparece más anclada en el dogma. También destaco de la entrevista, que señale que uno tiene que aceptar algo (un modelo del mundo, de la vida, etc...) no porque le guste, sino por haber meditado sobre él. Post relacionado con el tema: Huxley contestando a Kingsley: la verdad más que el alivio.

Podría seguir escribiendo y comentando. Pero baste por hoy. Es largo e importante el tema, para tratarlo en un solo post. Apenas si alcanzaría una vida ;-)

Otros post:

Conciencia de la muerte, en Mumford
La casita de Descartes sobre lo provisional de toda filosofía personal
Ciencia y respuestas, por Richard Feynman para ver cómo alguien puede vivir sin tener todas las respuestas
Ciencia y Religión (Parte 1) donde comento sobre lo "duro" de la religión, y diferencias, esta vez, con la ciencia

Otros, algo más lejanos al tema:

¿Por qué? algo de la historia y motivación para modelos de la realidad
La proyección animista por Monod Parte 1 y Parte 2 sobre cómo proyectamos nuestra visión interna a la realidad

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Filosofía

Publicado el 26 de Mayo, 2011, 6:08

Ya había comentado un fragmento de Blas Pascal (1623-1662) sobre este tema en:

El ser humano ante el infinito, según Pascal

Pero no había comentado todo lo que Pascal escribió. Hoy me encuentro con otro fragmento, de la misma obra, sus "Pensamientos", sobre lo infinitamente pequeño, relacionado con la biología:

¿Qué es el hombre en lo infinito? Pues, para presentarle otro prodigio no menos asombroso, que busque en todo lo que conozca las cosas más delicadas. Que una cresa [larva] le ofrezca en la pequeñez de su cuerpo partes incomparablemente más pequeñas, piernas con articulaciones, venas en estas piernas, sangre en estas venas, humores en esta sangre, gotas en estos humores, vapores en estas gotas; que, dividiendo aún estas últimas cosas, agote sus recursos en estas concepciones, y que el último esfuerzo mental que haga sea ahora el de seguir nuestro discurso; acaso piense, entonces, que ha llegado a la extrema pequeñez de la naturaleza. Yo quiero mostrarle aquí mismo un nuevo abismo. Quiero pintarle, no sólo el universo visible sino la inmensidad que cabe concebir de la naturaleza, dentro de los límites de este escorzo de átomo. Que vea en él una infinidad de universos que poseen su propio firmamento, sus planetas, su tierra, en la misma proporción que el mundo visible: en esta tierra, animales, y en fin, cresas, en las cuales encontrará de nuevo lo que los primeros produjeron; y encontrando aún en los demás lo mismo, sin fin ni discanso, que se pierda en estas maravillas tan asombrosas en su pequeñez como las otras en su magnitud.

Hay que tener en cuenta que en ese entonces, ya se conocían los descubrimientos de Leeuwenhoek y otros, con el uso de los primeros microscopios. El texto de Pascal lo encuentro citado en el libro "Introducción a la historia de la biología" de Jean Rostand. Curiosamente, esta visión de Pascal ilustra lo que se pensaba fácilmente en aquel entonces: que lo infinitamente pequeño no tenía, quizás, límite. Ante lo asombroso de los descubrimientos de la existencia de los microorganismos, la gente aceptaba que bien pudiera haber un descenso infinito hacia lo pequeño.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 24 de Mayo, 2011, 11:55

Ya hace tiempo presenté por aquí una entrevista de 1959 a Bertrand Russell:

Entrevista a Bertrand Russell

Hace unos meses, encontré en un post del blog Cerebros no Lavados a este video, con subtítulos en español:

Leo en la página de Youtube de este video:

Pequeño extracto (parte final) de la entrevista al Filósofo, Matemático, Lógico Matemático, Historiador y Crítico Social BERTRAND RUSSELL en el canal BBC, programa Face to Face (1959), entrevistado por John Freeman

Alguien dejó el comentario:

Russell fue un hombre universal, no solo un matemático. Deberían leerse todas sus obras. Todas, literalmente, quiero decir. Porque escribia como escriben los grandes : decia cosas complejas en palabras pequeñas. Fue un ensayista de estilo limpido, locuaz: para mi es el mejor ensayista inglés, por su enorme dominio de temas. Y sumesele a eso todo lo que hizo por la epistemologia y la ciencia. ¡ Hombre, que fue Premio Nobel de literatura incluso ! Y muy bien merecido. Unico...un polimata.

(Ver Polymath).

Es importante lo que dice sobre su primer consejo: no aceptar una explicación simplemente porque nos gusta, por nuestros deseos de creer o por los beneficios que traería adoptar una postura. Hay que enumerar los hechos, y de ahí partir. Claro que los hechos no son todo: nosotros ponemos nuestros modelos, explicaciones, etc. Pero son los hechos los que al final juzgaran lo que hayamos armado (algo parecido me resuena en Leyes y Ciencia, por Richard Feynman).

Pero vean lo que dice sobre su segundo consejo para el futuro, desde 1959: el amor es sabio, el odio es estúpido. ¿Por qué? El contesta: estamos interconectados. Eso en 1959. Y hoy, lo vemos aún más claro. Internet es parte de esa interconexión. Somos una gran tribu, tan grande que no estamos preparados en la naturaleza humana básica a manejarnos en semejante sociedad. Sólo gracias a la plasticidad que nos dan nuestras capacidades es que hemos podido armar esta super-tribu que es la humanidad. Cierto que Internet es sólo una parte de esa interconexión: sólo está presente una fracción de la población mundial. La interconexión más grande es: estamos en el mismo y único planeta (fervientemente recomiendo ver, escuchar y leer Un pálido punto azul ) Tenemos que aprender que no todos pensamos igual, que incluso alguien dirá cosas que no nos gusten, como dice Russell. Y tenemos que aprender a convivir con eso. Y agrego yo: hay que aprender que las últimas guerras no fueron decididas por quienes participaron en ellas, sino por una fracción que decidió emprenderlas y aprovecha elementos de nacionalismo, super-tribu reducida, para llevar adelante el conflicto. Lo mismo habría que llamar la atención sobre las diferencias religiosas. Queda a discutir los conflictos por diferencias en la ocupación de territorios, donde hay muchos intereses humanos ya sembrados.

También hay que recordar que Russell dice todo esto en medio de la Guerra Fría: por eso habla de "morir juntos o vivir juntos". Hoy esa bipolaridad aparece lejana, pero los conflictos siguen. Parecen ser parte de la historia humana. Pero hoy, somos más los que estamos conectados, cambiando opiniones y posturas. Algo está cambiando. Me imagino a Russell participando hoy de todo esto.

Como mencionaba en el post anterior mío, hay varios en los que menciono a Russell. Ver

Cómo envejecer, por Bertrand Russell
La sentencia de Galileo, en La Perspectiva Científica de Bertrand Russell
Ciencia es más que leyes
La actitud científica en la vida cotidiana
La belleza de las matemáticas según Bertrand Russell
Bertrand Russell y la religión  una serie de posts de Cortito y al Pie
Conocimiento humano, filosofía y ciencia, en Bertrand Russell
La naturaleza de la verdad en Bertrand Russell

Y sigo recomendando la página de la Stanford Encyclopedia of Philosophy: Bertrand Russell.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Filosofía

Publicado el 22 de Mayo, 2011, 16:01

Primer post
Anterior post
Siguiente post

Me gustaría mejorar mi exposición sobre sistemas, centrándome hoy en uno de sus elementos. Tenemos cosas en la realidad, y hay cosas compuestas. También tenemos objetos en general (sean concretos, o sea cosas de la realidad, o conceptuales). Los objetos pueden estar compuestos de otros objetos (los objetos conceptuales compuestos tienen elementos conceptuales, los objetos concretos compuestos tienen elementos concretos). Y esas partes establecen relaciones. Ver Cosas, Agregación, Combinación. Pero no todos los objetos compuestos forman sistemas. Veamos esto en más detalle.

Primero, podemos decir:

Estructura de un objeto (concreto o conceptual) compuesto, es la colección de las relaciones de sus componentes.

Si yo coloco dos sillas, una al lado de la otra, ambas comienzan a tener una relación "estar a la izquireda de", o "estar a la derecha de". Pero no forman un sistema aún. En cambio, las partes de madera, metal de cada silla, tienen una relación más fuerte entre ellas. ¿Cuál es la distinción entre ambas formas de relación? Pues bien, hay relaciones no vinculantes y relaciones vinculantes. Estas últimas tienen una característica distintiva: cambian las cosas relacionadas. Una relación vinculante no cambia los relacionantes. Al principio, tenemos elementos sin relación:

y después los relacionamos:

Pero sin transformarlos. En cambio, una relación vinculante, los transforma:

El ejemplo más sencillo de vinculante que se me ocurre, es construir algo con bloques de Lego: los bloques ven afectado su libertad de movimiento, y comienzan a formar una cosa compuesta, muchas veces un cuerpo rígido (esta es la razón de la imagen del principio ;-). Otro ejemplo es el cardumen (como mostré en este post). Los peces, como elementos, no se ven en principio "cambiados". Pero cambia algo: su conducta. Una explicación de su forma de moverse es: cada pez se guía por sus vecinos. Eso hace que en ese sistema "levemente vinculado" (el cardumen puede partirse en dos al atravesar un obstáculo, y hasta desaparecer al verse sus elementos asustados por una presa), tenga una propiedad nueva: coherencia de movimiento.

Entonces, las relaciones de los componentes de un objeto son la unión de dos conjuntos. Sea S la estructura que definimos arriba. Entonces:

S = V unión NV

Donde V son las relaciones vinculantes, y NV las relaciones no vinculantes, y esos dos conjuntos son disjuntos (no tienen elementos en común). Y entonces, podemos declarar:

En un sistema, las relaciones vinculantes son un conjunto no vacío.

Es decir, en la estructura de un sistema encontramos relaciones vinculantes siempre. Eso es una característica ineludible de todo sistema. Donde hay objetos, sin relaciones vinculantes, no hay sistema. Ya expuse ejemplos de sistemas, y me queda pendiente proponer otros, por ejemplo, sistemas sociales. Para aplicar la característica de relaciones vinculantes, y reconocer un sistema, hay que descubrir su composición (elementos) y sus relaciones. En general, reconocemos sistemas (como el cardumen) antes que sus relaciones vinculantes (explicación por cambio en la conducta de movimiento de cada pez), via sus propiedades emergentes (vemos al cardumen actuar con movimiento coordinado). Esto es interesante: reconocemos al cardumen, cuando lo vemos, como una cosa. La explicación de por qué se mantiene, es más elaborada: alguien con conocimiento ingenuo podría decir que se mantienen unidos por la mano de Neptuno. Sólo con esfuerzo podemos proponer un modelo de su "mantenimiento" como cardumen. Es el tema a analizar en el próximo post (espero): mecanismos en sistemas.

No confundir estructura con sistema. Acá me concentro en los sistemas reales, concretos. Un sistema concreto (no conceptual) es una cosa, un individuo. Una estructura no existe "per se", ni "ante rem" (como si existiera antes que los individuos que tienen esa estructura): una estructura real, como las propiedades y procesos reales, sólo se da en una cosa compuesta.

Algo más, para mí sumamente interesante: vean que las fuerzas involucradas en la formación de los sistemas pequeños (como el núcleo atómico) son más fuertes, involucran mayor cantidad de energía, que las relaciones establecidas en sistemas más grandes. Ese es un punto a investigar en mi serie Qué está haciendo el Universo, y una próxima serie sobre la base de la vida.

Resumiendo: en objetos compuestos, tenemos estructura (el conjunto de las relaciones entre sus partes). En las estructuras pueden haber relaciones vinculantes y no vinculantes. En los sistemas, siempre hay alguna relación vinculante.

Como otras veces, mi fuente principal ha sido el beato Bunge, en especial su excelente libro: Emergencia y convergencia, novedad cualitativa y unidad del conocimiento, editorial Gedisa. En particular, Capítulo 1, "Parte y todo, resultante y emergente", Sección 4: "Estructura y Mecanismos".

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Filosofía

Publicado el 21 de Mayo, 2011, 18:46

Cinco al hilo, no tanto. Fueron cuatro y estoy tratando con el quinto. Hablo de teoremas ;-) Ya saben que tuve mi primer semana sabática del año. Alguno de los entregables de esa semana (evidencia de lo que hice) ha ido apareciendo por acá, en forma de posts. Algunos de los temas eran matemáticos, como anillos o topología general. Pero durante esa semana sabática (sin clientes, sin reuniones, dedicada completamente a esos "commitments"), tuve un resfriado fuerte: estuve tres días y medio en cama. En ese estado, lo único que pude hacer fue leer algo, y pensar. Me dediqué a demostrar algún teorema de álgebra.

Siempre pienso que hay que tratar de demostrar los teoremas que uno lee en un libro, por propia cuenta. Aunque cueste trabajo, ese esfuerzo es útil para realmente entender del tema. Al tener bastante tiempo, pude dedicarme esos días de resfriados a un problema, un teorema de David Hilbert (supongo que de fines del siglo XIX) reformulado en términos de anillos noetherianos. Me entusiasmó tanto poder demostrar ese teorema (que me llevó su tiempo, como dos días de pensamiento con resfrío ;-)) que me atreví a otras demostraciones. En total, hasta el día de hoy, pude demostrar varios teoremas, pero muchos eran lemas simples. Quisiera escribir las demostraciones de cuatro teoremas principales que pude resolver, uno por post.

El primer teorema es el de teorema de la base de Hilbert: R[x,y,….z] el anillo de polinomios en variables x,y…z sobre R. Si todo ideal de R es de generación finita, entonces todo ideal de R[x,y,…z] también tiene generación finita. Se dice: si R es noetheriano (equivalente a todos sus ideales son de generación finita), entonces R[x,y,…z] es noetheriano. Encontré el teorema en las primeras páginas del libro "Curvas algebraicas" de William Fulton, Editorial Reverté. Luego de demostrarlo, buscando más info, lo encontré en el excelente "Introducción al Algebra Conmutativa" de Atiyah y Macdonald, de la misma editorial.

El segundo teorema, que me llevó casi una semana, ya fuera de la semana sabática, fue un clásico que conocí hace 30 años: todo número primo de la forma 4n+1 se puede expresar como la suma de dos cuadrados. Se lo conoce como el teorema de Fermat-Euler (aunque hay otros que también tienen ese nombre). Incidentalmente, encontré la fórmula de Euler: cómo multiplicar dos sumas de cuatro cuadrados, para obtener una suma de cuatro cuadrados. El punto que me costó de la demostración fue encontrar la forma de ir descendiendo desde un resultado al resultado final. Una de las cosas interesantes para escribir sobre todo esto, es las estrategias de demostración que se usan en muchas demostraciones. El "descenso" hasta un piso lo veremos en la demostración de este teorema.

El tercer teorema es uno que me costó menos, pero interesante también en su demostración. Se dice que un polinomio en R[x] es primitivo si el ideal generado por sus coeficientes es el propio R. Entonces, demostrar que p, q primitivos si y sólo si pq es primitivo también. Creo que se le llama el lema de Gauss.

El cuarto teorema tuvo la dificultad del tercero: el criterio de irreducibilidad de Eisenstein. Dado un polinomio p en Z[x], siendo Z los enteros; el criterio da unas condiciones para demostrar que no puede ser expresado por la multiplicación de dos polinomios en Q[x] donde Q son los racionales. Curiosamente, ese criterio es útil para analizar el polinomio ciclotómico (x^n+x^(n-1)+…+1). Eso me llevaría a Gauss, su construcción del polígono regular de 17 lados con regla y compás, y demás temas relacionados, pero no quise "meterme" en ese tema todavía.

Y el quinto teorema, que ya se me hizo un hueso duro de roer (llevo como dos semanas, unas dos, tres horas por día) es el Ultimo Teorema de Fermat, para n=3: x^3+y^3=z^3 no tiene soluciones en números naturales. He avanzado bastante, obteniendo relaciones que me dicen: no puede existir una terna con estas características, pero me falta el paso final, demostrar efectivamente la no existencia. En cuanto pueda también voy a escribir de este teorema, la solución errónea de Euler, el trabajo de Gauss, etc. También será la excusa para presentar un anillo que extiende a los enteros, muy simétrico y hermoso.

Temas pendientes: un post con la demostración de cada teorema (espero que el quinto también ;-)

Post relacionados:

Ideales en Anillos
David Hilbert, por Richard Courant

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Publicado el 17 de Mayo, 2011, 12:35

El tema de hoy es un gran tema, con interesante historia, y muy fructífero. Este artículo apenas será una introducción al mismo, concentrándome en las primeras propiedades que definen al concepto (me temo que dejaré la historia para posts aparte). Ya estuve explorando anillos en:

Anillos
Anillos Conmutativos
Ejemplos de Anillos Conmutativos

Quiero explorar un anillo conmutativo. Y elijo el más conocido de los anillos conmutativos: el anillo de los enteros. Un anillo con una cantidad infinita de elementos, que además no tiene divisores de cero. Es decir que si ab=0, entonces a o b es cero. Ya comenté en Pares e Impares que podemos "partir" los enteros en pares e impares. Designemos como (2) al conjunto:

Son los múltiplos de 2, los llamados enteros pares. Puedo entonces tener también:


Son los múltiplos de 3 y los múltiplos de 4. Hagamos el salto, y tenemos en general:

Será entonces (n) el conjunto de los números enteros múltiplos de n. Dado un n, podemos no solamente formar los conjuntos (n), sino también los conjuntos:

Por ejemplo, los pares son los (2)+0, y los impares son los (2)+1. Todos los enteros pertenecen a uno u otro de esos conjuntos. Hemos partido los enteros en dos. Podemos escribir, para un n determinado, que "a está relacionado con b" de esta forma:

Y vamos a tomar que el número a está relacionado con b, si y sólo si:

Es fácil ver que esa relación es reflexiva, simétrica y transitiva. Es decir:



Es una relación que se llama de equivalencia. Y parte al conjunto de los enteros en clases disjuntas (que no tienen ningún elemento en común). Y esas clases cubren todos los enteros:  es claro que todo número entero a pertenece a la clase (n)+a.  Es fácil ver que a está relacionado con b, si y sólo si a-b es divisible por n. Ahí tenemos una punta  a explorar.

Si bien todas esas clases son enteros, la única que contiene al elemento 0 (cero) es la clase (n), la de los propios múltiplos de n. Esa clase es, digamos, distinguida. Primero: la resta de dos elementos cualesquiera a, b que pertenezcan a (n) es divisible por n y entonces, a-b pertenece a (n). Esto indica que los elementos de (n) forman un subgrupo del grupo aditivo de los enteros. La suma de dos elementos de (n) es también un elemento de n. Eso no pasa siempre en las demás clases que encontramos (n)+x. Y no solamente esta propiedad tiene. Esa propiedad está relacionada con una de las dos operaciones del anillo: la suma. ¿Qué pasa con la multiplicación? Pues bien: también la multiplicación es cerrada en (n): es decir, así les gusta decir a los matemáticos cuando dado dos elementos de un conjunto, la operación a*b da un resultado que CAE de nuevo en el conjunto. Esto se pone interesante:  es como si (n) fuera una especie de "anillo en pequeño". Pero no es un anillo con unidad, en general. Pues (2), (3), (4), …(n) con n<>1, no tiene a 1 como elemento integrante. Entonces, por nuestra definición de anillo, (n) NO es anillo (para algunos autores, sería un anillo pero sin unidad).

Pero se queda ahí la cosa, vean algo curioso: no solamente a*b pertenece a (n) siendo a, b elementos de (n). TAMBIEN a*b pertenece a (n) si a es miembro de (n) y b es CUALQUIER entero. Los matemáticos escriben:

Vamos a ver que a partir de esas propiedades podemos obtener mucho. Cuando algo es fructífero en matemáticas es porque se puede aplicar de varias formas y conseguir resultados interesantes y no triviales. Por ahora parece que solo hicimos juegos de definiciones y fórmulas. Pero veamos de elevar el nivel de abstracción. Fijémonos en un anillo conmutativo cualquiera A. Definamos:

M es ideal, si M es subconjunto no vacío de Z, tal que

Y que cumple:

Vean que como A es conmutativo, MA = MA. Se puede definir ideales en anillos no conmutativos, y entonces se hablará de ideales a derecha y a izquierda (tengo que revisar cuál es cuál, según se pida MA=M o AM=M).

Es fácil ver que en cualquier anillo A, (a) es un ideal de A. El propio A es un ideal. Y el conjunto {0} (sólo el elemento 0) = (0) también es un ideal. Son el mayor y menor ideal, respectivamente, de A. Siendo A conmutativo, podemos definir:

Es fácil ver que cumple con las propiedades de ideal (traten de calcular x-y, siendo x=sa+tb, y=wa+zb). Esa expresión sa+tb ya la vimos en la demostración de máximo común divisor en el anillo de enteros. Si recuerdan la demostración, es fácil ver que:

Donde (a,b) es el máximo común divisor de a y b. De nuevo, algo curioso: combinamos dos ideales, cada uno generado por un solo número.  Podríamos esperar que el nuevo conjunto no fuera ideal, pero lo es. Y podría pasar que ese nuevo conjunto fuera generado por DOS elementos, pero nones. Es generado por uno solo. Apelando a la demostración que vimos en el caso del máximo común divisor, se puede mostrar que todos los ideales en el anillo de enteros son generados por un elemento.

Definamos también:

La intersección de dos ideales entero, es un ideal. Por ejemplo:

Se puede demostrar que la intersección de (a) y (b) es el ideal generado por (c) donde c es el mínimo común múltuplo de a y b.  Pero subamos la apuesta. Quiero definir suma y multiplicación de ideales cualesquiera, sean o no de la forma (a) (es decir, sean o no todos múltiplos de un número a, generador del ideal) (tenemos que ver que anillos que contienen ideales QUE NO son de la forma (a)). Sean D,E ideales del anillo conmutativo A, entonces, definamos:


Comprobemos que es ideal. Primero, no es vacío: 0 está en D, 0 está en E, 0+0 = 0 está en D+E. Segundo, si:



Como D es ideal, entonces la resta d-d" pertenece a D. De la misma forma, e-e" pertenece a E. Entonces a-b es el resultado de sumar un elemento de D y un elemento de E. Queda que a-b pertenece a D+E. Podemos tomar la intersección de dos ideales (ahora, estamos considerando ideales en cualquier anillo A, no necesariamente números enteros):

Si los elementos a, b son miembros de la intersección, también lo será a-b, por ser elemento tanto de D como de E, por ser ideales. Además, D intersección E no es vacío, porque el elemento 0 pertenece a todos los ideales.

Puede haber varios ideales en un anillo A, pero siempre están {0} y el propio anillo A. Habrá ideales incluidos completamente en otros, como en el caso entero (6) está incluido en (3): todos los múltiplos de 6 son también múltiplos de 3. Hablando de anillos generales A, la intersección de D y E está incluida en D y en E. Y la suma de D y E incluye a D e incluye a E. Los matemáticos dicen: los ideales de un anillo forman un retículo que va desde {0} hasta A, y donde los ideales se relacionan por la inclusión. Tenemos que explorar eso de retículo en otro post.

Vean cómo, con tan poco, pudimos definir tanto. Pero la definición no es todo en matemáticas. Tenemos que ver si todo esto sirve para algo interesante. También tengo que mostrar ejemplos concretos de ideales en otros anillos, y ejemplos de ideales que no sean de la forma (a) (es decir, que no sean solamente LOS MULTIPLOS de un tal elemento a). Otro tema es ver que, cuando hay homomorfismo f de anillos A, B (f una función de A a B) (y tenemos que ver qué es eso de homomorfismo ;-), aparece un ideal:  el de los elementos x de A tales que f(x) = 0, el cero de B. Pero no quiero adelantarme, ya tenemos bastante por hoy. Un punto más: a los ideales de la forma (a) (es decir, generados por un elemento), se los llama ideales principales.

Temas pendientes:
Ideales Principales
Anillo de Enteros como Dominio de Ideales Principales
Ideales que no son Ideales Principales
Ideales Maximales e Ideales Primos
Retículos

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Publicado el 16 de Mayo, 2011, 6:59

Encuentro un recuerdo de cómo era en clase el gran matemático David Hilbert (1862-1943). Su estudiante y luego colaborador Richard Courant escribió sobre su forma de tratar a su gente:

En Alemania era considerado imposible que un profesor se rebajara a ser amigo personal de sus estudiantes. Hilbert rompió completamente esta tradición, y esto fue un enorme paso hacia la creación de un ambiente científico; sus estudiantes jóvenes venía a su casa para el té o la cena. La señora Hilbert preparaba grandes cenas para los asistentes y los estudiantes...

Las clases de Hilbert eran inspiradoras. Sus conferencias no eran perfectas en el sentido formal, y sucedía frecuentemente que no había preparado lo suficiente, de modo que al final de la hora tenía que improvisar, lo que hacía de manera torpe [...] teníamos la oportunidad de verlo luchando a veces con problemas simples de matemáticas hasta que encontraba la solución. Esto era mucho más inspirador que una cátedra perfecta.

Interesante el comentario sobre la distancia entre profesor y estudiantes en Alemania, a fines de siglo XIX, comienzos de siglo XX. Debió ser fascinante ver en acción a Hilbert, descubrir cómo pensaba para llegar a una solución. Poco se ha escrito sobre el proceso de pensamiento en un gran matemático. Vean que Hilbert no sabía o recordaba todo: como otros matemáticos, confiaba en su capacidad para saltear un obstáculo, para completar una demostración. Para estudiar matemáticas, uno no sólo debe leer y entender las demostraciones. Uno tiene que hacerlas ;-). Muchas veces, al estudiar matemáticas, he tratado de leer y demostrar cada teorema que encuentro en los libros, sin leer de antemano la solución: un trabajo que en general me lleva tiempo, pero me ha servido para realmente comprender las dificultades y caminos importantes en un tema, ya sea teoría de números, topología o álgebra. También recordaría el consejo de Halmos, que describí en Quiero ser matemático:

Don't just read it; fight it! Ask your own questions, look for your own examples, discover your own proofs. Is the hypothesis necessary? Is the converse true? What happens in the classical special case? What about the degenerate cases? Where does the proof use the hypothesis?

Por ejemplo, ¿por qué funciona la factorización única en el anillo de enteros? ¿Hay anillos sin facturazación única? ¿por qué falla ahí el camino que tomamos en enteros? ¿qué es lo mínimo suficiente para asegurar la factorización única? ¿habrá condiciones necesarias?

Otros posts relacionados con David Hilbert:

David Hilbert, según Jean Dieudonné
Imágenes y símbolos, según Hilbert
Los problemas de Hilbert

Courant escribe el texto de arriba en el artículo "Reminiscences from Hilbert's Gottingen", Mathematical Inteligencer, vol 12 (1990). Yo lo encuentro citado en el excelente libro "Algebra en todas partes", de José Antonio de la Peña, Fondo de Cultura Económica.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Publicado el 15 de Mayo, 2011, 12:16

Primer post
Anterior post
Siguiente post

Ya vimos que hay emergencia de propiedades y procesos. Pero también hay emergencia y existinción de cosas. Y vimos que hay niveles en la realidad, una forma de organizar las cosas compuestas. Hay cosas compuestas por asociación simple, o por combinación, y éstas forman, en general, sistemas. La emergencia más interesante es la de las cosas que son sistemas. Prácticamente, todos los sistemas se componen de cosas que no están en el nivel del propio sistema. Tenemos emergencia ( y extinción) entre niveles:

La aparición de cosas compuestas puede ser natural o artificial. Esas formas de aparición se pueden mezclar, como es el caso de la cadena:

Semilla -> Plántula -> Renoval -> Arbol -> Tronco -> Pulpa -> Papel -> Libro

En la realidad hay cambios. Y hay novedades. La novedad puede ser cuantitativa, como cuando hay el aumento o disminución en una propiedad de una cosa (su longitud, su temperatura). O cualitativa, como el congelamiento, la formación de nuevos sistemas. Emergencia es novedad cualitativa. Por lo que vimos, se da en:

- Aparición de nuevas propiedades no distributivas en cosas complejas
- Aparición de procesos en sistemas (cosas compuestas con estructura y mecanismos)
- Aparición de cosas compuestas
- Aparición de la primera cosa compuesta en su clase
- Aparición por vez primera de propiedad o proceso en una cosa (como cuando un bebé comienza a hablar)
- Aparición por vez primera de propiedad o proceso en una cosa de tal clase (como la primera vez que un ser humano alcanzó el habla)

El ensamblado natural (espontáneo, no producido por un agente externo) es autoensamblado. Es notable que haya autoensamblado natural, y es una de las características más destacables del Universo. Los autoensamblados más básicos son simples, como los de formar un átomo a partir de las partículas. Ese proceso en particular, que apareció en un punto de la historia del Universo (no parece que SIEMPRE estuvieron los átomos), se basa en la fuerza electromagnética y en la existencia del principio de exclusión de Pauli. Insisto: es un ejemplo notable, que exploraré en mi serie ¿Qué está haciendo el Universo?, porque nos da una pista, una pista importante para tratar de entender lo que nos rodea. Una aclaración: hay procesos de formación de átomos (como el ciclo del carbono en el interior de una estrella) que necesitan de agentes, pero esos agentes también son naturales. Así que podemos seguir considerándolos naturales.

Los próximos ejemplos de autoensamblado que encontramos son: dos átomos se combinan para formar monómeros. Los monómero se autoensamblan para formar dímeros. Estos forman polímeros. Para ir a niveles más "arriba", puedo poner el ejemplo de la molécula de ADN. Se autoensambla desde sus precursores (adenosina, timina, citosna, guanina, fosfatos y demás), ayudado por procesos naturales. Notemos que ese autoensamblado pasa hoy en nuestras células, en dispositivos disponibles en el comercio. Y que alguna vez, ese autoensamblado se realizó por primera vez: no sólo hay emergencia de cosas, sino de procesos, que emergen en un sistema (como algún proceso metabólico en una célula) como en la historia (como la aparición por primera vez de un proceso de autoensamblado de ADN). Es un tema fascinante estudiar la emergencia de elementos (cosas, procesos, propiedades) "por primera vez". Durante mucho tiempo, se pensó que la complejidad y armonía de los sistemas que encontramos en la realidad sólo se podía explicar por el argumento del diseño: algo o alguien diseño el Universo. Hoy vemos que podemos tener una explicación alternativa: la evolución en la historia (no sólo la evolución biológica) y la emergencia de niveles (p.ej. no siempre estuvo "el nivel químico"), sistemas, propiedades y procesos, así como la extinción de los mismos.

Algunos procesos de autoensamblado, como la formación de estrellas y organismos, se han extendido por millones de años. Esa capacidad de formación a lo largo del tiempo, de largo tiempo, es otro argumento que podemos usar en contra del diseño inteligente. Lo que vemos es:

- Hay tendencias, fuerzas, que llevan al autoensamblado y también a la descomposición
- Hay autoensamblados que consiguen estabilidad
- Los autoensamblados de un nivel , que consiguen estabilidad, sirven de "semilla" para nuevos autoensamblados (y extinciones) en un nuevo nivel

Notablemente, en la historia del Universo, se llegó a la aparición de autoensamblados que se generan por duplicación de un autoensamblado anterior. Por ejemplo: una célula. No hay fábricas de células, como podría ser "la fábrica de carbono" que son las estrellas. Es la célula misma la que se encarga de autorreplicarse. Esa forma de "pervivir" de una cosa compuesta, siempre expuesta a la disociación, es otro de los hitos a explorar en ¿Qué está haciendo el Universo? Tengo que comentar qué condiciones llevaron a eso.

Si vemos el constante cambio que rige en la realidad, lo notable (por lo "normal" que resulta) es ver la aparición de sistemas, y de sistemas que perduran. Lo asombroso es que todo indica que esa evolución del Universo sólo se basa en pocas fuerzas y leyes fundamentales. Un punto más que quiero destacar: vean que hay una flecha del tiempo, que ayuda a la formación de sistemas: el "enfriamento" del Universo, que en algún punto dejó de ser una "sopa caliente" para permitir desde entonces, la emergencia de lo que nos rodea. El Universo es un gran juego, donde la complejidad nace de lo simple y del tiempo.

Como otras veces, mi principal fuente ha sido el beato Bunge. En estos últimos post, su libro Emergencia y convergencia, novedad cualitativa y unidad del conocimiento, editorial Gedisa.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Filosofía

Publicado el 14 de Mayo, 2011, 12:46

Hace un tiempo comenté un pasaje del clásico libro de Carl Hempel "Filosofía de la Ciencia Natural", en:

Carl Hempel: El descubrimiento de Kekulé

Tengo mucho para comentar sobre Hempel y sus ideas. Un resumen: expone de forma clara lo que se hace en ciencia, pero pone un énfasis en leyes, olvidándose de la explicación por mecanismo. Pueden leer Deductive-nomological model. Pero no es el tema a tratar ahora. Quiero detenerme en el tema de inducción y ciencia, tema que hace años que quiero comentar por aquí. Por un lado, amerita un tratamiento cuidado, que me insumiría tiempo. Por otro lado, no parece que interese nada más que para mostrar errores en la historia de la filosofía de la ciencia, y que podemos dejarlo de lado, concentrándonos en aciertos. Veo que la inducción es más un tema de filosofía del conocimiento humano (de todos los días), más que de la investigación científica. Pero como sigue apareciendo y apareciendo en mis textos, hoy llegó el momento de comentar algo.

Leo hoy a Hempel, en su capítulo 2 "La investigación científica":

La idea de que, en la investigación científica, la inferencia inductiva que parte de datos recogidos con anterioridad conduce a principios generales apropiados aparece claramente en la siguiente descripción idealizada del proceder de un científico:

Si intentamos imaginar cómo utilizaría el método científico.... una menta de poder y alcance sobrehumanos, pero normal en lo que se refiere a los procesos lógicos de su pensamiento, el proceso sería el siguiente: En primer lugar, se observarían y registraría todos los hechos, sin seleccionarlos ni hacer conjeturas a priori acerca de su relevancia. En segundo lugar, se analizarían, compararían y clasificarían esos hechos observados y registrados, sin más hipótesis ni postulados que los que necesariamente supone la lógica del pensamiento. En tercer lugar, a partir de este análisis de los hechos se harían generalizaciones inductivas referentes a las relaciones, clasificatorias o causales, entre ellos. En cuarto lugar, las investigaciones subsiguientes serían deductivas tanto como inductivas, haciéndose inferencias a partir de generalizaciones previamente establecidas.

El texto que Hempel menciona es de A.B.Wolfe: "Functional Economics", incluido en "The Trend of Economics" de Tugwell. Es interesante que proceda de un economista, una ciencia que es la que más necesita de mecanismos y modelos, en vez de leyes. Prosigue Hempel:

Este texto distingue cuatro estadios en una investigación científica ideal: (1) observación y registro de todos los hechos; (2) análisis y clasificación de éstos; (3) derivación inductiva de generalizaciones a partir de ellos, y (4) constrastación ulterior de las generalizaciones. Se hace constar explícitamente que en los dos primeros estadios no hay hipótesis ni conjeturas acerca de cuáles puedan ser las conexiones entre los hechos observados; esta restricción parece obedecer a la idea de que esas ideas preconcebidas resultarían tendenciosas y comprometerían la objetividad científica de la investigación.

Pero la concepción formulada en el texto de la investigación - y a la que denominaré la concepción inductivista estrecha de la investigación científica- es insostenible por varias razones....

Coincido con Hempel. Veamos. Un científico no puede registrar y observar todos los hechos. Se concentra en algunos. Y los elige porque le resultan relevantes dentro de un marco previo de pensamiento, con hipótesis y modelos tentativos. El problema de lo "tendencioso" que podemos encontrar en eso, se soluciona viendo que la actividad científica es una actividad colectiva. Los presupuestos de un científico serán analizados y criticados por otros. Sobre los mismos hechos, otros podrán proponer otras soluciones. Eso ha pasado muchas veces en la historia de la ciencia. Cuando se investigaron los "rayos catódicos" en el siglo XIX, hubo quienes los tomaron por rayos, otros que sólo se limitaron a observar los hechos no atreviéndose a poner nada más (una actitud positivista) pero finalmente fue J.J.Thompson quien, adoptando la hipótesis de "son partículas" descubrió los electrones.

Pero es el paso 3 el que menos se adecua a lo que realmente se hace en muchas instancias del descubrimiento e investigación científicos. No puedo imaginar cómo, por inducción, Planck, Einstein, Bohr, Heisenberg, Dirac o Feynman podrían haber llegado a sus resultados. Es algo extraño ir por el mundo encontrando personas que puedan pensar así y aceptar esa descripción de lo que se hace en ciencia.

Algo adecuado se encuentra en el paso 4: como comentaba en el post de ayer Leyes y Ciencia, por Richard Feynman, el científico (y sus colegas) contrastan sus resultados, predicciones, explicaciones con la realidad. Ese es un paso fundamental en el método científico: establecemos un diálogo con la realidad, no sacamos todo de nuestra mente y nos contentamos con la coherencia, lo "cool", lo lindo de nuestras ideas, sino que todo se contrasta con lo que realmente pasa.

Post relacionado:

Ciencia es más que leyes (puede tomarse como una crítica al énfasis de Hempel en el modelo de cobertura legal)
Conceptos, Modelos, Mecanismos y Ciencia

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 13 de Mayo, 2011, 11:54

Siempre vuelvo a escribir sobre Richard Feynman. Encontré esta semana un video corto de una de sus clases, con subtitulado en español:

Es un punto clave de la forma en que hacemos ciencia. Feynman se concentra en la parte de la ciencia que descubre leyes. No hay solamente leyes en ciencia, ver Ciencia es más que leyes, Conceptos, Modelos, Mecanismos y Ciencia. Pero en el ámbito de la física (y lo extendería a química) donde se mueve Feynman, es común plantear la existencia de leyes. Vean que Feynman dice: hay que suponer la ley (cosa que despierta risas pero es así ;-) Y (un gran Y) comprobarla. También hay otro camino, cuando se plantea un modelo para explicar los datos y experiencias que tenemos: como cuando Kekule explica el benceno con un anillo de carbono, o Watson y Crick explican los resultados de rayos X sobre ADN dando un modelo en espiral. El modelo debe casar con los datos y experiencias.

Como ejemplo de ley "primero supuesta", es la de Max Planck de 1900 (vean ahí en el artículo sobre Planck las motivaciones de éste para obtener la ley). El tenía que explicar la llamada la radiación de cuerpo negro. Y partiendo de algunos supuestos, logró derivar una ley que explicaba los datos, mejor que las leyes anteriores. Luego vinieron como veinticinco años para ir explicando esos supuestos, por nuevas leyes, y llegado el tiempo, por modelos. Por ejemplo, el modelo atómico de Bohr. Tengo que escribir sobre esos pasos en el método científico, donde interviene un paso de imaginación, de creación. PERO, no se olviden nunca lo de Feynman: LUEGO hay que comprobar. No importa lo linda o hermosa que es la teoría, ley o modelo. Si no pasa el examen de la experiencia conocida, de los experimentos o experiencias nuevos (como el observar un eclipse de sol buscando la desviación de la luz de las estrellas prevista por la relatividad general de Einstein), hay que aceptar que el dictamen de la realidad.

Post Relacionados:

Ciencia y respuestas, por Richard Feynman
Atomos y Estrellas, por Richard Feynman
Información, átomos y Feynman
Las cosas de la ciencia, por Richard Feynman

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Ciencia

Publicado el 12 de Mayo, 2011, 11:14

Hoy quiero tratar un tema, que siempre está presente en estos tiempos de "la web 2.0": la existencia de contenido disponible en Internet sin permiso del autor. Ha habido cierto movimiento en España sobre el tema, ante la amenaza de la justicia. Algo escribí hace más de un año en:

Una crítica al Manifiesto de Internet

En estos días, vuelve a aparecer el tema en mi país, Argentina, a causa de un fallo contra un sitio donde los usuarios escriben posts, pero también dejan enlaces a descargas de ese tipo de archivo. El sitio es Taringa, y en mi vida habré estado leyendo dos páginas de ahí, así que no voy a tratar de ese tema en particular (y la segunda vez que entré fue para comprobar que habían copiado el post de un blogger sin mencionar la fuente). Tampoco conozco mucho de leyes: no es el propósito de este post discutir si se infringe tal ley, o si tal acción es delito. No, quiero abrir el juego, para llegar a un punto que no se trata mucho, y que me parece que amerita entrar en la discusión. Mucho del revuelo ha sido provocado por, digamos, consumidores de contenidos que no consideran todas las fascetas del tema, mientras que las intervenciones de los creadores de contenidos se han acercado pero no llegado al punto que me interesa.

Todo este asunto también es un ejemplo de mostrar argumentos que: o no son válidos, o no vienen al caso, o son claras falacias intencionadas. Por suerte, no tengo que escribir de esto, el bueno de @amartino ha escrito:

El caso Taringa: cuando chocan argumentos falaces

que les recomiendo leer, por si no tienen mayor contexto de lo que estoy tratando. Concuerdo con @amartino cuando pregunta:

¿de que libertad de expresión estoy hablando cuando hablo de descargar Adobe Master Collection?

para atacar el argumento de libertad de expresión, que no se puede invocar para permitir este tipo de sitios y descargas. En otra parte, @amartino escribe:

Las leyes de propiedad intelectual deben ser reformadas pero el conocimiento efectivo de como funciona internet por parte de nuestros legisladores es simplemente vergonzoso

Pero esto puede ser usado por todas las partes involucradas en este conflicto. Como espero escribir en este post, el punto que me interesa no es el legal, pero si me interesara, el tema de fondo no es "como funciona Internet". Hay otro tema, paciencia, ya llego al mismo. Mientras, @amartino expone:

¿Les pongo el mejor ejemplo de como destruir un debate y desviarlo? Usen argumentos simples: Linkear no es delito ¿en serio les parece que si linkeo con ganas una guía de como drogar y violar a una menor de edad no estoy cometiendo un delito? ¿en serio les parece que si armo una estructura donde se recompensa poner links a obras de terceros no estoy armando una plataforma de piratería?

como ejemplo de cómo se puede embarrar una discusión (escribí hace un tiempo Bases para una discusión). Un punto en el que no me convence:

en realidad mi postura es simple e inamovible: compartir sin lucrar no es delito y, todo el resto, es poco debatible…

No me convence eso de: "compartir sin lucrar no es delito". Yo soy un gran defensor de compartir conocimiento, por ejemplo. He escrito Don't be a canuto. Pero entiendo que @amartino va más allá en compartir. El afirma: si uno comparte un enlace a descargar la copia (no autorizada por el autor) de una obra (sea película, software, libro, canción, video... ) PERO LO HACE SIN LUCRAR, no es delito. Desconozco el tema legal, pero no me convence eso de si es "sin lucrar" entonces esa acción está "bendecida". No veo que el afán de lucro, con su presencia o ausencia, cambie el carácter de esa acción (insisto, no quiero usar "delito" como hace @amartino, porque desconozco la ley, y aunque la conociera, no es el punto que quiero destacar). Para poner un ejemplo cercano, algo personal: si yo comparto conocimiento, y doy una charla, gratis, ¿está bien? Y si cobro ¿está mal? Yo veo que lo importante de la acción es compartir, y que haya afán de lucro o no, es terciario. Uno puede compartir por múltiples razones: por perseguir una ganancia, o reconocimiento, o posicionarse en un mercado, o por esperar ser popular y que lo inviten a todos los cumpleaños, por lo que sea. Yo prefiero juzgar, evaluar acciones, más que intenciones. Por lo menos, poner con mayor peso la acción y consecuencia, que las intenciones.

Al fin, llego al tema que quiero tratar. Espero con lo anterior haber dado más contexto de lo que se está discutiendo. Mis puntos son:

- Si el autor (persona o grupo) no autorizó la copia (en papel, fotocopia, a mano alzada, electrónica, vean que no es un punto de Internet solamente, o de la tecnología disponible ayer, hoy o mañana) (o no autorizó algunas formas de copia), su posición debe ser respetada.

- Como sociedad, ¿qué esperamos dar a los autores, creadores de obras?

En mi postura, si el autor, digamos, escribe un libro, y como persona conciente, decide publicarlo y espera que no se copie esa obra, tenemos que respetar su posición, y no copiar y difundir la copia. Lo que sí puede pasar, es que el autor no tenga problemas en ver que su obra sea difundida en alguna manera. Como ejemplo, cité en el primer post que mencioné, el caso de Adrián Paenza, que publica sus libros de papel (con ganancias para la editorial e intermediarios) así como versiones electrónicas de libre descarga. También el autor podría haber dispuesto otro canal de pago para descarga electrónica. Entonces, volviendo a Internet, no hay que defender la descarga de copias obras sin permiso del autor. No importa si el medio tiene o no costo, no importa la tecnología, no importa lo que hace la gente o quiere hacer. En mi postura, primero hay que respetar lo que quiere el autor.

Anda flotando por ahí la idea de "a los creadores les importa crear" unida a "no pidan retorno por hacer lo que les gusta" o argumentos parecidos (me temo que no encontré las fuentes, pero me he encontrado con semejante argumentación). O tipo: "los músicos que vivan de recitales, la música que la compartan y difundan sin costo". Insisto: el tema de permitir copias y difusión es un tema que queda en la decisión del autor. A ningún autor se le obliga a publicar un libro por el sistema normal de editorial y libros, apuntándole en la cabeza. Tampoco quiero, entonces, que se "le apunte a la cabeza" tipo: "Ah, qué bueno, escribiste este libro, ahora entregalo en Internet" llegando a "viví de conferencias, cacho". Es una decisión del autor qué hace con su obra, y qué permite hacer. Puede pintar un cuadro, filmar una película, escribir una canción y luego, guardarla en el altillo, si quiere.  Y puede venderla en el subte (metro en Buenos Aires), a 2 pesos o a 3000. O regalarla en los molinetes. O firmar un contrato con una editorial. O publicarla en su sitio. O ambos.

Puesto en claro ese punto, pasemos al segundo. Supongamos dentro de un tiempo, como humanos, llegamos a memorizar libros (tipo Fahrenheit 451) y que podemos trasmitir por pensamiento el contenido a otra persona. Como sociedad, ¿cómo trataremos entonces a los autores, creadores de obras, en este caso escritores de libros? Les daremos una palmada en la espalda, y "qué bueno, Cacho... bueno, seguí tu camino, te veo flaco.. no tenés para comer? Bueno, ya va a pasar... muy bueno tu libro, seguí escribiendo, no aflojés, eh!" ;-). ¿O los retribuiremos de alguna forma, para que consigan tener una vida sustentada por su actividad de creador? Otra postura puede ser: "Trabajaste 100 horas, te pagamos 100 horas de escritor, no mucho más que 100 horas de oficinista, obrero o gerente. Después de eso, andá a laburar al puerto".

Mi postura es: sería interesante vivir en una sociedad donde cada individuo vea cubierta sus necesidades, básicas o no. Sería interesante eso (no quiero poner "bueno", porque es un término a fundamentar: puede que una sociedad con esas características se podría convertir en los eloi de La máquina del tiempo de H.G.Wells; vean que es un tema para discutir en otro momento). Recuerdo a Lenin "de cada cual según sus capacidades; a cada cual, según sus necesidades". Independientemente de lo filosófico o político, les comento una cosa: la última que salí y me fijé, no vivimos en una sociedad así.

En esta etapa de la historia humana, un autor puede llegar a millones de personas (reconozcamos que pocos autores llegan). Pero entonces, se llegue a 10, 100 o millones, no veo incoherente que el autor busque una forma de obtener un reconocimiento (en fama, aprecio Y en dinero, pues seguramente sufrirá el efecto Coto), en base a la cantidad de valor (personas a las que su obra les agrada, beneficia, y disfrutan) que entrega (por ejemplo, acá en Argentina, los autores de música reciben por año un ingreso calculado por la cantidad de veces que se emite una canción de ellos en algunos lugares, radios, etc... Por favor, confirmen los detalles). Insisto: el autor puede regalar si quiere su obra, y hasta firmarla con un seudónimo, para hasta renunciar a la fama. Pero si decide tener un ingreso, nosotros, como sociedad, ¿qué estamos dispuestos a admitir? ¿pagarle una vez? ¿pagarle nada, entregá todo, no seas canuto? ¿pagarle por valor creado?

Yo sostengo que, en esta punto de la historia, hay que pagarle (si quiere) por valor creado. Y en el caso de los libros, música, etc. el sistema editorial de pago por copia se acerca a conseguir ese reconocimiento. Podemos discutir si la tecnología puede permitir la reducción de la intermediación, el abaratamiento de los costos, la creación de editoriales de autor, personales, de grupo. Pero primero tenemos que ponernos de acuerdo, como sociedad (más allá de las leyes, las costumbres, lo que es delito o no, más allá de lo que permite o no la tecnología, de lo que es "bueno", "malo", o ejemplo de "canutez"), ¿que queremos para los autores? Un punto que ha quedado tapado en la mayor parte de los argumentos presentados.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Internet

Publicado el 8 de Mayo, 2011, 16:31

Primer post
Anterior post
Siguiente post

Ya tratamos que en la realidad hay cosas, y tienen propiedades. Vimos que hay cosas compuestas, por asociación simple o por combinación, y esas cosas compuestas pueden ser sistemas. Una cosa compuesta puede tener propiedades, como toda cosa. Y acá aparece algo nuevo: uno podría pensar que al ser una cosa compuesta, todas sus propiedades son propiedades de sus partes. Pero no: hay propiedades que son de la totalidad, y no son de las partes que la componen. Esas propiedades las llamamos emergentes.

Ejemplos de propiedades emergentes: la solidez de un cuerpo, la sincronía de un conglomerado de neuronas, el esquema corporal de un organismo, su autorregulación, la cohesión de una familia, la organización de una empresa, la estabilidad o inestabilidad de un gobierto, el equilibrio o desequilibrio de un mercado. Decimos que son propiedades no distributivas, porque al estar en la totalidad, no se distribuyen, aplican automáticamente a las partes.

Una cosa tiene una historia de vida. Ya tratamos que si algo caracteriza a los objetos materiales (las cosas), es el cambio (leer Energía). Durante la vida de una cosa compuesta pueden aparecer nuevas propiedades, y puede desaparecer otras. En diagrama, podemos calificar a las propiedades de una cosa K que cambia en el tiempo:

Hablaremos entonces de emergencia y extinción de propiedades. De la misma manera, así como hay propiedades de una cosa (compuesta en este caso) hay procesos. Y esos procesos también pueden emerger y extinguirse. Tomemos un ejemplo. Como cosa compuesta, tomemos un organismo, un ser humano. El proceso de digestión va emergiendo en el embrión y queda "habilitado" en el nacimiento. El proceso de respiración emerge de la misma manera: ayudado por la siempre presente palmada inicial ;-). El proceso del lenguaje tiene varias etapas que ayudan a su aparición: una etapa embriológica, una etapa de desarrollo (físico del individuo, luego del nacimiento), de interlocución (conversación con otras personas), y diacrónico (cambios en el lenguaje a través del tiempo). Esta última etapa nos revela que hay evolución de un proceso, que puede abarcar varios individuos. Claro, decir "un" proceso es una forma de hablar. Tengo que agregar: también hay emergencia de procesos en individuos de una clase. Ejemplo: el lenguaje no estuvo siempre presente en la especie humana. Es un proceso que ha aparecido, ha tenido una evolución, es un proceso emergente, no siempre estuve presente.

Vean que también hay propiedades conservadas. Pueden ser propiedades cuantitativas que igual cambian, como la longitud o la temperatura de una cosa. Esas son novedades cuantitativas. Podemos decir: la emergencia de propiedades y procesos son novedades cualitativas.

Entonces, tenemos emergencia y extinción de propiedades y procesos en cosas. Pero también hay emergencia en la historia de los individuos de una clase. Eso es interesante, yo diría fascinante: hay propiedades y procesos que aparecen en la historia, hay evolución. Próximos temas a tratar: emergencia y extinción de cosas, evolución, ensamblado y autoensamblado, cómo se mantiene una propiedad o proceso emergente más allá del individuo. Y volver a sistemas y mecanismos, con ejemplos sociales.

Mi fuente principal ha sido el beato Bunge, y su el libro Emergencia y convergencia, novedad cualitativa y unidad del conocimiento, editorial Gedisa.

Posts relacionados:
Emergencia y reducción ontológica

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Filosofía

Publicado el 7 de Mayo, 2011, 13:37

Siguiente Post

El tema espacio vectoriales ya apareció en mi serie sobre física cuántica, pueden leer:

Física cuántica (Parte 5) Espacios Vectoriales

Pero quisiera plantear el tema desde el punto de vista matemático. El concepto de espacio vectorial nace por aplicaciones físicas, pero a lo largo de la historia fue evolucionando como estructura, llegando a tener nuevas "interpretaciones" matemáticas. Así que quiero repasar la estructura y sus principales propiedades y resultados.

Primero, un espacio vectorial tiene un cuerpo K (ver Cuerpos y Campos) y un conjunto V de vectores, tales que hay dos operaciones. Tenemos suma de vectores, una operación binaria +: V x V -> V que dado dos vectores nos da otro vector. Es conmutativa y asociativa

v + w = w + v
(v + w) + z = v + (w + z)

Esta operación tiene un elemento neutro, el vector 0 (no confundir con el escalar 0):

0 + w = w + 0 = w

Y cada vector tiene su inverso aditivo:

v + (-v) = 0

Podemos ver que los vectores y su suma forman un grupo conmutativo. Es interesante, desde el punto de vista matemático, estudiar los vectores con su suma solamente. Más adelante, en post fuera de esta serie, trataré módulos sobre el anillo de los enteros (donde la multiplicación se deriva de la suma, como v+v = 2v), y módulos sobre un anillo en general.

La segunda operación es multiplicación de elemento del cuerpo K, normalmente llamado escalar, por un elemento de V, dando otro vector, otro elemento de V:

k v = w

Se llaman justamente "escalares" en este contexto a los elementos del cuerpo K, porque se puede decir que "escalan" (hacen agrandar o achicar) los elementos de V. Esta es la primera vez que nos topamos con una operación binaria "mixta": los dos elementos no son del mismo tipo. Siempre hay que tener claro que k NO es un vector, sino un escalar, miembro de un cuerpo K. La multiplicación tiene la propiedad:

k ( l w) = (k l) w

Es decir, la multiplicación en el cuerpo K es compatible multiplicar dos veces a un vector. Parece una "asociatividad" pero hay que tener en cuenta que estamos tomando DOS multiplicaciones: la de multiplicar dos escalares y la de multiplicar escalar por vector. Por conveniencia, no distingo una de otra con una notación distinta, pero podría hacerlo. La unidad del cuerpo cumple como unidad en esta nueva multiplicación:

1 v = v

Ahora que tenemos las dos multiplicación, veamos que se espera de ellas combinadas. Se debe cumplir:

(k + l) w = k w + l w

Es decir, distributividad de la suma en el cuerpo con respecto a la suma en los vectores. Y también:

k (v+w) = k v + k w

Distributividad de la multiplicación de un escalar en la suma de vectores. Bueno, son un montón de condiciones. Pero nacieron de la necesidad de aplicar estos elementos en física. Por ejemplo, las fuerzas se pueden representar como vectores. Una fuerza se puede escalar (hacer el doble de fuerte, o la mitad, o multiplicada por cualquier real). Con el tiempo, se vió la necesidad de tener como escalares a los complejos también. Pero antes de llegar a todo eso, recordemos que es habitual presentar a los vectores como "flechas". Tenemos un vector como una flecha, sobre un punto fijo:

Podemos multiplicarlo por un escalar real mayor que 1:

O podemos multiplicarlo por un escalar real menor que 1:

La suma de vectores, como la tenemos definida arriba, es compatible con la regla del "paralelogramo":

Noten que siempre operamos sobre un punto fijo, el origen. También existe el concepto de campo vectorial: donde hay un vector aplicado a cada punto del espacio que se examina. Por ejemplo, asociar un vector "viento" a cada punto de un mapa de un territorio. Es un tema a tratar cuando llegue a fuerzas gauge en mis serie sobre física cuántica.

Estas representaciones de "vectores como flecha" nos van a servir para captar mejor las ideas involucradas en la estructura de espacio vectorial. De hecho, las he estado usando en mi serie sobre física cuántica AUN CUANDO los escalares en esos ejemplos son números complejos, en general. Pero es el precio a pagar para no caer en la abstracción absoluta. Igualmente, tenemos que recordar y aprender que los vectores no son "flechas": hay espacios vectoriales interesantes que van más allá de esa intuición. Por ejemplo, espacios de funciones, espacio de Hilbert, etc..

Temas pendientes:
Primeros ejemplos de espacios vectoriales
Módulos sobre enteros y sobre anillos en general, retículos
Dependencia lineal
Base en espacios vectoriales
Productos en espacios vectoriales

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Publicado el 6 de Mayo, 2011, 12:26

En mis anteriores posts:

Simetrías del cuadrado (Parte 2)
Simetrías del cuadrado (Parte 1)

presenté el grupo de las simetrías del cuadrado, como ejemplo clásico de estructura de grupo:

Grupos, definición y ejemplo

Veamos que en todo grupo, podemos tomar un subconjunto de los elementos de su conjunto base, y ver
que, la operación binaria original limitada a este subconjunto, sigue siendo grupo. Esto se
llama subgrupo del grupo original.

El subgrupo que encontramos primero es el compuesto sólo por la unidad:

Se dice que es de orden 1 (se llama orden a la cantidad de elementos del grupo). Con los elementos que "al cuadrado" dan la unidad, formamos los subgrupos de orden 2:

No me molesto en buscar subgrupos de orden 3 (¿por qué?). Los subgrupos de orden 4:

No hay más subgrupos, más que el grupo completo. Vemos que algunos subgrupos son subgrupos de otros. Hay un orden parcial por inclusión, siendo el "mímino" el grupo unidad, y el "máximo" el propio grupo de partida. Esos se llaman grupos impropios de G. Los demás son los subgrupos propios.

¿Cómo es que podemos probar que un H es subgrupo de G? ¿Por qué pude afirmar tan categóricamente que no hay subgrupos de orden 3 en el grupo de simetrías del cuadrado? Podemos plantear una analogía: los subgrupos son a los grupos, como los divisores a un número entero. Pero para llegar a eso, tendríamos que tener algo como: si G es grupo, H, N subgrupos de G, deberíamos poder formar a G "multiplicando" H y N. Pero vamos a ver que no siempre es posible esto, y tener una idea de qué es eso de "multiplicar" dos subgrupos. ¿Habrá grupos sin subgrupos propios? Serían una especie de grupos "primos". Bueno, vamos a ver que los subgrupos interesantes son los llamados subgrupos normales. Pero eso es tema para otro post.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Publicado el 5 de Mayo, 2011, 12:41

Como saben, en estos días he estado activo estudiando matemáticas, topología, álgebra, teoría de números e historia de las matemáticas en general. Uno de los conceptos que siempre encuentro en topología son los espacios de Hausdorff. Laurence Young ha escrito un muy interesante libro sobre sus recuerdos y contactos con matemáticos, en su larga vida (1905-2000). El libro es "Mathematicians and their times" y está escrito con un estilo muy particular de Young, que va pasando de un tema a otro con cierto hilo, sembrado de anécdotas e historias.

Leo ahí, en página 300, algo que no conocía: el final trágico de Felix Hausdorff en un tiempo estúpido, en el medio del nazismo de la segunda guerra:

If you study modern mathematics, you will hear of Hausdorff spaces, and perhaps of the Hausdorff-Young inequalities in Fourier series. The spaces were actually introduced in a famous Hilbert footnote, and Hausdorff's part of the inequalities was that of a professional, rather than a pioneer. But he was a great man, and his 1914 book on Set Theory was a masterpiece compared with the previous survey by Schoenfliess. Hausdorff was born in Breslau; his school and early student years were at Leipzig ; he went on to Freiburg and to his doctorate in Berlin in 1891; he married in 1899. He was musical and almost chose music rather than mathematics; he also had a gift for writing, and published verses and a satiric play under a pseudonym -- his sarcasm was later dreaded whenever he was an examiner. Such details I have at second hand: I never met him. He returned to Leipzig in 1902 as associate, declined that position in Goettingen, accepted it in Bonn in 1910, and ended up in 1913 with a professorship at Greisswald, from which he was forcibly retired in 1935. Greisswald was not the greatest university on the world, but Hausdorff was well regarded, and when in World War II the Swiss Government officially asked for permission for him to come to Switzerland, they were assured that he was in no danger. A fortnight later, an informer denounced him. Now nothing could save him. Little places like Greisswald cannot fight the machinery of a State, clamouring for one Jew the less, one fewer aristocrat of intellect, one less elitist. All that could be done was to have him sent to the resienstadt, a place for "better" Jews, a Czech town that had been cleared of its inhabitants. When one Jew was taken there, another was removed. There Hausdorff and his wife committed suicide. It was doubtless regretted, but what is one Jew the less, even if he is a better Jew? What can a mathematician say to such people?

Más adelante, Young escribe:

For a mathematician or a scientist, for anyone who feels a great drive to progress and to evolve,
the freedom that matters lies in the evolution from an ape to something better than a man: this freedom is set back by the loss of a pioneer, whose crime is to have arisen momentarily above a general absurdity.

"¿Qué puede decir un matemático a ese tipo de gente?" Lamentable que la "general absurdity" cada tanto vuelva en la historia humana.

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Publicado el 4 de Mayo, 2011, 11:40

Ya estuve escribiendo que los enteros forman anillo. Es más, forman anillo conmutativo. Veamos hoy que en este anillo en particular podemos encontrar lo que los matemáticos llaman el máximo común divisor de dos elementos. Ya traté el tema el año pasado en Un pequeño ejercicio de teoría de números, donde presenté la demostración de abajo, pero esta vez he escrito más sobre anillos y quisiera usar este post como introducción a otros temas más generales.

Comentaba en ese post que hay demostraciones que se basan en la aplicación repetida del algoritmo de Euclides. No lo voy a usar de esa forma en esta demostración, sino sólo una vez. Pero quiero anotar: están los anillos euclídeos, que tengo que comentar en futuro post. Es interesante notar que no todos los anillos tendrán un algoritmo como el de Euclides. También tengo que mostrar (y demostrar) la factorización única en enteros, y mostrar anillos donde esa factorización única no existe (lo que nos llevará por primera vez cerca del último teorema de Fermat). Pero vayamos hoy por la demostración de m.c.d. (máximo común divisor) en el anillo de enteros.

Sean dos elementos del anillo de enteros, a y b. Escribimos:

(a, b)

para denotar al máximo común divisor de a y de b, un elemento entero c que cumpla con dos puntos:

- c divide al elemento a, y c divide al elemento b
- Si d divide al elemento a, y al elemento b, entonces d divide también a c

Claro, en anillos no hay "división" como operación binaria definida. Decimos que "m divide a n" en un anillo (conmutativo para simplificar) si existe  elemento k, tal que

mk = n

Para encontrar el m.c.d., tenemos que encontrar un elemento que cumpla con los dos puntos de arriba. Dados a y b, formemos todos los números de la forma:

xa + yb

donde x, y recorren todos los enteros. Es un conjunto no vacío, y tiene números naturales. Ahora, aplico una propiedad de los naturales que tendríamos que demostrar, pero hoy la damos por probada. Todo conjunto de números naturales tiene un mínimo. Es decir para un conjunto L de naturales, existe un número natural que es menor o igual que todos los elementos del conjunto, Y ADEMAS, es elemento del conjunto L (veremos más adelante que esa propiedad no se cumpe con los racionales). También me anoto: un conjunto L de naturales ACOTADO tiene un máximo. Pero no vamos a usar esto último en la demo.

Sea

ra + sb = t

ese número mínimo. Demostremos que es divisor de todos los xa + yb. Pues si hubiera uno que no lo fuera, entonces sería de la forma

e = fa + gb  = tn + k

con k como resto. Acá es donde aplicamos Euclides: si es así, siempre podemos encontrar k < t (si me extendiera un poco más, podemos deducir la existencia de resto 0<=k<t apelando a la existencia de mínimo entre los naturales de la forma e-xt, x recorriendo todos los enteros). Estamos aplicando algo que tenemos que demostrar, hoy lo tomamos por dado. Quiero destacar, entonces, que estamos aplicado dos propiedades (resto de Euclides, existencia de mínimo en naturales), que tenemos que demostrar. Y vamos a ver que no todos los anillos tienen estas propiedades. Vean que estamos usando un "<" que no sabemos si va existir en otros anillos (¿cómo pondremos "<" en un anillo de polinomios? ¿y en anillos más complicados?).

Bien, volvamos a la demostración. Si existiera ese número e, entonces, k sería:

k = fa + gb - tn = fa + gb - ra - sb = (f-r)a + (g-s)b

y pertenecería al conjunto que formamos, SIENDO MENOR que t, contra lo supuesto: t era nuestro mínimo natural elemento de ese conjunto. Contradicción. Entonces, nuestra suposición de existenia de e no divisble por t, es falsa. (Vean cómo encontramos en este paso la demostración por absurdo: para probar P, suponemos no P, y si llegamos a contradicción, damos P por probada. Todo esto descansa en una gran suposición: la no generación de contradicciones en nuestro sistema de lógica matemática, gran tema para varios posts ;-)

Queda demostrado que t divide a todos los elementos xa+yb, donde x, y recorren los enteros. Los elementos a y b están en ese conjunto:

a = 1a + 0b
b = 0a + 1b

entonces, t divide a ambos elementos. Ese esa la primera propiedad de (a, b). Vayamos por la segunda. Si el elemento d divide a los elementos a y b, entonces d divide a t, pues divide a ra y a sb,  y dividirá a su suma:

ra + sb = t

Queda demostrada la segunda propiedad esperada de m.c.d. Tenemos forma entonces de demostrar su existencia, necesaria, dados dos a y b cualesquiera del anillo de enteros.

Ahora que ya escribí sobre anillos, puedo agregar:

- Los xa (múltiplos de a) y los yb (múltiples de b) forman lo que se llama un ideal: una especie de "subanillo" sin unidad, cerrado para la suma entre sus elementos y cerrado para  la multiplicación con los elementos de todo el anillo
- Esos ideales se escriben (a) y (b), diciendo que son generados por a, y por b.
- Los elementos xa + ya definen OTRO ideal, que se llama la suma de los iniciales, (a) + (b)
- La gran propiedad que hemos demostrado, es que ese ideal (a) + (b) es igual a un (t). Uno podría esperar que combinar dos "cosas" cada una generada por un elemento distinto, daría una "cosa" con dos generadores. Pero nones. En los enteros, gracias a las dos propiedades que encontramos (resto de Euclides, mínimo en naturales, esta última también se usa en la demostración de la primera propiedad), tenemos este resultado: (a)+(b) es el idea generado por el m.c.d de a y b.

Temas pendientes:

- Ideales en anillos
- Bases para ideales (qué elementos iniciales generar un ideal, si es que existen)
- Demostrar que en el anillo de enteros todos los ideales son generados por un solo elemento, es decir, son de la forma (a) para algún a.
- Factorización única en anillos

Vean cómo, un tema sencillo, el buscar el m.c.d. en enteros, nos abre las puertas a muchos temas en anillos conmutativos generales (también hay ideales en no conmutativos, pero los encontraremos raramente).

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Publicado el 3 de Mayo, 2011, 2:46

Anterior post
Siguiente post

Mientras estaba investigando sobre el estado e historia de las ramas de las matemáticas, me encontré con el excelente libro de Ian Stewart, "De aquí al infinito, las matemáticas de hoy", Editorial Crítica. Fue en ese libro donde me encontré por primera vez, hace años, con temas que no conocía, como polinomios de Jones en nudos, y análisis no estándard. Leo al comienzo del libro:

¿Qué son las matemáticas? ¿Para qué sirven? ¿Qué están haciendo los matemáticos hoy en día? ¿No estaba ya todo hecho hace mucho tiempo? En todo caso, ¿cuántos números nuevos se pueden inventar? ¿Son las matemáticas actuales simplemente algo que consiste en efectuar enormes cálculos, siendo el matemático algo así como un empleado del zoológico empeñado en alimentar y abrevar a sus preciosos ordenadores? Si no es así ¿qué son las matemáticas sino los excesos incomprensibles de unos cerebros superdotados que tiene la cabeza en las nubes y los pies colgando de los altos balcones de sus torres de marfil?

Parte del motivo de esta serie de posts es ir mostrando que matemáticas no es simplemente cálculo con números. Vean lo que escribe Stewart:

Las matemáticas son todo esto y nada de ello. En su mayor parte son completamente diferentes. No son lo que la gente supone. Incluso cuando parece como si fueran lo que se supone que son, basta con volver la espalda un momento para que vayan cambiando. Ciertamente no se limitan a ser un cuerpo de conocimiento inamovible, su desarrollo no se reduce a inventar números nuevos y sus zarcillos ocultos invaden todos los aspectos de la vida moderna.

Stewart comenta que hasta su libro se vió afectado por el avance de las matemáticas. Se publicó por
primera vez en 1987, con el nombre The problems of Mathematics. Pero ya en 1992 se habían producido nuevos descubrimientos fundamentales que hicieron necesaria una segunda edición. Y luego, una tercera en 1995. Ya tiene más de 15 años el libro que estoy leyendo, no quiero imaginarme lo que haya que agregar a sus excelentes temas.

El texto de arriba, es del prefacio. En el primer capítulo "La naturaleza de las matemáticas", encuentro:

Uno de los mayores problemas con que se enfrentan las matemáticas es el de explicar a los demás de qué tratan. Los aderezos técnicos de esta materia, su simbolismo y expresiones formales, su desconcertante terminología, su aparente deleitarse con cálculos larguísimos: todo ello tiende a ocultar su auténtico carácter. Cualquier músico se horrorizaría si oyera decir que su arte no es más que "una multitud de renacuajos dibujados sobre líneas en hilera"; sin embargo, eso es todo lo que el ojo del profano puede distinguir en una página de música.

No es tarea fácil percibir entre los renacuajos la grandeza, la agonía, los vuelos de lirismo y las disonancias de la desesperación. Es cierto que están ahí, pero sólo de forma codificada. Del mismo modo, el simbolismo de las matemáticas no es otra cosa que su forma codificada, no su esencia. También ellas poseen grandeza, agonía y vuelos de lirismo. Existe, sin embargo, una diferencia. Incluso un oyente profano puede disfrutar de una obra musical. Los únicos que tienen que entender las barrabasadas de los renacuajos son los intérpretes. La música tiene un atractivo inmediato para casi todo el mundo. Sin embargo, lo más parecido a un concierto matemático sólo se me ocurre que pudiera ser uno de aquellos torneos de la época renancentista en los que los grandes matemáticos batallaban públicamente defendiendo cada uno sus teorías. Quizá podría valer la pena resucitar aquella idea; no obstante, su atractivo sería más el del combate que el de la música.

Ese es el problema de las matemáticas: no hay "música" para mostrar como resultado. Realmente para apreciarla hay que acercarse a la "la multitud de renacuajos", aunque podemos mostrar los conceptos y desarrollos, como hace Stewart. Pero siempre queda algo afuera de esa apreciación si no nos acercamos a las matemáticas en sí, que es el camino que trato de emprender en mis posts, poco a poco: mostrar el formalismo, pero también los fundamentos, la historia, el "por qué" ha resultado interesante cada rama de las matemáticas.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Publicado el 2 de Mayo, 2011, 6:12

En estos días estuve escribiendo, estudiando y practicando a demostrar propiedades de estructuras, como anillos, cuerpos, y espacios topólogicos, así como a leer sobre historia de las matemáticas (especialmente los excelentes volúmenes de Morris Kline: "El pensamiento matemático de la antigüedad a nuestros días", editorial Alianza).

Es notable cómo se ha avanzado en matemáticas, en distintas épocas de la historia humana. Pero desde comienzos del siglo XIX, para poner una fecha aproximada, se ha ido dando el ascenso de la abstracción, al principio lentamente. Por ejemplo, con algunos trabajos de Gauss en clases de congruencias, los trabajos de Galois y Abel, hacia la segunda mitad del siglo los trabajos de Dedekind y muchos otros más, por ejemplo, Fréchet en topología y análisis funcional; luego Emmy Noether al comienzo de XIX, continuando abstracciones de Dedekind, algunos trabajos de Hilbert, finalmente el alzamiento de Bourbaki, y hasta la teoría de categorías con McLane, y las nuevas ideas de Gothrendieck en geometría algebraica. Y me quedo corto, dejando sin nombrar a muchos que colaboraron en el desarrollo de la abstracción en estos dos últimos siglos.

Por eso, quería compartir dos textos sobre el tema, que leí en estos tiempos, desde mi semana sabática. Uno, en el clásico de Munkres, "Topología":

La definición de espacio topológico, que ahora mismo está estandarizada, tardó mucho tiempo en ser formulada. Varios matemáticos -Fréchet, Hausdorff y otros- propusieron distintas definiciones a lo largo de muchos años en las primeras décadas del siglo veinte, pero fue bastante más tarde cuando los matemáticos establecieron la definición que parecía más apropiada. Querían, por supuesto, una definición que fuera lo más general posible, de manera que incluyera como casos especiales todos los distintos ejemplos que eran útiles en matemáticas -espacio euclídeo, espacio euclídeo de dimensión infinita y espacios de funciones, entre ellos- pero también querían que la definición fuese lo suficientemente estricta para que los teoremas habituales sobre estos espacios familiares se adaptaran a espacios topológicos en general. Este es siempre el problema cuando uno está intentando formular un nuevo concepto matemático, decidir lo general que podría ser su definición. La definición finalmente adoptada puede parecer un poco abstracta, pero a medida en que se trabaje con las distintas formas de construir espacios topológicos, se tendrá una mejor impresión de lo que el concepto significa.

Tengo que escribir sobre esa definición en mi serie sobre topología general. Otro texto, de Kuratowski, "Introducción a la teoría de conjuntos y a la topología", en la introducción a su parte II, Topología:

¿Hasta qué punto debe procurarse la generalidad de los espacios considerados en Topológia para que sean útile en las aplicaciones, y no se hagan demasiado artificiales? La respuesta a esta pregunta depende de los fines a los que se destina un trabajo topológico. ... parece apropiado [en este libro] limitarnos a los espacios llamados métricos... La generalidad de estos espacios basta para la mayoría de sus aplicaciones más importantes; en particular, son espacios métricos los subconjuntos del espacio euclído n-dimensional, los espacios de sucesiones (de Hilbert y Fréchet), y el espacio de las funciones continuas; por otra parte, el concepto de espacio métrico es esencialmente simple y geométricamente claro.

Pues bien, Munkres toma otro camino: los espacios topológicos generales son presentados primeros, y luego los espacios métricos. Por otra parte, Kolmogórov y Fomín, en su "Elementos de la teoría de funciones y del análisis funcional", presentan primero los espacios métricos y luego pasan a los espacios topológicos, como mencioné en Topología General (Parte 1) Introducción.

Pero más allá de la topología, quería destacar dos puntos:

- La influencia de la historia en el desarrollo de las ideas. Lo que hoy leemos en los libros de texto, no siempre fue presentado de esa manera. Los textos de arriba destacan que la definición de espacio topológico tomó décadas. La aparición de la abstracción de la teoría de categorías también llevó su elaboración.

- Vean cómo ambos autores mencionan la "utilidad" de las definiciones, no ir demasiado lejos en la abstracción. Por ejemplo, hay quienes critican a la teoría de categorías por haber ido demasiado lejos en el camino de la abstracción (algunos hablan de "mathematical non-sense").

Post relacionados:

Abstracción y Matemáticas, según Von Neumann
Gauss y la congruencia por E.T.Bell

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Publicado el 1 de Mayo, 2011, 19:15

Ya he comentado en esta serie sobre la realidad, que las cosas pueden ser simples o compuestas. Y hay cosas compuestas que son sistemas: sus partes no son simples asociaciones, sino que tienen una estructura y mecanismos (procesos que modifican o mantienen la cosa compuesta). Leer, por ejemplo:

Cosas, agregación y combinación
Sistemas, mecanismos y vida

Algo que fue apareciendo en los últimos posts es que tenemos sistemas físicos, químicos, sociales. Y hasta mencioné vida. Es tiempo entonces, de comentar hoy el tema niveles.

En un nivel, digamos físico, tenemos electrones, protones, y neutrones. En otro nivel, tenemos composición de esos elementos formando sistemas (no simples rejuntes): átomos, moléculas. Podemos hablar de un nivel químico. Luego, esas moléculas pueden ser cada vez más complejas, y tenemos enzimas, proteínas, ADN, compuestos químicos orgánicos, que terminan constituyendo organismos simplísimos (desde virus a bacterias) y luego organismos multicelulares (cosas compuestas, organismos, con elementos células). Aparece en nuestra discusión el tema de la vida.

Pero ¿qué es un nivel de la realidad? (menciono "nivel de realidad" porque también podemos encontrar niveles en temas conceptuales) Un nivel de la realidad no es una cosa: es una colección de cosas, un conjunto que "armamos" para organizar, separar mejor lo que encontramos en la realidad. Pero no es una simple rejunte: tiene su base en la realidad. Puedo describir:

- Un nivel de la realidad N1 es "anterior" al nivel de la realidad N2 si todas los elementos (cosas) de ese nivel están compuestas de elementos (cosas) del nivel de la realidad N1.

Es por eso que puedo decir: nivel químico (N2), donde sus elementos (moléculas, átomos, iones, podemos discutir la clasificación) son compuestos (agregaría, son sistemas) de elementos del nivel físico (N1), como electrones, protones, neutrones.

Esa composición y relación entre niveles, no es un tema trivial, ni evidente: pasaron siglos para que, como humanos, tuviéramos actividad científica que nos revelara este tipo de composición. Por ejemplo, para Aristóteles y compañía, había una "cadena del ser", pero no era como lo de arriba: Aristóteles no conocía la composición de los organismos, y hasta rechazaba la incipiente teoría atómica de Demócrito y seguidores. Es gracias a la ciencia que hemos llegado a develar la existencia concreta (no solamente vagas intuiciones) de la existencia de niveles en la realidad.

Y agrego más: como comenté en el anterior post, el estudio de los organismos vivos ha sido importante, porque nos ha mostrado dos grandes puntos: lo interesante y complejo que puede ser un nivel superior (el nivel biológico, basado en un nivel químico, orgánico si quieren), y segundo: que los niveles no existieron por siempre. La vida apareció (algo que no estuvo claro por centurias, sino vagamente intuido): no siempre existió el nivel biológico. La cosmología nos ha llevado también a modelos donde el nivel químico no existió desde siempre, sino que apareció.

Pero cada cosa que apareció en un nivel, hasta donde sabemos, se ha explicado por los mecanismos del nivel anterior. Un tema a investigar: emergencia de niveles, emergencia de cosas y sistemas, y algo relacionado: la autoformación de cosas (ejemplo: semilla a árbol, de embrión a organismo).

Como otras veces, mi fuente principal ha sido el beato Bunge, aunque tratando de exponerlo con mis propias palabras y expresiones. Pero esta vez, he consultado el libro Emergencia y convergencia, novedad cualitativa y unidad del conocimiento, editorial Gedisa.

Nos leemos!

Angel "Java" Lopez
http://www.ajlopez.com
http://twitter.com/ajlopez

Por ajlopez, en: Filosofía