Archive for septiembre 2012

Necesitamos la “materia oscura” para que cuadren las cuentas

Esa “materia” podría resolver el problema de las grandes estructuras del Universo. Si en verdad, pudiéramos constatar la existencia de la “Materia Oscura” podríamos asegurar que la mayor parte del Universo estaría compuesto de una clase de materia que no podemos ver. Y, sería lo más natural preguntar, entonces, qué efecto debe tener este descubrimiento sobre el problema de explicar la estructura a gran escala.

 Debajo de esta imagen nos dicen:

“Se llama Materia Oscura a la materia que no emite ni refleja suficiente radiación electromagnética para ser detectada con los medios técnicos actuales pero cuya existencia puede deducirse a partir de los efectos gravitatorios que causa en la materia visible.

Se ha medido la masa total de muchas galaxias y también se ha medido la velocidad a la que giran y parece que lo hacen tan rápido que su masa aparente es insuficiente para mantenerlas sin que se deshagan. Es más, la velocidad de giro de las estrellas es casi constante a partir de cierta distancia del núcleo galáctico e independiente de ésta.  Las estrellas situadas en los bordes galácticos giran casi a la misma velocidad que las que están más cerca del núcleo.

Esto sólo es posible si hay mucha más materia en las galaxias y que está más uniformemente repartida y no concentrada en su núcleo como parece.

Por lo tanto deben tener más masa de la que observamos para que la fuerza centrífuga no acabe por desperdigar las estrellas en todas direcciones. Se calcula que la Vía Láctea tiene unas 10 veces más materia oscura que materia ordinaria.

Lo mismo ocurre con las velocidades orbitales de los cúmulos de galaxias. Son excesivas para las masas que les atribuimos.”

http://universitam.com/academicos/wp-content/uploads/2012/03/materia-oscura.jpg

“3 marzo 2012. Los astrónomos que usan datos del Telescopio Hubble de la NASA han observado lo que parece ser un grupo de materia oscura que es parte de restos de un naufragio entre los cúmulos masivos de galaxias. El resultado podría desafiar las teorías actuales sobre la materia oscura que predicen que las galaxias deberían estar ancladas a la sustancia invisible, incluso durante el choque de una colisión.

Abell 520 es una fusión gigante de cúmulos de galaxias situadas a 2,4 mil millones de años luz de distancia. La materia oscura no es visible, aunque su presencia y la distribución se encuentra indirectamente a través de sus efectos. La materia oscura puede actuar como una lupa, curvar la luz y causar la distorsión de las galaxias y cúmulos detrás de ella. Los astrónomos pueden usar este efecto, llamado lente gravitacional, para inferir la presencia de materia oscura en los cúmulos de galaxias masivas.”

Impresión artística de la distribución de materia oscura que supuestamente debería encontrarse alrededor de la Vía Láctea. Crédito: ESO/L. Calçada.

Informes recientes de la desaparición de la materia oscura pueden ser muy exagerados, según un nuevo artículo de investigadores del Instituto de Estudio Avanzado (IAS).

Un grupo de astrónomos que utilizó telescopios de ESO anunció en abril una sorprendente falta de materia oscura en la galaxia dentro de la vecindad del Sistema Solar.

Un equipo internacional de científicos ha conseguido identificar directamente el primer filamento de materia oscura entre dos agrupaciones de galaxias, la Abell 222 y la Abell 223. Texto completo en: http://actualidad.rt.com/ciencias/view/48568-Autopistas-intergal%C3%A1cticas-detectan-hilo-de-materia-oscura-que-une-a-galaxias
Ante noticias dispares como las que anteceden, al menos a mí, me sorprende mucho y me extraña en alto grado que, los cosmólogos pongan sus esperanzas de comprender el universo en una “materia oscura” tan misteriosa y esquiva, pero eso es lo que está sucediendo exactamente en nuestro días. Y no es que se trate simplemente de agarrarse a un clavo ardiendo: aprovecharnos de nuestra ignorancia de la naturaleza de la materia oscura para adjudicarle todas las propiedades que se requieran para resolver los problemas inmediatos.
De hecho veremos que en realidad no necesitamos conocer los detalles de la manera en que se comporta la materia oscura para comprender cómo puede resolver el problema de la formación de galaxias. Con el reconocimiento de la “Materia Oscura” parece que teenemos la pieza final que necesitábamos para completar el rompecabezas y componer el cuadro de la manera en que el universo llegó a ser lo que es.
La idea básica en cuanto al papel de la materia oscura es fácil de entender. Como ya sabemos, la principal dificultad para poder imaginar como evolucionó el Universo tiene que ver con el hecho de que, si el cosmos entero está hecho de materia normal, la formación de las galaxias njo puede empezar hasta muy avanzado el juego, después de que el universo se ha enfriado hasta el punto en que pueden existir átomos y la radiación se puede desaparejar. Para entonces la expansión Hubble habría diseminado tanto la materia que la Gravedad por sí sóla no sería lo suficientemente fuerte para reunir cúmulos antes de que todo se escapara de su alcance.
Otra cuestión desalentadora relativa a la “Materia Oscura” es que, se llevan a cabo múltiples estudios por distintos equipos y proyectos y, casi ninguno de ellos viene a coincidir con los otros, cada cual, como una desbandada, nos ofrecen un resultado divergente de los demás, no hay manera de ponerlos de acuerdo.
El Hubble detectó materia oscura en 25 cúmulos de galaxias (Foto: Especial NASA, ESA, M. Postman (STScI), and the CLASH Team )

El telescopio espacial Hubble, que operan en conjunto la NASA y la ESA, captó luz torcida de un cúmulo de galaxias por la materia oscura, reportaron astrónomos. Los científicos creen que las formas distorsionadas que fotografiaron dentro del proyecto de investigación Estudio de clusters y supernovas con el Hubble (CLASH, por su acrónimo en inglés de Cluster Lensing And Supernova survey with Hubble)  son causadas por esa misteriosa ‘materia oscura’, de la que se sabe que tiene el doble de gravedad y logra retorcer los rayos de luz. La materia oscura constituye el grueso de la masa del universo, sin embargo, sólo puede detectarse midiendo cómo se curva la luz en el espacio por un efecto de torsión de la gravedad, explicó la agencia espacial estadounidense en un comunicado.

Leyendo estas noticias, no sólo me sorprendo sino que, me deja anonadado, toda vez que, se hacen afirmaciones gratuitas de cuestiones que los cientificos desconocen y se limitan a ponerle al resultado, una etiqueta que ya, de antemano, llevaban preparada. Esto se debería tomar más en serio y no se deben consentir expresiones que, con un furme carácter afirmativo, pretendan otorgar la cateoría de “verdad” a lo que, realmente, se desconoce. Sí, puede que con vistas a la noticia quede mejor pero…es poco serio.

 

 

 

En realidad, la matria oscura no se puede ver, y, sin embargo, los cosmólogos la localizan con facilidad asombrosa y le dan colores en las imágenes para distinguirla de la materia ordinaria, y, siempre, en esas imágenes, me llama la atención que la representen en menor proporción que a la materia Bariónica, cuando dicen que es mucho más abundante la otra.

Una vez que hemos aceptado la idea de que la mayor parte del Universo no está formado por la materia familiar, las dificultades que debemos resolver y para las que no tenemos explicación, pierden algo de fuerza, ya que, llega en su ayuda la “materia oscura” salvadora que saca a los cosmólogo de esa situación tensa en la que no podían dar una explicación de cómo se pudieron formar las galaxias y que, con la materia oscura, todo queda resulto.

Aunque la presión de la radiación, al interaccionar con protones y electrones en el plasma del comienzo del universo, puede realmente impedir la acumulación de la materia ordinaria hasta después de que los átomos se han formado, no hay razón alguna por la que se puede decir lo mismo de la materia oscura. Esta, podría haber dejado de interracionar pronto con la radiación del big bang, por ejemplo, en aquel primer segundo. En tal caso, la “materia oscura” se podría haber acumulado  bajo la influencia de la Gravedad mucho antes de la formación de los átomos. La presión de radiación no impediría este tipo de acumulación, porque la hipótesis sería que ese tipo de radiación no podría presionar sobre la materia oscura como lo hacía con la ordinaria.

 

 

 

Si esto sucedió, entonces, cuando los átomos se formaron finalmente y la materia normal era libre de comenar a agregarse, se encontraría en un universo en el que ya existirían enormes concentraciones de masa. Partículas de materia ordinaria serían fuertemente atraídas a los lugares en que la “materia oscura” ya se había congregado y se movía rápidamente hacia esos puntos.

El proceso sería como derramar agua sobre una superficie horadada por profundos agujeros; el agua correría por los agujeros y la velocidad de su carrera no tendría casi nada que ver con la fuerza que una partícula de agua ejerce sobre otra. Una vez quer la materia ordinaria está libre de la presión de radiación, caerá en los “agujeros” ya creados por la “materia oscura”, y así las galaxias y otras estructuras se pudieron formar despues de que la radiación se desapareje. Todos los razonamientos acerca de la “ventana de tiempo”, que tantos problemas causaron para la formación de las galaxias, quedarían así resultos.

 

 

¿Cuánta <a href=http://www.emiliosilveravazquez.com/blog/2012/09/30/necesitamos-la-materia-oscura-para-que-cuadren-las-cuentas/%22 /></a></div>
<div>            ¿Cuánta <a href=materia oscura hace falta para formar una galaxia?

El descubrimiento es un paso clave  para entender cómo la “materia oscura”, una sustancia invisible que impregna nuestro universo, contribuyó al nacimiento de las galaxias masivas en el universo temprano. La belleza de esta idea es que toma dos problemas -la ventana del tiempo inadecuada para formación de galaxias y la existencia de materia oscura- y los une para conformar una solución al problema central de la estrucutra del Universo. “La Materia Oscura” por hipótesis, tiene una ventana de tiempo mucho más larga que la materia ordinaria, porque se despareja más pronto en el Big Bang. Tiene mucho tiempo para cumularse antes de que la materia ordinaria sea libre para hacerlo. El hecho de que la materia ordinaria caiga entonces en el agujero gravitatorio creado de este modo sirve para explicar porque encontramos galaxias rodeadas por un halo de materia oscura.  La hipótesis mata dos pájaros de un tiro.

Pero debemos recordar que en este punto sólo tenemos una idea que puede funcionar, no una teoría bien construida. Para pasar de la idea a la teoría, tenemos que responder dos preguntas importantes y difíciles:

1. ¿Cómo explica la estructura la materia oscura?

2. ¿Qué es la materia oscura?

Debajo de esta imagen, sin ningún pudor, nos ponen:

“La detección de estos fósiles estelares inmensa confirma las predicciones del modelo de la materia oscura fría de la cosmología, que propone que la actual gran diseño de las galaxias espirales se formaron a partir de la fusión de sistemas estelares menos masivos.

La estructura de escombros envuelve a la galaxia NGC 5907, situada a 40 millones de años luz de la Tierra y formada a partir de la destrucción de una de sus galaxias enanas satélites por lo menos cuatro mil millones de años. Según el equipo de investigación, la galaxia enana ha perdido la mayor parte de su masa en forma de estrellas, cúmulos estelares y materia oscura, que ha quedado distribuido a lo largo de su órbita, dando lugar a un conjunto complicado de entrecruzamiento los fósiles galácticos cuyo radio supera los 150 000 años luz.”

Nos hablan de materia oscura fría y caliente en función (según dicen) de a qué velocidad se muevan las partícuals: Los neutrinos podrían formar parte de la “materia oscura caliente”. Sin embargo, nos encontramos que, según parece, estas partículas no tienen masa, o, apenas la tienen, lo que platea un gran problema para rellenar tan ingente cantidad de materia como dicen que es la que está presente en el Universo.

Energía oscura. Desde que hace 13.700 millones de años nació en una gran explosión, el universo se expande, como un globo que se hincha, y las galaxias se alejan unas de otras. Así seguiría hasta que, si hubiera suficiente masa, la atracción gravitatoria haría que en algún momento empezara a replegarse y acabaría de nuevo todo comprimido. Caso de no haber suficiente masa en el cosmos, la expansión no cesaría nunca. Hace 14 años, unos científicos se llevaron la gran sorpresa: la expansión del universo, en lugar de ralentizarse, se acelera. Los datos vencieron el escepticismo inicial, y hasta tal punto el descubrimiento se considera sensacional que se llevó el último Premio Nobel de Física. Se ha denominado la energía oscura, pero nadie sabe qué es lo que está actuando para producir esa aceleración de la expansión.

Claro que de todo esto, con tántas implicaciones inmersas en el problema, tendríamos que estar años discutiendo y observando, programando modelos cada vez más certeros, sofisticados y reales que, nos dijeran ¿cuánta materia materia realmente tiene que haber en el Universo? y, sabiendo cuánta es la Bariónica, por eliminación, sabríamos la cantiodad exacta de la “otra” si es que, realmente existe.

Además de los neutrinos masivos, yo también descartaría a los WIMPs como candidatos a esa “materia oscura” que tanto se pregona pero que nadie encuentra. El estado de la cuestión es que, difícilmente podríamos encontrar a un cosmólogo que no fuera partidario de la existencia de la materia oscura pero, el problema es adjudicar la autoria de la misma a ¿qué candidato? En este caso, nos aparecen los Axiones y fotinos…acompañados de muchos más.  Y, en esa tesitura, debemos concluir que, la “materia oscura” si es que existem debe estar conformada de alguna manera que desconocemos y, lo mismo que se buscaron a los neutrinos masivos, también se inventaron a los WIMPs (Partícula Masiva de Interacción Débil). Claro que, el mayor número de candidatos para la materia oscura surge de un principio comocido como supersimetría.

Las teorías que presuponen la supersimetría son aquellas que unifican las cuatro fuerzas; las teorías últimas que gobiernan el primer instante de la vida del Universo (TOE o Teoría de todas las Cosas). Pero, ¿qué es la supersimetría? Cuando la materia se rompe en sus constituyentes últimos, reconocemos dos tipos de partículas elementales. En primer lugar están los Quarks y partículas como el Electrón (leptones) que constituyen la materia sólida. Estas partículas están agrupadas bajo el término general de “fermiones”. Se caracterizan por el hecho de que giran alrededor de sus ejes de rotación a ritmos que son fracciones semienteras de una unidad básica de rotación. En otras palabras, tienen un espín 1/2,  3/2, etc., pero nunca 1, 2, …

La segunda clase de partículas se llaman Bosones y su espines son 0, 1, 2, etc. Ya hemos explicado aquí muchas veces sus propiedades y particularidades que, ahora, para este cometido de la materia oscura, no viene al caso. El caso es que, en mundo donde los fermiones y los bosones se rigieran por las mismas reglas, sería supersimétrico. Sería un mundo de simplicidad total, porque sólo habría un tipo de partícula, y constituiría la estructura como la fuerza. El modo más prometedor de comprender los orígenes del universo parece implicar teorías que postulan que todo comenzó en un estado supersimétrico.

En realidad, la supersimetría está presente por todo el Universo

¿Habrá un Universo en la sombra?

Las cuerdas podrían estar presentes por todo el Universo ramificadas por el espacio

Me ha quedado por explicar alguna cosa sobre otro candidato a “materia oscura”  La Cuerda Cósmica que, en sí misma, requiere un capítulo para ella sola. Es un objeto surgido en los primeros momentos del Big bang, cuando el universo sólo tenía una edad de 10-35 segundos, cuando la fuerza fuerte se congeló y el universo se infló. Las cuerdas podrían ser un subproducto del proceso mismo de congelación.

La gran masa de esas cuerdas nos dice que se tuvo que formar en los primeros instantes, cuando la temperatura era muy grande y las enegías inmensas como para poder crear objetos exóticos que, como las cueras cósmicas pudieran tener unas densidades “infinitas” y estar situadas a lo largo de todo el universo como filamentos entre galaxias conectándolas las unas a las otras. En primer lugar, las cuerdas son muy masivas y muy delgadas; la anchura de una cuerda es mucho menor que la de un protón, pongamos por caso. Las cuerdas no llevan carga eléctrica, así que no interaccionan con la radiación como las partículas ordinarias. Aparecen en todas las formas; largas líneas ondulantes, lazos vibrantes, espirales tridimensionales, etc. Está claro que las cuerdas son candidatos perfectos para la msteria oscura.  Ejercen una atracción gravitatoria, pero no pueden ser rotas por la presión de la radiación en los inicios del universo.

¡Es todo tan complejo! ¡Sabemos aún tan poco! Y, precisamente esa falta de conocimiento nos lleva (lleva a algunos) a elucubrar con la existencia de bosones que venden materia y “materia” que nadie ha visto ni se conoce como la más presente y abundante en nuestro Universo. ¡Qué cosas!

emilio silvera

¿Que pasa en las estrellas?

La región de formación estelar S106

 

Es cierto que cuando vemos las cosas con cierta asiduidad y de forma permanente, esa cotidianidad nos hace perder la perspectiva y no pensamos en lo que realmente esas cosas pueden ser y, con las estrellas nos ocurre algo similar, ya que son algo más, mucho más, que simples puntitos luminosos que brillan en la oscuridad de la noche. Una estrella es una gran bola de gas luminoso que, en alguna etapa de su vida, produce energía por la fusión nuclear del hidrógeno para formar helio. El término estrella por tanto, no sólo incluye estrellas como nuestro Sol, que están en la actualidad quemando hidrógeno, sino también protoestrellas, aún no lo suficientemente calientes como para que dicha combustión haya comenzado, y varios tipos de objetos evolucionados como estrellas gigantes y supergigantes, que están quemando otros combustibles nucleares, o las enanas blancas y las estrellas nucleares, que están formadas por combustible nuclear gastado.

Estrellas masivas que expulsan gases, ya que, cuando la masa es muy grande, su propia radiación las puede destruir y, de esta manera, descongestionan la tensión y evitan un final anticipado. Arriba teneis una estrella supermasiva que ha expulsado gases formando una nebulosa para evitar su muerte, Eta Carinae ha hecho lo mismo. Estas son estrellas que estám congestionadas y, sólo la expulsión de material la puede aliviar y conseguir que siga brillando como estrella evitando explotar como supernova.

Se calcula que la masa máxima de una estrella es de unas 120 masas solares, por encima de la cual sería destruida por su propia radiación. La masa mínima es de 0,08 masas solares; por debajo de ella, los objetos no serían lo suficientemente calientes en sus núcleos como para que comience la combustión del hidrógeno, y se convertirían en enanas marrones.

De la misma forma que al calentar una pieza de metal cambia de color, al principio rojo, luego amarillo hasta llegar al blanco, el color de una estrella varia según su temperatura superficial. Las estrellas más frías son las rojas, y las mas calientes las azules. Estos colores suelen percibirse a simple vista, como por ejemplo Antares (la estrella principal de Scorpius) que es de color rojo, o Rigel (en Orion) de color azul. En astronomía se utiliza la escala Kelvin para indicar temperaturas, donde el cero absoluto es -273 grados Celsius.

El diagrama de Hertzsprung-Russell (arriba) proporcionó a los astrónomos un registro congelado de la evolución de las estrerllas, el equivalente astrofísico del registro fósil que los geólogos estudian en los estratos rocosos. Presumiblemente, las estrellas evolucinan de algún modo, pasan la mayor parte de su tiempo en la serie principal (la mayoría de las estrellas en la actualidad, en el brevísimo tiempo que tenemos para observar, se encuentran allí), pero empiezan y terminan su vida en alguna otra parte, entre las ramas o en el mantillo. Por supuesto, no podemos esperar para ver que esto sucede, pues el tiempo de vida, aún de estrellas de vida corta, se mide en millones de años. Hallar la respuesta exigirá conocer la física del funcionamiento estelar.

El progreso en física, mientras tanto, estaba bloqueado por una barrera aparentemente insuperable. Esto era literal: el agente responsable era conocido como la Barrera de Coulomb, y por un tiempo frustró los esfuerzos de los físicos teóricos para comprender cómo la fusión nuclear podía producir energía en las estrellas.

http://traslaeradeplanck.files.wordpress.com/2011/01/mosaiccintorio_martinez.jpg

La barrera de Coulomb, denominado a partir de la ley de Coulomb, nombrada así del físico Charles-Augustin de Coulomb (1736–1806), es la barrera de energía debida a la interacción electrostática que el núcleo atómico debe superar para experimentar una reacción nuclear. Esta barrera de energía es proporcionada por la energía potencial electrostática:

U_{coul} = k {{q_1\,q_2} \over r}={1 \over {4 \pi \e<a href=psilon_0}}{{q_1 \, q_2} \over r}" />

donde:

k es la constante de Coulomb = 8.9876×109 N m² C−2;
ε0 es la permeabilidad en el vacío;
q1, q2 son las cargas de las partículas que interactúan;
r es el radio de interacción.

Un valor positivo de U es debido a una fuerza de repulsión, así que las partículas que interactúan están a mayores niveles de energía cuando se acercan. Un valor negativo de la energía potencial U indica un estado de ligadura, debido a una fuerza atractiva. La linea de razonamiento que conducía a esta barrera era impecable. Las estrellas están formadas en su mayor parte por hidrógeno. Esto se hace evidente en el estudio de sus espectros.) El núcleo del átomo de hidrógeno consiste en un sóoo protón, y el protón contiene casi toda la masa del átomo. (Sabemos esto por los experimentos de Rutherford explicados aquí en otra ocasión). Por tanto, el protón también debe contener casi toda la energía latente del átomo de hidrógeno.

(Recordemos que la masa es igual a la Energía: E = mc2. (En el calor de una estrella los protones son esparcidos a altas velocidades -el calor significa que las partículas involucradas se mueven rápidamente- y, como hay muchos protones que se apiñam en el núcleo denso de una estrella, deben de tener muchísimos choques. En resumen, la energía del Sol y las estrellas, puede suponerse razonablemente, implica las interacciones de los protones. esta era la base de conjetura de Eddintong de que la fuente de la energía estelar “difícilmente puede ser otra cosa que energía subatómica, la cual, como se sabe, existe en abundancia en toda la materia”.

A ese punto, todo iba bienM la ciencia estaba cerca de identificar la fusión termonuclear como el secreto de la energía solar. Pero aquí era donde intervenía la Barrera de Coulomb. Los protones están cargados positivamente; las partículas de igual carga se repelen entre sí; y este obstáculo parecía demasiado grande  para ser superado, aun a la elevada velocidad a la que los protones se agitaban en el intenso calor del centro de las estrellas. De acuerdo con la física clásica, muy raras veces podían dos protones de una estrella ir con la rapidez suficiente para romper las murallas de sus campos de fuerza electromágnéticos y fundirse en un sólo núcleo. Los cálculos decían que la tasa de colisión de protones no podía bastar para mantener las reacciones de fusión. Sin embargo, allí estaba el Sol, con su rostro radiante y sonriente al ver el esfuerzo y las ecuaciones que decían que no podía brillar.

Dejemos aquí este proceso y digamos que, realmente, la mayoría de las veces el protón rebotará en la Barrera de Coulomb, pero de cuando en cuando la atravesará. Este es el “Efecto Túnel Cuántico”; que permite brillar a las estrellas. George Gamow, ansioso de explotar las conexiones entre la astronomía y la nueva física exótica a la que era adepto, aplicó las probabilidades cuánticas a la cuestión de la fusión nuclear en las estrellas y descubrió que los protones pueden superar la Barrera de Coulomb, o casi. El efecto túnel cuántico se hizo cargo de los cálculos de la desalentadora predicción clásica, que establecia la fusión de los protones a sólo una milésima de la tasa necesaria para explicar la energía liberada por el Sol, y la elevó a una décima de la tasa necesaria. Luego se tardó menos de un año para dar cuenta del deficit restante: la solución fue completada en 1929, cuando Robert Atkinson y Fritz Houterman combinaron los hallazgos de Gamow con lo que se ha llamado teoría maxwelliana de la distribución de velocidades. En la distribución maxwelliana hay siempre unas pocas partículas que se mueven mucho más rápidamente que la media y, Robert Atkinson y Fritz Houterman hallaron que estas pocas partículas veloces bastqaban para compensar la diferencia. Finalmente se hizo claro como podía romperse la Barrera de Coulomb suficientemente a menudo para que la fusión nuclear se produjese en las estrellas.

Physicist Hans Bethe

Pero la figura clave en todos estos desarrollos fue Hans Bhete, un refugiado de la Alemania nazi que había estudiado con Fermi en Roma y fue a enseñar en Cornell en EE. UU. Como su amigo Gamow, el joven Bhete era un pensador efervescente y vivaz, con tanto talento que parecía hacer su trabajo como si de un juego se tratara. Aunque no preparado en Astronomía, Bhete era un estudioso de legendaria rapidez. En 1938 ayudó al discipulo de Gamow y Edward Teller, C.L. Critchfield, a calcular una reacción que empezase con la colisión de dos protones podía generar aproximadamente la energía irradiada por el Sol, 3,86 x 1033 ergios por segundo. Así, en un lapso de menos de cuarenta años, la humanidad había progresado de la ignorancia de la existencia misma de los átomos a la comprensión del proceso de fusión termonuclear primaria que suministra energía al Sol.

Pero la reacción protón. protón no era bastante energética para explicar la luminosidad muy superior de estrellas mucho más grandes que el Sol, estrellas como las supergigantes azules de las Pléyades, que ocupan las regiones más altas del diagrama de Herptzsprung-Russell. Bhete puso remedio a esto antes de que terminase aquel el año 1938.

En abril de 1938, Bhete asistió a una conferencia organizada por  Gamow y Teller que tenía el objeto de que físicos y astrónomos trabajaran juntos en la cuestión de la generación de energía en las estrellas. “Allí, los astrofísicos nos dijeron a los físicos todo que sabían sobre la constitución interna de las estrellas -recordoba Bhete-. esto era mucho (aunque) habían obtenido todos los resultados sin conocimiento de la fuente específica de energía.” De vuelta a Cornell, Bhete abordó el problema con celeridad y, en cuestión de semanas logró identificar el ciclo del Carbono, la reacción de fusión crítica que da energía a las estrellas que tiene más de una vez y media la masa del Sol.

Bhete que estaba falto de dinero, retiró el artículo que escribió sobre sus hallazgos y que ya tenía entragado en la Revista Physical Review, para entregarlo en un Concurso postulado por la Academía de Ciencias de Nueva York  sobre la producción de energía en las estrellas. Por supuesto, Bhete ganó el primer Premio uy se llevó los 500 dolares que le sirvieron para que su madre pudiera emigrar a EE UU. Después lo volvió a llevar a la Revista que lo publicó y, finalmente, se lo publicaron y tal publicación le hizo ganar el Nobel. Por un tiempo, Bhete había sido el único humano que sabía por qué brillan las estrellas.

http://bibliotecadeinvestigaciones.files.wordpress.com/2010/07/estrellas.jpg

Cuando miramos al cielo y podemos contemplar extasiados esas maravillas que ahí arriba, en el espacio interestelar están brillando, y, nos da la sensación de que están hacièndonos guiños, como si quisieran mandarnos un mensaje, decirnos algo y nosotros, no pensamos en todo lo que ahí, en esos “puntitos brillantes” se está fraguando. De lo que allí ocurre, depende que los mundos tengan los materiales que en ellos están presentes y, de entre esos materiales, se destacan aquellos que por su química biológica, permiten que se pueda formar la vida a partir de unos elementos que se hiceron en los hornos nucleares de las estrellas.

Y sí, es curioso que, mirando en la oscura noche como brillan las estrellas del cielo, nos atrae su titilar engañoso (es la atmósfera terrestre la que hace que lo parezca) y su brillo, Sin embargo, pocos llegan a pensar en lo que verdaderamente está allí ocurriendo. Las transformaciones de fase por fusión no cesan. Esta transformación de materia en energía es consecuencia de la equivalencia materia-energía, enunciada por Albert Einstein en su famosa fórmula E=mc2; donde E es la energía resultante, m es la masa transformada en energía, y c es la velocidad de la luz (300 000 kilómetros por segundo). La cantidad de energía que se libera en los procesos de fusión termonuclear es fabulosa. Un gramo de materia transformado íntegramente en energía bastaría para satisfacer los requerimientos energéticos de una familia mediana durante miles de años.

Es un gran triunfo del ingenio humano el saber de qué, están confomadas las estrellas y qué materiales se están forjando allí, al inmenso calor de sus núcleos. Recuerdo aquí a aquel Presidente de la Real Society de Londres que, en una reunión multitudinaria, llegó a decir: “Una cosa está clara, nunca podremos saber de qué están hechas las estrellas”. El hombre se vistió de gloria con la, desde entonces, famosa frase. Creo que nada, con tiempo por delante, será imposible para nosotros.

http://img.seti.cl/sol02.jpg

A nuestro planeta sólo llega una ínfima fracción del calor que se genera en el Sol y, sin embargo, es más que suficiente para mantener aquí la vida. El Sol tiene materia que supone la misma que tendrían 300.000 Tierras. Nuestra estrella madre está situada a una UA (150 millones de kilómetros de nosotros) y, todas esas circunstancias y otras muchas, hacen que todo sea tal como lo vemos a nuestro alrededor. Si cualquiera de esos parámetros fuera diferente o variara tan sólo unas fracciones, seguramente la Tierra sería un planeta muerto y, nosotros, no estaríamos aquí. Sin embargo… ¡Estamos! y, gracias a ello, se pueden producir descubrimientos como los que más arriba hemos relatado y han podido y pueden existir personajes de cuyas mentes surgen ideas creadoras que nos llevan a saber cómo son las cosas.

Lo cierto es que, cada día sabemos mejor como funciona ma Naturaleza que, al fin y al cabo, es la que tiene todas las respuestas que necesitamos conocer.

emilio silvera

¿Que pasa en las estrellas?

La región de formación estelar S106

 

Es cierto que cuando vemos las cosas con cierta asiduidad y de forma permanente, esa cotidianidad nos hace perder la perspectiva y no pensamos en lo que realmente esas cosas pueden ser y, con las estrellas nos ocurre algo similar, ya que son algo más, mucho más, que simples puntitos luminosos que brillan en la oscuridad de la noche. Una estrella es una gran bola de gas luminoso que, en alguna etapa de su vida, produce energía por la fusión nuclear del hidrógeno para formar helio. El término estrella por tanto, no sólo incluye estrellas como nuestro Sol, que están en la actualidad quemando hidrógeno, sino también protoestrellas, aún no lo suficientemente calientes como para que dicha combustión haya comenzado, y varios tipos de objetos evolucionados como estrellas gigantes y supergigantes, que están quemando otros combustibles nucleares, o las enanas blancas y las estrellas nucleares, que están formadas por combustible nuclear gastado.

Estrellas masivas que expulsan gases, ya que, cuando la masa es muy grande, su propia radiación las puede destruir y, de esta manera, descongestionan la tensión y evitan un final anticipado. Arriba teneis una estrella supermasiva que ha expulsado gases formando una nebulosa para evitar su muerte, Eta Carinae ha hecho lo mismo. Estas son estrellas que estám congestionadas y, sólo la expulsión de material la puede aliviar y conseguir que siga brillando como estrella evitando explotar como supernova.

Se calcula que la masa máxima de una estrella es de unas 120 masas solares, por encima de la cual sería destruida por su propia radiación. La masa mínima es de 0,08 masas solares; por debajo de ella, los objetos no serían lo suficientemente calientes en sus núcleos como para que comience la combustión del hidrógeno, y se convertirían en enanas marrones.

De la misma forma que al calentar una pieza de metal cambia de color, al principio rojo, luego amarillo hasta llegar al blanco, el color de una estrella varia según su temperatura superficial. Las estrellas más frías son las rojas, y las mas calientes las azules. Estos colores suelen percibirse a simple vista, como por ejemplo Antares (la estrella principal de Scorpius) que es de color rojo, o Rigel (en Orion) de color azul. En astronomía se utiliza la escala Kelvin para indicar temperaturas, donde el cero absoluto es -273 grados Celsius.

El diagrama de Hertzsprung-Russell (arriba) proporcionó a los astrónomos un registro congelado de la evolución de las estrerllas, el equivalente astrofísico del registro fósil que los geólogos estudian en los estratos rocosos. Presumiblemente, las estrellas evolucinan de algún modo, pasan la mayor parte de su tiempo en la serie principal (la mayoría de las estrellas en la actualidad, en el brevísimo tiempo que tenemos para observar, se encuentran allí), pero empiezan y terminan su vida en alguna otra parte, entre las ramas o en el mantillo. Por supuesto, no podemos esperar para ver que esto sucede, pues el tiempo de vida, aún de estrellas de vida corta, se mide en millones de años. Hallar la respuesta exigirá conocer la física del funcionamiento estelar.

El progreso en física, mientras tanto, estaba bloqueado por una barrera aparentemente insuperable. Esto era literal: el agente responsable era conocido como la Barrera de Coulomb, y por un tiempo frustró los esfuerzos de los físicos teóricos para comprender cómo la fusión nuclear podía producir energía en las estrellas.

http://traslaeradeplanck.files.wordpress.com/2011/01/mosaiccintorio_martinez.jpg

La barrera de Coulomb, denominado a partir de la ley de Coulomb, nombrada así del físico Charles-Augustin de Coulomb (1736–1806), es la barrera de energía debida a la interacción electrostática que el núcleo atómico debe superar para experimentar una reacción nuclear. Esta barrera de energía es proporcionada por la energía potencial electrostática:

U_{coul} = k {{q_1\,q_2} \over r}={1 \over {4 \pi \e<a href=psilon_0}}{{q_1 \, q_2} \over r}" />

donde:

k es la constante de Coulomb = 8.9876×109 N m² C−2;
ε0 es la permeabilidad en el vacío;
q1, q2 son las cargas de las partículas que interactúan;
r es el radio de interacción.

Un valor positivo de U es debido a una fuerza de repulsión, así que las partículas que interactúan están a mayores niveles de energía cuando se acercan. Un valor negativo de la energía potencial U indica un estado de ligadura, debido a una fuerza atractiva. La linea de razonamiento que conducía a esta barrera era impecable. Las estrellas están formadas en su mayor parte por hidrógeno. Esto se hace evidente en el estudio de sus espectros.) El núcleo del átomo de hidrógeno consiste en un sóoo protón, y el protón contiene casi toda la masa del átomo. (Sabemos esto por los experimentos de Rutherford explicados aquí en otra ocasión). Por tanto, el protón también debe contener casi toda la energía latente del átomo de hidrógeno.

(Recordemos que la masa es igual a la Energía: E = mc2. (En el calor de una estrella los protones son esparcidos a altas velocidades -el calor significa que las partículas involucradas se mueven rápidamente- y, como hay muchos protones que se apiñam en el núcleo denso de una estrella, deben de tener muchísimos choques. En resumen, la energía del Sol y las estrellas, puede suponerse razonablemente, implica las interacciones de los protones. esta era la base de conjetura de Eddintong de que la fuente de la energía estelar “difícilmente puede ser otra cosa que energía subatómica, la cual, como se sabe, existe en abundancia en toda la materia”.

A ese punto, todo iba bienM la ciencia estaba cerca de identificar la fusión termonuclear como el secreto de la energía solar. Pero aquí era donde intervenía la Barrera de Coulomb. Los protones están cargados positivamente; las partículas de igual carga se repelen entre sí; y este obstáculo parecía demasiado grande  para ser superado, aun a la elevada velocidad a la que los protones se agitaban en el intenso calor del centro de las estrellas. De acuerdo con la física clásica, muy raras veces podían dos protones de una estrella ir con la rapidez suficiente para romper las murallas de sus campos de fuerza electromágnéticos y fundirse en un sólo núcleo. Los cálculos decían que la tasa de colisión de protones no podía bastar para mantener las reacciones de fusión. Sin embargo, allí estaba el Sol, con su rostro radiante y sonriente al ver el esfuerzo y las ecuaciones que decían que no podía brillar.

Dejemos aquí este proceso y digamos que, realmente, la mayoría de las veces el protón rebotará en la Barrera de Coulomb, pero de cuando en cuando la atravesará. Este es el “Efecto Túnel Cuántico”; que permite brillar a las estrellas. George Gamow, ansioso de explotar las conexiones entre la astronomía y la nueva física exótica a la que era adepto, aplicó las probabilidades cuánticas a la cuestión de la fusión nuclear en las estrellas y descubrió que los protones pueden superar la Barrera de Coulomb, o casi. El efecto túnel cuántico se hizo cargo de los cálculos de la desalentadora predicción clásica, que establecia la fusión de los protones a sólo una milésima de la tasa necesaria para explicar la energía liberada por el Sol, y la elevó a una décima de la tasa necesaria. Luego se tardó menos de un año para dar cuenta del deficit restante: la solución fue completada en 1929, cuando Robert Atkinson y Fritz Houterman combinaron los hallazgos de Gamow con lo que se ha llamado teoría maxwelliana de la distribución de velocidades. En la distribución maxwelliana hay siempre unas pocas partículas que se mueven mucho más rápidamente que la media y, Robert Atkinson y Fritz Houterman hallaron que estas pocas partículas veloces bastqaban para compensar la diferencia. Finalmente se hizo claro como podía romperse la Barrera de Coulomb suficientemente a menudo para que la fusión nuclear se produjese en las estrellas.

Physicist Hans Bethe

Pero la figura clave en todos estos desarrollos fue Hans Bhete, un refugiado de la Alemania nazi que había estudiado con Fermi en Roma y fue a enseñar en Cornell en EE. UU. Como su amigo Gamow, el joven Bhete era un pensador efervescente y vivaz, con tanto talento que parecía hacer su trabajo como si de un juego se tratara. Aunque no preparado en Astronomía, Bhete era un estudioso de legendaria rapidez. En 1938 ayudó al discipulo de Gamow y Edward Teller, C.L. Critchfield, a calcular una reacción que empezase con la colisión de dos protones podía generar aproximadamente la energía irradiada por el Sol, 3,86 x 1033 ergios por segundo. Así, en un lapso de menos de cuarenta años, la humanidad había progresado de la ignorancia de la existencia misma de los átomos a la comprensión del proceso de fusión termonuclear primaria que suministra energía al Sol.

Pero la reacción protón. protón no era bastante energética para explicar la luminosidad muy superior de estrellas mucho más grandes que el Sol, estrellas como las supergigantes azules de las Pléyades, que ocupan las regiones más altas del diagrama de Herptzsprung-Russell. Bhete puso remedio a esto antes de que terminase aquel el año 1938.

En abril de 1938, Bhete asistió a una conferencia organizada por  Gamow y Teller que tenía el objeto de que físicos y astrónomos trabajaran juntos en la cuestión de la generación de energía en las estrellas. “Allí, los astrofísicos nos dijeron a los físicos todo que sabían sobre la constitución interna de las estrellas -recordoba Bhete-. esto era mucho (aunque) habían obtenido todos los resultados sin conocimiento de la fuente específica de energía.” De vuelta a Cornell, Bhete abordó el problema con celeridad y, en cuestión de semanas logró identificar el ciclo del Carbono, la reacción de fusión crítica que da energía a las estrellas que tiene más de una vez y media la masa del Sol.

Bhete que estaba falto de dinero, retiró el artículo que escribió sobre sus hallazgos y que ya tenía entragado en la Revista Physical Review, para entregarlo en un Concurso postulado por la Academía de Ciencias de Nueva York  sobre la producción de energía en las estrellas. Por supuesto, Bhete ganó el primer Premio uy se llevó los 500 dolares que le sirvieron para que su madre pudiera emigrar a EE UU. Después lo volvió a llevar a la Revista que lo publicó y, finalmente, se lo publicaron y tal publicación le hizo ganar el Nobel. Por un tiempo, Bhete había sido el único humano que sabía por qué brillan las estrellas.

http://bibliotecadeinvestigaciones.files.wordpress.com/2010/07/estrellas.jpg

Cuando miramos al cielo y podemos contemplar extasiados esas maravillas que ahí arriba, en el espacio interestelar están brillando, y, nos da la sensación de que están hacièndonos guiños, como si quisieran mandarnos un mensaje, decirnos algo y nosotros, no pensamos en todo lo que ahí, en esos “puntitos brillantes” se está fraguando. De lo que allí ocurre, depende que los mundos tengan los materiales que en ellos están presentes y, de entre esos materiales, se destacan aquellos que por su química biológica, permiten que se pueda formar la vida a partir de unos elementos que se hiceron en los hornos nucleares de las estrellas.

Y sí, es curioso que, mirando en la oscura noche como brillan las estrellas del cielo, nos atrae su titilar engañoso (es la atmósfera terrestre la que hace que lo parezca) y su brillo, Sin embargo, pocos llegan a pensar en lo que verdaderamente está allí ocurriendo. Las transformaciones de fase por fusión no cesan. Esta transformación de materia en energía es consecuencia de la equivalencia materia-energía, enunciada por Albert Einstein en su famosa fórmula E=mc2; donde E es la energía resultante, m es la masa transformada en energía, y c es la velocidad de la luz (300 000 kilómetros por segundo). La cantidad de energía que se libera en los procesos de fusión termonuclear es fabulosa. Un gramo de materia transformado íntegramente en energía bastaría para satisfacer los requerimientos energéticos de una familia mediana durante miles de años.

Es un gran triunfo del ingenio humano el saber de qué, están confomadas las estrellas y qué materiales se están forjando allí, al inmenso calor de sus núcleos. Recuerdo aquí a aquel Presidente de la Real Society de Londres que, en una reunión multitudinaria, llegó a decir: “Una cosa está clara, nunca podremos saber de qué están hechas las estrellas”. El hombre se vistió de gloria con la, desde entonces, famosa frase. Creo que nada, con tiempo por delante, será imposible para nosotros.

http://img.seti.cl/sol02.jpg

A nuestro planeta sólo llega una ínfima fracción del calor que se genera en el Sol y, sin embargo, es más que suficiente para mantener aquí la vida. El Sol tiene materia que supone la misma que tendrían 300.000 Tierras. Nuestra estrella madre está situada a una UA (150 millones de kilómetros de nosotros) y, todas esas circunstancias y otras muchas, hacen que todo sea tal como lo vemos a nuestro alrededor. Si cualquiera de esos parámetros fuera diferente o variara tan sólo unas fracciones, seguramente la Tierra sería un planeta muerto y, nosotros, no estaríamos aquí. Sin embargo… ¡Estamos! y, gracias a ello, se pueden producir descubrimientos como los que más arriba hemos relatado y han podido y pueden existir personajes de cuyas mentes surgen ideas creadoras que nos llevan a saber cómo son las cosas.

Lo cierto es que, cada día sabemos mejor como funciona ma Naturaleza que, al fin y al cabo, es la que tiene todas las respuestas que necesitamos conocer.

emilio silvera

Cosas de Física a petición del un Centro Escolar

Acoplamiento espín órbita:

El pequeño cuadrado verde en esta imagen marca el punto cero grados de latitud y 180 º de longitud en la superficie de Mercurio. Este es una de los dos “polos calientes” de Mercurio . El otro es en la latitud 0 ° y 0 ° de longitud. La excéntrica órbita de Mercurio y el acoplamiento espín-órbita se combinan de modo que uno u otro de estos “polos calientes” apunta hacia el Sol cuando Mercurio pasa más cerca del Sol en su órbita, y este se encuentra arriba ya en estos puntos que en cualquier otro lugar del planeta… Pero, lo que quierp decir es que…

Es Interacción entre el momento angular orbital y el momento angular de espín de una partícula individual, como un electrón. Para los átomnos ligeros, el acoplamiento espín-órbita es pequeño, de manera que los multipletes de los átomos de muchos electrones se describen por el acoplamiento de Russell-Saunders. Para los átomos pesados, el acoplamiento espín-órbita es grande, de forma que los multipletes de los átomos de muchos electrones se describen por el acoplamiento i-i. Para los átomos de tamaño medio las magnitudes de las energías asociadas con el acoplamiento espín-órbita son comparables a las magnitudes de las energías asociadas con la repulsión electrostática entre los electrones, estando los multipletes descritos en este caso por un acoplamiento intermedio. El de espín-órbita es grande en muchos núcleos, particularmente en los nñucleos pesados.

Empezaremos considerando a un electrón girando sobre sí mismo como si fuese un trompo, una imagen que representa una buena simbolización del momento angular de spin de dicha partícula. El mismo electrón además de poseer este momento angular intrínseco posee también otro tipo de momento angular al estar atrapado orbitalmente como parte de un átomo:

Aunque ambos momentos angulares son cosa aparte, aceptemos que poseen la característica de poder acoplarse para dar origen a nuevas líneas en el espectro, las cuales no pueden ser explicadas sin la presunción de ese acoplamiento. Por acoplamiento entendemos la suma de los momentos angulares, orbital y de spin, y dándoles a estas cantidades una cualidad pseudo-vectorial al igual que como se acostumbra a hacerlo en la mecánica clásica, el momento angular total J se define como la suma “vectorial” del momento angular de spin S y el momento angular orbital L:

J = L + S
                                                  Efecto de par inerte

 

Todo profesor, casi siempre, se ve en apuros cuando un alumno plantea algunas de las siguientes interrogantes: ¿por qué el mercurio es líquido?, ¿por qué la plata y el oro tienen diferente color?, ¿a qué se debe realmente el efecto del par inerte?, ¿cómo podría explicar la contracción del bloque d o la contracción lantánida? o ¿por qué algunos elementos tienen configuraciones electrónicas aparentemente anómalas? Por no mencionar el acoplamiento espín-orbital y los valores extraños en: los potenciales de ionización, las afinidades electrónicas, los desplazamientos químicos en el RMN, entre otros.

Como todos sabemos, el estudio del comportamiento del electrón en el átomo se lleva a cabo matemáticamente resolviendo la ecuación de Schrödinger que, en algunos textos, se puede encontrar simplificada (ecuación 1a) o más desarrollada (ecuación 1b)

 

donde h es la constante de Planck, m es la masa del electrón, x, y, z son las coordenadas del electrón, e es la carga del electrón, r es la distancia del electrón al núcleo, εo es la permisividad del vacío, Ψ es la función de onda y E es la energía. La solución de esta ecuación consiste en encontrar valores para ? y E. Al resolver esta ecuación aparecen tres números cuánticos: n, l y m l . No aparece el cuarto número cuántico, el espín, como algunos textos dan a entender erróneamente. En este tratamiento mecánico cuántico -que se encuentra en casi todos los textos de química- se asume que la velocidad del electrón es pequeña comparada con la velocidad de la luz (c ) y que su masa (m) es aproximadamente igual a su masa en reposo (m o ). Esta simplificación, que se conoce como mecánica cuántica no-relativística, es adecuada para explicar muchos parámetros de los elementos químicos más ligeros. Sin embargo, falla al tratar de explicar valores como las distancias y energías de los electrones para los elementos más pesados. Cuando la carga nuclear se incrementa, la atracción de los electrones hacia el núcleo crece, lo que ocasiona que los electrones se muevan a mayor velocidad; en algunos casos, es cercana a la de la luz. Por ello, en los átomos más pesados los electrones internos tienen velocidades muy grandes y se sabe por la teoría de la relatividad, dada por Einstein en 1905, que la masa de cualquier objeto que se mueve se incrementa a medida que aumenta su velocidad. Cuando se toma en cuenta la gran velocidad con la que el electrón realmente se mueve y corrigiendo su masa por las ecuaciones 2 y 3, entramos al campo de la mecánica cuántica relativística y eso fue lo que Dirac desarrolló en el año 1925.

 SIkai06nA2t7SkoKpHuMHj0athba0m9GKQXFSalUYqEI1vODFNumfAumCCxUhIqcXC7nmMKlQEigB+Jcta4tgwNjWRYwOjauH20SVuaQO2i2rq6usbHRZDIpFIrbjdkJPEA+o1AoDAYDJm7SlnFCcCGRSNDUzOZM4ZOPeZLisGHDBg8eTClVq9VvvvkmBJs7wQl/KDzmRFVeXv7ZZ58dPXo0LS0N7AeoPTrBCX8QPOZERSnVaDSNjY02B5gdJ5c6wQl/EDzmRNVaIHaqGU74o8FJVE5wwgOGx5yonOCEhw9OonKCEx4w/B9Fuoa+sXr+cQAAAABJRU5ErkJggg==" alt="" />

donde Z es el número atómico, v es la velocidad del electrón y m es la masa relativística del electrón.

La ecuación de Dirac para estudiar el comportamiento del electrón en el átomo (ecuación 4) es análoga a la de Schrödinger:1

 

donde HD  es el Hamiltoniano de Dirac para muchos electrones.

Por ejemplo, para el mercurio, Z = 80, si aplicamos la ecuación (2) calculamos la velocidad que debe ser aproximadamente 0,58 c (58 % de la velocidad de la luz). Luego por la ecuación (3) calculamos la masa en movimiento que es más o menos 1,23 mo. Conociendo la masa del electrón se puede calcular el radio de Bohr mediante la fórmula 5:

de donde se encuentra que la distancia promedio para el electrón que está en el nivel 6s del mercurio, a o , será un 23 % menor a la correspondiente al valor no-relativístico. En otras palabras, el orbital se comprime un 23 % cuando se toma en cuenta el efecto relativístico. Para el electrón 1s del átomo de hidrógeno los resultados relativísticos indican que su masa es 1.00003 × m o . Se comprime un 3 x10 –5 %, cantidad insignificante al considerar el efecto relativístico.

Como hemos visto, la diferencia de la distancia entre el electrón y el núcleo, así como las energías de los electrones, es pequeña cuando comparamos los valores obtenidos por los efectos relativísticos y los no relativísticos, para los elementos ligeros. Pero esta diferencia aumenta para los elementos pesados, por efecto del incremento de la carga nuclear donde se observa que realmente todos los orbitales s se contraen bastante y también los p.

El espín electrónico fue un término acuñado por Uhlenbeck y Goudsmit 2 en 1925 para explicar la estructura fina del espectro del átomo de hidrógeno (que también explica el resultado del experimento realizado en 1922 por Stern y Gerlach con los átomos de plata) y aplicado al movimiento intrínseco del electrón. Dirac, al realizar el tratamiento matemático aplicando los principios de la mecánica cuántica y la relatividad, encontró que el acoplamiento espín-orbital es un efecto puramente relativístico. Todos los electrones, incluyendo los s, tienen momento angular y no hay distinción entre momento angular orbital y momento angular del espín. Sólo hay un momento J, momento cuántico angular. La interacción espín-orbital divide una capa de un valor dado de l (número cuántico del momento angular) en subcapas con un total de momento angular j = l – ½ y j = l + ½. Por ello los 3 orbitales p son diferentes; ellos forman dos grupos de orbitales p 1/2 y p 3/2.  La diferencia de energía entre estas subcapas viene a ser justo la energía espín-orbital. Tras ello, Dirac propuso que el orbital s debe recibir la denominación s 1/2 , que es el momento angular que aparece en las mediciones espectroscópicas. Como s 1/2 y p 1/ 2 tienen la misma dependencia angular, un orbital p 1/2 es de hecho esféricamente simétrico y tiene una menor energía que el p 3/2 . (éste último tiene la forma de una dona). Este desdoblamiento energético de los orbitales es la explicación para la energía de acoplamiento espín-orbital.

 http://www.scielo.org.pe/img/revistas/rsqp/v71n1/a07fig05a.jpg

Un tratamiento matemático riguroso, que no vamos a desarrollar aquí, concluye que los efectos relativísticos aplicados a los orbitales atómicos son tres:

1. La contracción radial relativística y la disminución (mayor estabilización) energética
de los orbitales s y p.

2. Los electrones en orbitales donde l > 0 (p, d, f, …) sufrirán el conocido desdoblamiento espín-orbital en j = l + s; j = l ± 1/2.

3. Los electrones en orbitales d y f, debido a que serán más eficientemente apantallados por la contracción de las capas s y p, se orientan radialmente hacia fuera y subirán en energía (se desestabilizan). Esto se conoce como efecto relativístico indirecto o de segundo orden.

Estos tres efectos son de la misma magnitud y crecen a medida que lo hace Z 2 . Aplicado a un elemento pesado, como el oro (figura 2), da lugar a una distribución energética de los orbitales atómicos diferente a la que aparece en muchos textos de química.

http://www.scielo.org.pe/img/revistas/rsqp/v71n1/a07fig06a.jpg

 

La mecánica cuántica resulta difícil no sólo por las matemáticas, sino también debido a que surgen conceptos que son difíciles de comprender, no sólo por alumnos o profesores sino que escapa a la cotidianidad del ser humano. Por ejemplo, nosotros podemos percibir un gira de 90º, 180º y hasta uno de 360º; sin embargo, el electrón tiene un giro de 720 º ¡ningún ser humano puede percibir semejante giro! La velocidad promedio del electrón 1s del átomo de hidrógeno (Z = 1) es ca. 2 × 10 6 m s -1 ; si considerásemos al electrón como una partícula podríamos verlo orbitando el núcleo 10 15 veces en un segundo. En el caso del electrón 1s del oro (Z = 79) su velocidad promedio es mucho mayor que en el caso anterior ca. 1,6 × 10 8 ms -1 , velocidad cercana a la de la luz, c = 3 × 10 8 ms -1 .

A pesar de la importancia de los efectos relativísticos en la química, muy pocos textos los toman en cuenta o siquiera los mencionan. Una de la excepciones es el libro de Química Inorgánica Descriptiva de Geoff Rayner-Canham.3 A continuación veremos cómo se altera nuestra comprensión de parámetros y conceptos químicos debido a los efectos relativísticos, campo en el cual actualmente se realizan muchos estudios teóricos.

 

EFECTOS RELATIVÍSTICOS EN LOS ELEMENTOS

1. ¿Qué tiene de particular el mercurio para que este elemento sea líquido a temperatura ambiente?

La configuración electrónica para el mercurio es [Xe]4f 14 5d 10 6s 2 y debido a los efectos relativísticos, los orbitales d y f deben subir en energía (desestabilizarse), mientras que los orbitales s, se acercan más al núcleo y se estabilizan. Un diagrama OM para la molécula Hg 2 , similar al diagrama bien conocido del He 2 , se muestra en la figura 3.

http://www.scielo.org.pe/img/revistas/rsqp/v71n1/a07fig07a.jpg

Vemos que los orbitales antienlazantes están poblados lo cual desestabiliza a la molécula diatómica. En fase gas el Hg está formando especies monoméricas. En el caso del vecino que precede al mercurio, el oro, con una configuración [Xe]4f 14 5d 10 6s 1 , formaría una molécula Au 2 estable en fase gas. Los electrones 6s del mercurio, al estar muy establizados en energía, no contribuyen mucho a la formación del enlace Hg-Hg. Lo cual nos lleva a que el enlace mercurio-mercurio debe ser debido a las fuerzas de van der Waals y probablemente a una débil interacción 6p. Ambas fuerzas son muy débiles. Esta es la razón por la cual el enlace Hg-Hg es tan débil. En el caso de los elementos del mismo grupo del Hg, Zn y Cd, los orbitales 4s y 5s, respectivamente, no están tan estabilizados en energía, como en el caso del mercurio.2

Por otro lado, es bien conocido que la especie [Hg-Hg]2+ es muy estable; se conocen muchos compuestos tanto en solución como en fase sólida. Un leve análisis de la configuración electrónica nos revela que esta especie es isoelectrónica al Au 2 que, como ya se mencionó, es estable. También, por efectos relativísticos las distancias Au 2 y Hg 2 2+ son un 16 % más cortas que en el caso de los análogos de plata y cadmio.

Además, la conductividad eléctrica en el Hg es mucho menor que la del Au, ello debido a que los dos electrones 6s están muy localizados y contribuyen muy poco a la banda de conducción.

                   Beta de Oro

2 ¿Por qué el oro tiene un color diferente a la plata?

Para este caso debemos comparar la distribución energética de los orbitales de valencia de ambos elementos. El color del oro podría deberse a una transición electrónica de un electrón 5d 5/2 al nivel 6s 1/2 (ver figura 2), cuando la luz azul es absorbida. En el caso de la plata la transición deber ser análoga del 4d 5/2 a 5s 1/2 , pero como en el caso del Au (que tiene mayor Z) la diferencia de energía entre los orbitales 6s 1/2 y 5d 5/2 es más pequeña que en el caso 5s 1/2 y 4d 5/2 . Esta última cae dentro del rango del ultravioleta y la del oro en el rango del visible. Sin embargo, la transición, 5d 5/2 a 6s 1/2 está prohibida; por ello, en el caso del átomo de oro debería ser incoloro y no amarillo. Nuestro error está en que hemos debido considerar la teoría de bandas ya que observamos el color amarillo en un bloque sólido de oro, no en un átomo de oro. Y para ello, la teoría de bandas es la apropiada; en ella la diferencia de energía entre las bandas de valencia llenas (esencialmente d) y la banda de conducción (esencialmente s) es 2,4 eV para el oro y 3,7 eV para la plata. La primera cae dentro del rango del visible y la segunda en el ultravioleta. Tal como en el caso anterior, el nivel de cercanía entre las bandas es mayor en el caso del oro, con respecto a la plata, por los efectos relativísticos.

3. ¿Por qué existen valores anómalos en las energía de ionización y la afinidad electrónica? 

Es bien conocido el hecho de la variación de la energía de ionización (EI) a lo largo de los elementos del grupo 13 al 18, tal como se muestra en la tabla 1

http://www.scielo.org.pe/img/revistas/rsqp/v71n1/a07tab01a.jpg

 

La explicación de estas variaciones se basa en varios hechos: a lo largo de un periodo la carga nuclear se incrementa, a la repulsión electrón-electrón y al apantallamiento incompleto de los electrones. Para los casos donde n = 2, 3, 4 y 5 la explicación, encontrada en los textos, introduce el concepto de repulsión electrón-electrón. La menor repulsión electrón-electrón se logra cuando los espines de los electrones son paralelos ya que cada par de espines paralelos contribuye a una estabilización de intercambio energético del átomo. Por ello, para estos casos, la EI depende del número de pares de espines paralelos que se pierden en la ionización. Por ejemplo, para el caso del nitrógeno, el cambio en el número de espines paralelos al pasar de p 3 a p 2 es de dos, pero para el oxígeno, que cambia de p 4 a p 3 , la variación es cero y se desestabiliza teniendo una menor EI que la del nitrógeno.

Por otro lado, la explicación de las variaciones cuando n = 6 no se encuentra en los textos. La EI del bismuto es menor que la de sus vecinos el plomo y el polonio. Para estos elementos más pesados debemos considerar el efecto relativístico,4 donde el acoplamiento espín-orbital, o sea el momento angular total J, es más importante que la repulsión electrón-electrón. Si los momentos magnéticos debido al espín y al orbital apuntan en direcciones opuestas, se cancelan mutuamente y la interacción es atractiva (el átomo se estabiliza). En el caso que apunten en la misma dirección, la interacción es repulsiva; por consiguiente el átomo se desestabiliza. De la figura 1, el llenado electrónico en el nivel p y para el caso del plomo, bismuto y polonio son: (p 1/2 ) 2 (p 3/2 ) 0 , (p 1/2 ) 2 (p 3/2 ) 1 y (p 1/2 ) 2 (p 3/2 ) 2 , respectivamente.

Por ello, la EI del bismuto es menor que la del plomo, ya que el electrón del primero ocupa un nivel desestabilizado en energía p 3/2 y del plomo uno establizado p 1/2 . La EI del polonio es mayor que la del bismuto por el efecto del incremento de la carga nuclear efectiva.

En las tablas de las energías de ionización podemos observar una “anomalía”. Los valores de la primera y segunda energía de ionización son para la plata 0,73 y 2,07 MJ/mol y para el oro 0,89 y 1,98. La tendencia general es que la EI disminuya al descender en un grupo, sin embargo, esto no ocurre. Para resolver esta interrogante tendríamos que calcular el valor de las energías de los orbitales de valencia del oro y de la plata. Se puede hacer de una manera indirecta a través de cálculos relativísticos de las moléculas diatómicas AuH y AgH, realizadas por Pyykkö y mostrados en la figura 4.

http://www.scielo.org.pe/img/revistas/rsqp/v71n1/a07fig08a.jpg

Se puede apreciar que la primera energía de ionización (electrón s) es menor en la plata (5? ) con respecto al oro (6? ). Pero la segunda energía de ionización (electrón que está en d 5/2 ) es menor en el oro que en la plata. Nuevamente, por efectos relativisticos el nivel 6s del oro es mas estable que el de la plata, pero sus orbitales d se desestabilizan más que los de la plata.

Con el oro sucede otro hecho curioso, ¡su afinidad electrónica es de 193 kJ/ mol, que es mayor a la del oxígeno (142,5 kJ/mol)! La razón de esta gran afinidad electrónica es que si el orbital 6s es ocupado por dos electrones el oro adquiere una estabilidad. El oro forma compuestos con otros metales como CsAu en el que el estado de oxidación formal del oro es –1. Por ello, suponer que el oro actúa siempre como un metal electropositivo sería un error.

4. ¿Cuál es la explicación para el efecto del par inerte?

La contracción relativista de los orbitales s significa que para un átomo de elevado número atómico, hay una energía extra de atracción entre los electrones s y del núcleo. Esto se pone de manifiesto en las energías de ionización más elevadas para los electrones 6s, que contribuyen al efecto termodinámico del par inerte 6s.




La configuración electrónica de valencia de los elementos del grupo 13 (B. Al, Ga, In y Tl) es ns 2 np 1 . Estos elementos pueden formar tres enlaces covalentes o, desde otro punto de vista, pueden tener un estado de oxidación formal de +3. Es muy conocido el hecho de que los elementos más pesados de este grupo (y muchos más en el caso del talio) forman muchos compuestos iónicos, con un estado de oxidación formal de +1, en los que sólo se ionizan los electrones del nivel p, pero no los del s. Este comportamiento en la ionización de los elementos más pesados se conoce como efectos del par inerte, relacionado al hecho de que los dos electrones s no se pierden.

Los efectos de apantallamiento y relativísticos son responsables de que todos los elementos del periodo 6 (Tl 6s 2 6p 1 , Pb 6s 2 6p 2 , Po 6s 2 6p 4 ) tengan mayores energías de ionización que sus congéneres del periodo 5 (In, Sn, Te). Por ello, los electrones 6s 2 son reacios a participar en un enlace químico y por ello son estables los estados de oxidación Tl(I), Pb(II) y Bi(III).

Este hecho se puede comprender fácilmente si observamos que el Tl(I) es isoelectrónico al mercurio; su orbital 6s está muy estabilizado en energía y se re-quiere mucha energía para remover los dos electrones de este nivel, aproximadamente 4 848 kJ/mol. Recordemos que para formar un catión se gasta energía que debe ser compensada por la energía reticular y, por otro lado, es muy importante el tamaño del catión, ya que si es grande la energía reticular será menor. En el caso del Tl ambos factores son desfavorables; el alto costo energético de remover los dos electrones 6s y el gran tamaño del Tl(III), hacen que se reduzca mucho la estabilidad de este compuesto iónico. Esta es la razón por la cual existen un gran número de compuesto de Tl(I) y pocos de Tl(III). Sin embargo, se conocen halogenuros de Tl(III) pero su comportamiento es típico de halogenuros covalentes, como cabría esperar.5,6

Hg,80.jpg

                 Blanco plateado

Pouring liquid mercury bionerd.jpg

Mercurio vertíendose en una placa de petri

Lo mismo sucede en el caso del plomo (II) que es isoelectrónico al mercurio. El cloruro de plomo (II) forma una red cristalina del tipo iónico. Por otro lado, el cloruro de plomo (IV) muestra enlaces covalentes, aunque es inestable ya que se descompone con la humedad o estalla al calentarlo. Los otros halogenuros de plomo(IV), de bromo y yodo, no existen ya que el potencial rédox de estos halógenos reduce el plomo (IV) a plomo (II).

Adicionalmente al análisis realizado a los electrones 6s 2 , también se podría realizar a los electrones 5s 2 y 4s 2 . Para los electrones 5s 2 el efecto es menor, pero importante y en el caso del 4s 2 es mucho menor el efecto relativístico.

Un caso curioso lo manifiesta el SnCl 2 (5s 2 ) el cual teóricamente es una base de Lewis, pero en presencia de cloruro reacciona para formar [SnCl 3 ] – . Y más aún, los ángulos de enlace ClSnCl de la especie [SnCl 3 ] – son de 90º. Esto último implica que el estaño debe hacer uso de sus orbitales p exclusivamente y no involucran a los s (no se forman orbitales híbridos sp 2 ) ya que deben estar muy estabilizados en energía.3b La vasta cantidad de datos estructurales demuestra que este par de electrones, si bien no participa como una base de Lewis es, muchas veces, estéricamente activo. En términos simplificados, los compuestos del Sn(II) deben tener estructuras regulares si el par libre de electrones permanece en el orbital esférico y simétrico s; pero parece que en muchas moléculas ocurre una mezcla s-p que da a los orbitales del par libre un considerable carácter p (que son direccionables). Ello explica que el SnCl 2 no es lineal (95º), en cambio, en el caso del ZnCl 2 , que no tiene par libre, es de 180º. Además, el [SnCl 3 ] – sí actúa como base de Lewis con BX 3 y con metales de transición.

5. ¿Cómo se explica la contracción lantánida?

Al ir del lantano (Z = 57) al lutecio (Z = 71) se observa que el radio iónico disminuye en 18,3 pm. El llenado electrónico de los orbitales 4f produce una con-tracción gradual, llamada contracción lantánida, no sólo en los radios iónicos sino también en los tamaños atómicos. A medida que se avanza del lantano al lutecio se incrementa la carga nuclear y el número de electrones en el nivel f se incrementa; sin embargo, debido al poco efecto pantalla que brinda un electrón a otro en el nivel f, la carga nuclear efectiva que experimenta cada electrón aumenta, produciéndose una reducción del tamaño de la capa f. Es necesario informar que dicha disminución de tamaño no es muy regular.

Ahora bien, habría que añadir a la explicación ya dada, el efecto relativístico, que contribuye con aproximadamente un 10% a esta contracción. La contracción de los actínidos puede ser explicada en los mismos términos que la de los lantánidos.

Como se ha podido apreciar en esta revisión, los efectos relativísticos pueden explicar una serie de hechos que de otro modo serían un misterio.

DEDICACIÓN

Este trabajo va dedicado a Albert Einstein, ya que habiendo pasado 100 años desde la presentación de cinco trabajos relevantes de Albert Einstein 7 -4 en la revista Annalen der Physik, así como su tesis doctoral- el año 1905 es llamado annus mirabilis de Einstein. Los artículos famosos publicados pueden ser con sultados en las siguientes referencias: Ann. Phys. 1905, Lpz 17 ,132-148, Ann. Phys. 1905, Lpz 17 ,549-560, Ann. Phys., 1905, Lpz 17, 891-921 y Ann. Phys., 1905, Lpz 18, 639-641. En la actualidad se sigue investigando la relatividad aplicada a los elementos y compuestos químicos, los cuales seguro contribuirán a tener una mejor visión y comprensión de la química.

REFERENCIAS

1. P. Pyykkö, Chem. Rev., 1988, 88, 563.

2. L. J. Norrby, J. Chem. Educ., 1991, 68, 110.

3. a) G. Rayner-Canham, “ Química Inorgánica Descriptiva”, Addison Wesley Longman, Segunda edición, México, 2000, p. 30 y 241. b) Ibid, p 288.

4. The University of Hull, http://150.237.140.43/lectures/ajb/non-classical.pdf. (Última vista, 16 de febrero 2005).

5. P. Pyykkö y J-P Desclaux, Acc. Chem. Res., 1979, 12, 276.

6. K. S. Pitzer, Acc. Chem. Res., 1979, 12, 271.

Transcripción de emilio silvera

 

 

 

ABUNDANCIAS CÓSMICAS DE LOS ELEMENTOS

——————–     IMPORTANCIA DEL CONOCIMIENTO DE LAS ABUNDANCIAS COSMICAS DE LOS ELEMENTOS   ——————-

 

 

Moléculas de azúcar en el cosmos

 

Se encuentran elementos esenciales para la vida alrededor de una estrella joven. Usando el radiotelescopio ALMA (Atacama Large Millimeter/submillimeter Array), un grupo de astrónomos detectó moléculas de azúcar presentes en el gas que rodea a una estrella joven, similar al sol. Esta es la primera vez que se ha descubierto azúcar en el espacio alrededor de una estrella de estas características. Tal hallazgo demuestra que los elementos esenciales para la vida se encuentran en el momento y lugar adecuados para poder existir en los planetas que se forman alrededor de la estrella.

 

La abundancia, distribución y comportamiento de los elementos químicos en el cosmos es uno de los tópicos clásicos de la astrofísica y la cosmoquímica. En geoquímica es también importante realizar este estudio ya que:

- Una de las principales finalidades de la Geoquímica es establecer las leyes que rigen el comportamiento, distribución, proporciones relativas y relaciones entre los distintos elementos químicos.

- Los datos de abundancias de elementos e isótopos en los distintos tipos de estrellas nos van a servir para establecer hipótesis del origen de los elementos.

- Los datos de composición del Sol y las estrellas nos permiten establecer hipótesis sobre el origen y evolución de las estrellas. Cualquier hipótesis que explique el origen del Sistema Solar debe explicar también el origen de la Tierra, como planeta de dicho Sistema Solar.

- Las distintas capas de la Tierra presentan abundancias diferentes de elementos. El conocer la abundancia cósmica nos permite tener un punto de referencia común. Así, sabiendo cuales son las concentraciones normales de los elementos en el cosmos las diferencias con las abundancia en la Tierra nos pueden proporcionar hipótesis de los procesos geoquímicos que actuaron sobre la Tierra originando migraciones y acumulaciones de los distintos elementos, que modificaron sus proporciones y abundancias respecto al Cosmos.

La tabla periódica de los elementos es un arreglo sumamente ingenioso que permite presentar de manera lógica y estructurada las más simples sustancias de las que se compone todo: absolutamente todo lo que conocemos. Todos los elementos que conocemos, e incluso con lo que todavía no nos hemos encontrado, tienen un lugar preciso en ella, cuya posición nos permite conocer muchas de sus características. Ese grupo de casi cien ingredientes permite crear cualquier cosa. Pero no siempre fue así.

Gran Nebulosa de Orión

                                        Me gusta la Gran Nebulosa de Orión. Hay ahí tántas cosas, nos cuenta tántas historias…

 

  FUENTES DE DATOS DE ABUNDANCIAS COSMICAS DE LOS ELEMENTOS

Estos datos deben obtenerse a partir del estudio de la materia cósmica. La materia cósmica comprende:

Gas interestelar, de muy baja densidad (10-24 g/cm3) y Nébulas gaseosas o nubes de gas interestelar y polvo.

Las nébulas gaseosas se producen cuando una porción del medio interestelar está sujeta a radiación por una estrella brillante y muy caliente, hasta tal punto se ioniza que se vuelve fluorescentey emite un espectro de línea brillante (que se estudian por métodos espectroscopios). Por ejemplo las nébulas de “Orión” y “Trifidos”. Las ventajas de estas nébulas difusas para el estudio de las abundancias son:

‑Su uniformidad de composición.

‑El que todas sus partes sean accesibles a la observación, al contrario de lo que ocurre en las estrellas.

También tiene desventajas:

‑Solo se observan las líneas de los elementos más abundantes.

‑Cada elemento se observa solo en uno o pocos estadios de ionización aunque puede existir en muchos.

‑La mayoría de las nébulas exhiben una estructura filamentosa o estratiforme  es decir que ni la D ni la T son uniformes de un punto a otro. A partir del medio interestelar (gas interestelar y nébulas gaseosas) se están formando continuamente nuevas estrellas.

 

Las estrellas se forman a partir del gas y el polvo de las Nebulosas

En las estrellas podemos encontrar muchas respuestas de cómo se forman los elementos que conocemos. Primero fue en el hipotético big bang donde se formaron los elementos más simples: Hidrógeno, Helio y Litio. Pasados muchos millones de años se formaron las primeras estrellas y, en ellas, se formaron elementos más complejos como el Carbono, Nitrógeno y Oxígeno. Los elementos más pesados se tuvieron que formar en temperaturas mucho más altas, en presencia de energías inmensas como las explosiones de las estrellas moribundas que, a medida que se van acercando a su final forman materiales como: Sodio, Magnesio, Aluminio, Silicio, Azufre, Cloro, Argón, Potasio, Titanio, Hierro, Cobalto, Niquel, Cobre, Cinc, Plomo, Torio…Uranio. La evolución cósmica de los elementos supone la formación de núcleos  simples en el big bang y la posterior fusión de estos núcleos ligeros para formar núcleos más pesados y complejos en el interior de las estrellas y en la transición de fase de las explosiones supernovas.

Fred Hoyle

Sir Fred Hoyle

No me parece justo hablar de los elementos sin mencionar a Fred Hoyle y su inmensa aportación al conocimiento de cómo se producían en las estrellas. Él era temible y sus críticas de la teoría del big bang hizo época por su mordacidad. Hoyle condenó la teoría por considerarla epistemológicamente estéril, ya que parecía poner una limitación temporal inviolable a la indagación científica: el big bang era una muralla de fuego, más allá de la cual la ciencia de la çepoca no sabía como investigar. Él no concebía y juzgó “sumamente objetable que las leyes de la física nos condujeran a una situación en la que se nos prohíbe calcular que ocurrió en cierto momento del tiermpo”. En aquel momento, no estaba falto de razón.

Pero no es ese el motivo de mencionarlo aquí, Hoyle tenía un dominio de la física nuclear nunca superado entre los astrónomos de su generación, había empezado a trabajar en la cuestión de las reacciones de la fusión estelar a mediado de los cuarenta. Pero había publicado poco, debido a una batalla continua con los “arbitros”, colegas anónimos que leían los artículos y los examinaban para establecer su exactitud, cuya hostilidad a las ideas más innovadoras de Hoyle hizo que éste dejara de presentar sus trabajos a los periódicos. Hoyle tuvo que pagar un precio por su rebeldía, cuando, en 1951, mientras él, permanecía obstinadamente entre bastidores, Ernest Opik y Edwin Sepeter hallaron la síntesis en las estrellas de átomos desde el Berilio hasta el Carbono. Lamentando la oportunidad perdida, Hoyle rompió entonces su silencio y en un artículo de 1954 demostró como las estrellas gigantes rojas podían corvertir Carbono en Oxígeno 16.

El Sol como gigante roja

           El Sol, dentro de 5.000 millones de años, será una Gigante roja primero y una enana blanca después

Pero, sigamos con la historia de Hoyle. Quedaba aún el obstáculo insuperable del hierro. El hierro es el más estable de todos los elementos; fusionar núcleos de hierro para formar nucleos de un elemento más pesado consume energía en vez de liberarla; ¿cómo,  pues, podían las estrellas efectuar la fusión del hierro y seguir brillando? Hoyle pensó que las supernovas podían realizar la tarea, que el extraordinario calor de una estrella en explosión podía servir para forjar los elementos más pesados que el hierro, si el de una estrella ordinaria no podía. Pero no lo pudo probar.

Luego, en 1956, el tema de la producción estelar de elementos recibió nuevo ímpetu cuando el astrónomo norteamerciano Paul Merril identificó las reveladoras líneas del Tecnecio 99 en los espectros de las estrellas S. El Tecnecio 99 es más pesado que el hierro. También es un elemento inestable, con una vida media de sólo 200.000 años. Si los átomos de Tecnecio que Merril detectó se hubiesen originado hace miles de millones de años en el big bang, se habrían desintegrado desde entonces y quedarían hoy muy pocos de ellos en las estrellas S o en otras cualesquiera. Sin embargo, allí estaban. Evidentemente, las estrellas sabían como construir elementos más allá del hierro, aunque los astrofísicos no lo supiesen.

                                                                                          Estrella evolcuionada

Las estrellas de tecnecio son estrellas cuyo espectro revela la presencia del elemento tecnecio. Las primeras estrellas de este tipo fueron descubiertas en 1952, proporcionando la primera prueba directa de la nucleosíntesis estelar, es decir, la fabricación de elementos más pesados a partir de otros más ligeros en el interior de las estrellas. Como los isótopos más estables de tecnecio tienen una vida media de sólo un millón de años, la única explicación para la presencia de este elemento en el interior de las estrellas es que haya sido creado en un pasado relativamente reciente. Se ha observado tecnecio en algunas estrellas M, estrellas MS, estrellas MC, estrellas S, y estrellas C.

Estimulado por el descubrimiento de Merril, Hoyle reanudó sus investigaciones sobre la nucleosíntesis estelar. Era una tarea que se tomó muy en serio. De niño, mientras se ocultaba en lo alto de una muralla de piedra jugando al escondite, miró hacia lo alto, a las estrellas, y resolvió descubrior qué eran, y el astrofísico adulto nunca olvidó su compromiso juvenil. Cuando visitó el California Institute Of Technology, Hoyle estuvo en compañía de Willy Fowler, un miembro residetente de la facultad con un conocimiento enciclopédico de la física nuclear, y Geoffrey y Margaret Burbidge, un talentoso equipo de marido y mujer que, como Hoyle, eran excépticos ingleses en la relativo al big bang.

Hubo un cambio cuando Geoffrey Burbidge, examinando datos a los que recientemente se había eximido de las normas de seguridad de una prueba atómica en el atolón Bikini, observó que la vida media de uno de los elementos radiactivos producidos por la explosión, el californio 254, era de 55 días. Esto sonó familiar: 55 días era justamente el período que tardó en consumirse una supernova que estaba estudiando Walter Baade. El californio es uno de los elementos más pesados; si fuese creado en el intenso calor de estrellas en explosión, entonces, suguramente los elementos situados entr el hierro y el californio -que comprenden, a fin de cuentas, la mayoría de la Tabla Periódica- también podrían formarse allí. Pero ¿cómo?.

Nucleosíntesis estelar

 

Las estrellas que son unas ocho veces más masivas que el Sol representan sólo una fracción muy pequeña de las estrellas en una galaxia espiral típica. A pesar de su escasez, estas estrellas juegan un papel importante en la creación de átomos complejos y su dispersión en el espacio.

Elementos necesarios como carbono, oxígeno, nitrógeno, y otros útiles, como el hierro y el aluminio. Elementos como este último, que se cocinan en estas estrellas masivas en la profundidad de sus núcleos estelares, puede ser gradualmente dragado hasta la superficie estelar y hacia el exterior a través de los vientos estelares que soplan impulsando los fotones. O este material enriquecido puede ser tirado hacia afuera cuando la estrella agota su combustible termonuclear y explota. Este proceso de dispersión, vital para la existencia del Universo material y la vida misma, puede ser efectivamente estudiado mediante la medición de las peculiares emisiones radiactivas que produce este material. Las líneas de emisión de rayos gamma del aluminio, que son especialmente de larga duración, son particularmente apreciadas por los astrónomos como un indicador de todo este proceso. El gráfico anterior muestra el cambio predicho en la cantidad de un isótopo particular de aluminio, Al26, para una región de la Vía Láctea, que es particularmente rica en estrellas masivas. La franja amarilla es la abundancia de Al26 para esta región según lo determinado por el laboratorio de rayos gamma INTEGRAL. La coincidencia entre la abundancia observada y la predicha por el modelo re-asegura a los astrónomos de nuestra comprensión de los delicados lazos entre la evolución estelar y la evolución química galáctica.

Pero sigamos con la historia recorrida por Hoyle y sus amigos. Felizmente, la naturaleza proporcionó una piedra Rosetta con la cual Hoyle y sus colaboradores podían someter a prueba sus ideas, en la forma de curva cósmica de la abundancia. Ésta era un gráfico del peso de los diversos átomos -unas ciento veinte especies de núcleos, cuando se tomaban en cuanta los isótopos- en función de su abundancia relativa en el universo, establecido por el estudio de las rocas de la Tierra, meteoritos que han caido en la Tierra desde el espacio exterior y los espectros del Sol y las estrellas.

Supernova que calcina a un planeta cercano. Ahí, en esa explosión se producen transiciones de fase que producen materiales pesados y complejos. En una supernova, en orden decreciente tenemos la secuencia de núcleos H, He, O, C, N, Fe, que coincide bastante bien con una ordenación en la tabla periódica que es: H, He, (Li, Be, B) C, N, O… Fe.

¿Apreciáis la maravilla?

Las estrellas brillan en el cielo para hacer posible que nosotros estemos aquí descubriendo los enigmas del universo y… de la vida inteligente. Esos materiales para la vida sólo se pudieron fabricar el las estrellas, en sus hornos nucleares y en las explosiones supernovas al final de sus vidas. Esa era la meta de Hoyle, llegar a comprender el proceso y, a poder demostrarlo.

“El problema de la síntesis de elementos -escribieron- está estrechamente ligado al problema de la evolcuión estelar.” La curva de abundancia cósmica de elementos que mostraba las cantidades relativas de las diversas clases de átomos en el universo a gran escala. Pone ciertos límites a la teoría de cómo se formaron los elementos, y, en ella aparecen por orden creciente:

Como reseñamos antes la lista sería Hidrógeno, Helio, Carbono, Litio, Berilio, Boro, Oxígeno, Neón, Silicio, Azufre, Hierro (damos un salto), Plomo, Torio y Uranio. Las diferencias de abundancias que aparecen en los gráficos de los estudios realizados son grandes -hay, por ejemplo, dos millones de átomos de níquel por cada cuatro átomos de plata y cincuenta de tunsgteno en la Via Láctea- y por consiguiente la curva e abundancia presenta una serie de picos dentados más accidentados que que la Cordillera de los Andes. Los picos altos corresponden al Hidrógeno y al Helio, los átomos creados en el big bang -más del p6 por ciento de la materia visible del universo- y había picos menores pero aún claros para el Carbono, el Oxígeno, el Hierro y el Plamo. La acentuada claridad de la curva ponía límites definidos a toda teoría de la síntesis de elementos en las estrellas. Todo lo que era necesario hacer -aunque dificultoso) era identificar los procesos por los cuales las estrellas habían llegado preferentemente a formar algunos de los elementos en cantidades mucho mayores que otros. Aquí estaba escrita la genealogía de los átomos, como en algún jeroglífico aún no traducido: “La historia de la materia éscribió Hoyle, Fwler y los Burbidge_…está oculta en la distribuciíon de la anundancia de elementos”

En el Big Bang: Hidrógeno, Helio, Litio.

En las estrellas de la serie principal: Carbono, Nitrógeno, Oxígeno.

En las estrellas moribundas: Sodio, Magnesio, Aluminio, Silicio, Azufre, Cloro, Argón, Potasio, Titanio, Hierro, Cobalto, Níquel, Cobre, Cinc, Plomo, Torio y Uranio.

Como habeis podido comprobar, nada sucede por que sí, todo tiene una explicación satisfactoria de lo que, algunas veces, decimos que son misterios escondidos de la Naturaleza y, sin embargo, simplemente se trata de que, nuestra ignorancia, no nos deja llegar a esos niveles del saber que son necesarios para poder explicar algunos fenómenos naturales que, exigen años de estudios, observaciones, experimentos y, también, mucha imaginación.

File:Triple-Alpha Process.png

 En la imagen de arriba se refleja el proceso Triple Alpha descubierto por Hoyle

 

Amigos míos, son las 5,53 h., me siento algo cansado de teclear y me parece que con los datos aquí expuestos podéis tener una idea bastante buena de la formación de elementos en el cosmos y de cómo las estrellas son las máquinas creadoras de la materia cada vez más compleja y, el Universo, nos muestra de qué mecanismos se vale para poder traer elementos que más tarde formarán parte de los planetas, de los objetos en ellos presentes y, de la Vida.

emilio silvera

Hay que ir más allá del Modelo Estándar

Gordon Kane (en 2003), un físico teórico de la Universidad de Michigan, decía: “… el Modelo Estándar es, en la historia, la más sofisticada teoría matemática sobre la naturaleza. A pesar de la palabra “modelo” en su nombre, el Modelo Estándar es una teoría comprensiva que identifica las partículas básicas y especifica cómo interactúan. Todo lo que pasa en nuestro mundo (excepto los efectos de la gravedad) es resultado de las partículas del Modelo Estándar interactuando de acuerdo con sus reglas y ecuaciones”.

De acuerdo con el Modelo Estándar, leptones y quarks son partículas verdaderamente elementales, en el sentido de que no poseen estructura interna. Las partículas que tienen estructura interna se llaman hadrones; están constituidas por quarks: bariones cuando están formadas por tres quarks o tres antiquarks, o mesones cuando están constituidas por un quark y un antiquark.

Nuevos datos del experimento BaBar, una colaboración internacional que tiene su sede en California, Estados Unidos, fueron analizados recientemente y los resultados obtenidos parecen indicar que existen posibles fallos en el Modelo Estándar de la Física de Partículas, teoría que hasta el momento es la que explica mejor cómo funciona el universo a escalas subatómicas.

Claro que, ya estamos acostumbrados a que el imparable avance del conocimiento de la física, a medida que se van descubriendo nuevas tecnologías, también nos posibilite para poder avanzar más y más profundamente en los modelos y teorías que manejamos y, lo que podemos ir viendo en los nuevos descubrimientos nos ayudan a mejorar los modelos y teorías actuales para ir adaptando la física a la realidad que la Naturaleza nos muestra.

Sin embargo, y a pesar de ello, lo cierto es que, el llamado Modelo Estándar (en lineas generales) nos ha servido bien como una teoría coherente y de extraordinario éxito en relación a las interacciones que operan en el Universo. De hecho, el Modelo Estándar incorpora las teorías relativistas y cuánticas de interacciones fuertes, electromagnéticas y débiles (dejando fuera la Gravedad) que ha superado todas las pruebas con la evidencia experimental, desde las energías más pequeñas hasta los millones de millones de electrón-voltios que se han alcanzado en los Laboratorios del Fermilab en Illinois; desde la precisión de las medidas de masas de estados ligados o de momentos magnéticos, a baja energía, hasta las fabulosas del acelerador LEP en el CERN y ahora del LHC los dos en Ginebra.

http://upload.wikimedia.org/wikipedia/commons/5/5d/Modelo_Estandar.png?uselang=es

Un átomo de Helio 4 según el modelo estándar, se muestra de color rojo las interacciones electromagnéticas y de color naranja las Fuertes. Entrar en este “universo” de lo muy pequeño resulta verdaderamente fascinante. Ahí podemos ver cosas que, en la vida cotidiana están ausentes y, nos puede parecer habernos transportado a otro mundo donde las cosas funcionan de otra manera.

Según el Modelo Estándar, la gran cantidad de partículas elementales hasta hoy detectadas, cerca de 300, en aceleradores/colisionadores de partículas o en rayos cósmicos, puede ser agrupada en leptones, quarks y hadrones o en leptones y hadrones, ya que los quarks son constituyentes de los hadrones o, también, en leptones, bariones y mesones, pues los hadrones pueden ser divididos en bariones y mesones.

Las interacciones fundamentales tienen lugar como si las partículas que interactúan “intercambiasen” otras partículas entre sí. Esas partículas mediadoras serían los fotones en la interacción electromagnética, los gluones en la interacción fuerte, las partículas W y Z en la interacción débil y los gravitones (aún no detectados) en la interacción gravitacional. Es decir, partículas eléctricamente cargadas interactuarían intercambiando fotones, partículas con carga color interactuarían intercambiando gluones, partículas con carga débil intercambiarían partículas W y Z, mientras que partículas con masa intercambiarían gravitones.

Las partículas mediadoras pueden no tener masa, pero tienen energía, o sea, son pulsos de energía. Por eso, se llaman virtuales. De los cuatro tipos de partículas mediadoras, las del tipo W y Z tienen masa, pero es común que todas sean llamadas partículas virtuales.

Entonces, se podría decir que las partículas de materia o partículas reales (leptones, quarks y hadrones) interactúan intercambiando partículas virtuales (fotones, gluones, W y Z, y gravitones). Aquí hay que tener en cuenta que las partículas de materia pueden tener más de una carga, de modo que experimentarían varias interacciones y fuerzas, pero el ámbito de la interacción puede variar mucho, de tal manera que en un determinado dominio una cierta interacción puede ser irrelevante. La fuerza gravitacional, por ejemplo, puede ser despreciada en el dominio subatómico. Es decir, aunque existan cuatro interacciones fundamentales, cuatro cargas y cuatro fuerzas, eso no quiere decir que todas las partículas tengan las cuatro cargas y experimenten las cuatro interacciones. a Gravedad en este ámbito, es tan pequeña que, pasa desapercibida para nuestros actuales instrumentos.


                                    

       Yoichiro Nambu                                       Toshihide Maskawa                                     Makoto Kobayashi

 

¿Por qué hay algo en vez de nada? ¿Por qué hay tantas partículas elementales diferentes? Los señores que arriba vemos fueron premiados con el Nobel de Física por sus ideas teóricas que suministraron una comprensión más profunda de lo que sucede en el interior de los bloques más pequeños que forman la materia.

La naturaleza de las leyes de simetría se encuentran en el corazón de este asunto. O más bien, la ruptura de las simetrías, tanto las que parecen haber existido en nuestro universo desde el principio como aquellas que han perdido su simetría original en alguna parte del camino.

De hecho, todos somos hijos de la simetría rota. Ello debió ocurrir inmediatamente después del Big Bang, hace unos 14.000 millones de años cuando fueron creadas la materia y la antimateria. El contacto de materia y antimateria es fatal para ambas, se aniquilan mutuamente y se transforman en radiación. Es evidente que la materia, al final, ganó la partida a la antimateria, de otra manera nosotros no estaríamos aquí. Pero estamos, y una pequeña desviación de la simetría perfecta parece que ha sido suficiente –un exceso de una partícula de materia por cada diez mil millones de partículas de antimateria fueron suficientes para hacer que nuestro mundo exista-. Este exceso de la materia fue la semilla de nuestro universo, lleno de galaxias, estrellas y planetas y, eventualmente, de vida. Pero lo que hay detrás de esta violación de la simetría en el cosmos es aún un gran misterio y un activo campo de investigación.

La teoría de las partículas elementales considera tres formas básicas de simetría: simetría especular, simetría de carga y simetría temporal (en el lenguaje de la física la simetría especular es denominada P, de paridad; la simetría de carga, C y la simetría temporal,T).

En la simetría especular todos los sucesos ocurren exactamente igual si son observados directamente o reflejados en un espejo. Ello implica que no existe ninguna diferencia entre izquierda y derecha y nadie sería capaz de distinguir su propio mundo de otro reflejado en un espejo. La simetría de carga predice que las partículas cargadas se comportarán exactamente igual que sus antipartículas, las cuales tiene exactamente las mismas propiedades pero carga opuesta. Y de acuerdo con la simetría temporal, las cosas sucederían exactamente igual con independencia de que el tiempo transcurra hacia delante o hacia atrás.

                           Cotidianidad o simetría temporal

El Modelo Estandar es una síntesis de todas las ideas que la física de partículas ha generado durante más de un siglo. Se asienta sobre la base teórica de los principios de simetría de la física cuántica y la teoría de la relatividad y ha resistido a innumerables pruebas. No obstante, varias crisis se sucedieron poniendo en peligro el bien construido edificio del modelo. Estas crisis tuvieron lugar porque los físicos asumían que las leyes de la simetría eran aplicables al micromundo de las partículas elementales. Pero esto no era totalmente  cierto.

La primera sorpresa surgió en 1956 cuando dos físicos teóricos chino-americanos, Tsung Dao Lee y Chen Ning Yang (galardonados con el Premio Nobel al año siguiente, en 1967) comprobaron que la simetría especular (simetría P) era violada por la fuerza  débil.

Una nueva violación de las leyes de la simetría tenía lugar en la desintegración de una extraña partícula llamada kaón (Premio Nobel concedido a James Cronin y Val Fitch en 1980). Una pequeña fracción de los kaones no seguían las leyes de la simetría especular y de carga; se rompía la simetría CP y se desafiaba la estructura misma de la teoría.

 

Como ya se ha explicado el Modelo Estándar comprende todas las partículas elementales conocidas y tres de las cuatro fuerzas fundamentales. Pero, ¿por qué son estas fuerzas tan diferentes?. ¿Y por qué las partículas tienen masas tan diferentes?. La más pesada, el quark top, es más de tres mil cien veces más pesado que el electrón. ¿Por qué tienen todas masa? La fuerza débil destaca en este aspecto una vez más: sus portadores, las partículas Z y W son muy pesadas, mientras que el fotón, que transmite la fuerza electromagnética, carece de masa.

La mayoría de los físicos piensa que el llamado mecanismo de Higgs es el responsable de que la simetría original entre fuerzas fuera destruido dando a las partículas sus masas en las primeras etapas del universo.

El camino hacia ese descubrimiento fue trazado por Yoichiro Nambu quien, en 1960, fue el primero en introducir la violación espontánea de la simetría en la física de partículas. Es por este descubrimiento por el que se le concede el Premio Nobel de Física.

Tenemos algunos ejemplos banales de violación espontánea de la simetría en la vida diaria. Un lápiz en equilibrio sobre su punta lleva una existencia totalmente simétrica en la cual todas las direcciones son equivalentes. Pero esta simetría se pierde cuando cae -ahora sólo una dirección cuenta-. Por otro lado su condición es ahora más estable, el lápiz no puede volver a caer, ha llegado a su nivel más bajo de energía.

 

El vacío tiene el nivel de energía más bajo posible en el cosmos. En efecto, un vacío en física es precisamente un estado con la menor energía posible. Sin embargo, no está totalmente vacío. Desde la llegada de la física cuántica, el vacío está lleno de una burbujeante sopa de partículas que aparecen e inmediatamente desaparecen en invisibles y ubicuos campos cuánticos. Estamos rodeados por campos cuánticos que se extienden por el espacio; las cuatro fuerzas fundamentales de la naturaleza también son descritas como campos. Uno de ellos, el gravitacional, es conocido por todos nosotros. Es el que nos mantiene pegados a la tierra y determina la dirección arriba-abajo.

Nambu indicó que las propiedades del vacío son de gran interés para el estudio de la rotura espontánea de la simetría. Un vacío, que es el estado más bajo de energía, no se corresponde con el estado de mayor simetría. Tan pronto como el lápiz se cae, la simetría del campo cuántico queda rota y sólo una de las muchas direcciones posibles es elegida. En las últimas décadas los métodos de Nambus para tratar la violación de la simetría espontánea en el Modelo Estandar han sido refinados y son frecuentemente usados hoy para calcular los efectos de la fuerza fuerte.

Hablar de todo esto nos lleva hacia caminos amplios y de un largo recorrido.

¡Pero faltan los campos! Los cuatro campos. Sabemos que un cuerpo con masa crea alrededor de sí un campo gravitacional, un campo de fuerza que ejerce una fuerza sobre otro cuerpo masivo y viceversa. Análogamente, un cuerpo cargado eléctricamente, crea un campo electromagnético (si está en reposo, se percibe sólo su componente eléctrico, si está en movimiento se manifiesta también el componente magnético) y ejerce una fuerza electromagnética sobre otro cuerpo electrizado y viceversa.

De la misma manera, está el campo de la fuerza fuerte y el campo de la fuerza débil. O sea, hay cuatro campos fundamentales: el electromagnético, el fuerte, el débil y el gravitacional. Las  partículas mediadoras son los quantos de los campos correspondientes: los fotones son los quantos del campo electromagnético, los gluones son los quantos del campo fuerte, las partículas W y Z del campo débil y los gravitones serían los quantos del campo gravitatorio.

En otras palabras, los cuatro campos fundamentales son el campo de fotones (electromagnético), el de gluones (fuerte), el de partículas W y Z (débil) y el de gravitones (gravitacional). El problema en esa bella simetría de cuatro cargas, cuatro interacciones, cuatro fuerzas, cuatro tipos de partículas mediadoras y cuatro campos es que aún no fue detectado ningún gravitón y la gravedad, en sí, no encaja bien en esa teoría llamada Modelo Estándar y, por eso precisamente, se dice que es incompleto y que necesitamosm una teoría cuántica de la Gravedad. En ese aspecto, yo, no las tengo todas conmigo, dado que la fuerza de Gravedad parece una teoría aparte y no quiere mezclarse con las otras. Sin embargo, dicen los de la teoría de cuerdas que allí, sí encajan las cuatro fuerzas.

d

Mucho, muchísimo nos queda por explicar en relación al Modelo estándar y a todo lo que en él está unido. Sin embargo, en física se avanza poco a poco, vamos conociendo cositas que unidas a otras cositas finalmente forman un todo en el que podemos contemplar una perspectiva más amplia y general y, a veces, hasta puede llegar a enseñarnos la belleza que encierram esos cuadros que pinta la Naturaleza y que nosotros, osados, tratamos de descubrir.

emilio silvera

Interacciones

Como pueden haber deducido por el título, me estoy refiriendo a cualquiera de los cuatro tipos diferentes de interacciones que pueden ocurrir entre los cuerpos.  Estas interacciones pueden tener lugar incluso cuando los cuerpos no están en contacto físico y juntas pueden explicar todas las fuerzas que se observan en el universo.

Viene de lejos el deseo de muchos físicos que han tratado de unificar en una teoría o modelo a las cuatro fuerzas, que pudieran expresarse mediante un conjunto de ecuaciones. Einstein se pasó los últimos años de su vida intentándolo, pero igual que otros antes y después de él, aún no se ha conseguido dicha teoría unificadora de los cuatro interacciones fundamentales del universo. Se han hecho progresos en la unificación de interacciones electromagnéticas y débiles.

Recreación de la Tierra según la fuerza de la gravedad. | ESA -   Efe Agencia

Recreación de la Tierra según la fuerza de la gravedad. | ESA – Efe Agencia

El satélite GOCE de la Agencia Espacial Europea (ESA) ha logrado obtener el modelo más preciso visto hasta ahora del campo gravitatorio de la Tierra, que se parece más a una patata que a una esfera con los polos aplanados.

Así lo dijeron expertos en observación de la Tierra reunidos en la Universidad Politécnica de Múnich (sur de Alemania) para presentar los primeros resultados del satélite europeo GOCE (acrónimo en inglés de Explorador de la Circulación Oceánica y de la Gravedad).

En el trabajo que sigue, cuando hablamos de la relatividad general, nos referimos alconcepto de la fuerza gravitatoria, unas 1040 veces más débil que la fuerza electromagnética. Es la más débil de todas las fuerzas y sólo actúa entre los cuerpos que tienen masa. Es siempre atractiva y pierde intensidad a medida que las distancias entre los cuerpos se agrandan. Como ya se ha dicho, su cuanto de gravitación, el gravitón, es también un concepto útil en algunos contextos. En la escala atómica, esta fuerza es despreciablemente débil, pero a escala cosmológica, donde las masas son enormes, es inmensamente importante para mantener a los componentes del universo juntos. De hecho, sin esta fuerza no existiría el Sistema Solar ni las galaxias, y seguramente, nosotros tampoco estaríamos aquí. Es la fuerza que tira de nuestros pies y los mantiene firmemente asentados a la superficie del planeta. Aunque la teoría clásica de la gravedad fue la que nos dejó Isaac Newton, la teoría macroscópica bien definida y sin fisuras de la gravitación universal es la relatividad general deEinstein, mucho más completa y profunda.

Nadie ha podido lograr, hasta el momento, formular una teoría coherente de la Gravedad Cuántica que unifique las dos teorías. Claro que, la cosa no será nada fácil, ya que, mientras que aquella nos habla del macrocosmos, ésta otra nos lleva al microcosmos, son dos fuerzas antagónicas que nos empeñamos en casar.

Por el momento, no hay una teoría cuántica de la interacción gravitatoria satisfactoria. Es posible que la teoría de supercuerdas pueda dar una teoría cuántica de la gravitación consistente, además de unificar la gravedad con los demás interacciones fundamentales sin que surjan los dichosos e indeseados infinitos.

La fuerza débil recibe su nombre porque a la escala de sus interacciones es la más débil dentro del modelo estándar. Pero ojo, esto no incluye la gravedad, puesto que la gravedad no pertenece al modelo estándar por el momento. La interacción débil ocurre a una escala de 10^{-17} metros, es decir, la centésima parte del diámetro de un protón y en una escala de tiempos muy variada, desde 10^{-13} segundos hasta unos 5 minutos. Para hacernos una idea, esta diferencia de órdenes de magnitud es la misma que hay entre 1 segundo y 30 millones de años.

La interacción débil, que es unas 1010 veces menor que la interacción  electromagnética, ocurre entre leptones y en la desintegración de los hadrones. Es responsable de la desintegración beta de las partículas y núcleos. En el modelo actual, la interacción débil se entiende como una fuerza mediada por el intercambio de partículas virtuales, llamadas bosones vectoriales intermediarios, que para esta fuerza son las partículas W+, W- y Z0.  Las interacciones débiles son descritas por la teoría electrodébil, que las unifica con las interacciones electromagnéticas.

La teoría electrodébil es una teoría gauge de éxito que fue propuesta en 1.967 por Steven Weinberg y Abdus Salam, conocida como modelo WS.  También Sheldon Glashow, propuso otra similar.

Archivo:Ferrofluid poles.jpg

Ferrofluido que se agrupa cerca de los polos de un magneto poderoso.

La interacción electromagnética es la responsable de las fuerzas que controlan la estructura atómica, reacciones químicas y todos los fenómenos electromagnéticos. Puede explicar las fuerzas entre las partículas cargadas, pero al contrario que las interacciones gravitacionales, pueden ser tanto atractivas como repulsivas. Algunas partículas neutras se desintegran por interacciones electromagnéticas. La interacción se puede interpretar tanto como un modelo clásico de fuerzas (ley de Coulomb) como por el intercambio de unos fotones virtuales. Igual que en las interacciones gravitatorias, el hecho de que las interacciones electromagnéticas sean de largo alcance significa que tiene una teoría clásica bien definida dadas por las ecuaciones de Maxwell. La teoría cuántica de las interacciones electromagnéticas se describe con la electrodinámica cuántica, que es una forma sencilla de teoría gauge.

El electromagnetismo está presente por todo el Universo

La interacción fuerte es unas 102 veces mayor que la interacción electromagnética y, como ya se dijo antes, aparece sólo entre los hadrones y es la responsable de las fuerzas entre nucleones que confiere a los núcleos de los átomos su gran estabilidad. Actúa a muy corta distancia dentro del núcleo (10-15 metros) y se puede interpretar como una interacción mediada por el intercambio de mesones virtuales llamados Gluones. Está descrita por una teoría gauge llamada Cromodinámica cuántica.

La interacción fuerte, como se ha explicado muchas veces, es la más fuerte de todas las fuerzas fundamentales de la Naturaleza, es la responsable de mantener unidos los protones y neutrones en el núcleo del átomo. Como los protones y neutrones están compuestos de Quarks, éstos dentro de dichos bariones, están sometidos o confinados en aquel recinto, y, no se pueden separar por impedirlo los gluones que ejercen la fuerza fuerte, es decir, esta fuerza, al contrario que las demás, cuando más se alejan los quarks los unos de los otros más fuerte es. Aumenta con la distancia.

El concepto de campo de Faraday ha dado mucho juego en Física, es un concepto ideal para explicar cierttos fenómenos que se han podido observar en las investigaciones de las fuerzas fundamentales y otros. El campo no se ve, sin embargo, está ahí, rodea los cuerpos como, por ejemplo, un electrón o el planeta Tierra que emite su campo electromagnético a su alrededor y que tan útil nos resulta para evitar problemas.

Me he referido a una teoría gauge que son teorías cuánticas de campo creadas para explicar las interacciones fundamentales. Una teoría gauge requiere un grupo de simetría para los campos y las potenciales (el grupo gauge). En el caso de la electrodinámica, el grupo es abeliano, mientras que las teorías gauge para las interacciones fuertes y débiles utilizan grupos no abelianos. Las teorías gauge no abelianas son conocidas como teorías de Yang–Mills. Esta diferencia explica por qué la electrodinámica cuántica es una teoría mucho más simple que la cromodinámica cuántica, que describe las interacciones fuertes, y la teoría electrodébil que unifica la fuerza débil con la electromagnética. En el caso de la gravedad cuántica, el grupo gauge es mucho más complicado que los anteriores necesarios para la fuerza fuerte y electrodébil.

En las teorías gauge, las interacciones entre partículas se pueden explicar por el intercambio de partículas (bosones vectoriales intermediarios o bosones gante), como los gluones, fotones y los W y Z.

El físico Enrico Fermi, refiriéndose al gran número de partículas existentes, dijo: “Si tuviera que saber el nombre de todas las partículas, me habría hecho botánico.

Por todo lo antes expuesto, es preciso conocer los grupos o familias más importantes de partículas, lógicamente  “el espacio tiempo” nos limita y, me remitiré a  las más comunes, importantes y conocidas como:

Protón, que es una partícula elemental estable que tiene una carga positiva igual en magnitud a la del electrón y posee una masa de 1’672614×10-27 Kg, que es 1836,12 veces la del electrón. El protón aparece en los núcleos atómicos, por eso es un nucleón que estáformado por partículas más simples, los Quarks.

Neutrón, que es un hadrón como el protón pero con carga neutra y también permanece en el núcleo, pero que se desintegra en un protón, un electrón y un antineutrino con una vida media de 12 minutos fuera del núcleo. Su masa es ligeramente mayor que la del protón (símbolo mn), siendo de 1’6749286(10)×10-27 kg. Los neutrones aparecen en todos los núcleos atómicos excepto en el del hidrógeno que está formado por un solo protón. Su existencia fue descubierta y anunciada por primera vez en 1.932 por James Chadwick (1891-1974.

Los neutrinos, se cree que no tienen masa o, muy poca, y, su localización es difícil. Se han imaginado grandes recipientes llenos de agua pesada que, enterrados a mucha profundidad en las entrañas de la Tierra, en Minas abandonadas, captan los neutrinos provenientes del Sol y otros objetos celestes, explosiones supernovas, etc.

Neutrino, que es un leptón que existe en tres formas exactas pero con distintas masas. Tenemos el ve (neutrino electrónico) que acompaña al electrón, vμ (neutrino muónico) que acompaña al muón, y vt (neutrino tau) que acompaña a la partícula tau, la más pesada de las tres. Cada forma de neutrino tiene su propia antipartícula.

El neutrino fue postulado en 1.931 para explicar la “energía perdida” en la desintegración beta. Fue identificado de forma tentativa en 1.953 y definitivamente en 1.956. Los neutrinos no tienen carga y se piensa que tienen masa en reposo nula y viajan a la velocidad de la luz, como el fotón. Hay teorías de gran unificación que predicen neutrinos con masa no nula, pero no hay evidencia concluyente.

Se ha conseguido fotografíar a un electrón. Poder filmar y fotografiar un electrón no es fácil por dos razones: primero, gira alrededor del núcleo atómico cada 0,000000000000000140 segundos , y, segundo, porque para fotografiar un electrón es necesario bombardearlo con partículas de luz (y cualquier que haya intentado sacarle una foto a un electrón sabe que hay que hacerlo sin flash).

Electrón, que es una partícula elemental clasificada como leptón, con una carga de 9’109 3897 (54)×10-31Kg y una carga negativa de 1´602 177 33 (49) x 10-19 culombios. Los electrones están presentes en todos los átomos en agrupamientos llamados capas alrededor están presentes en todos los átomos en agrupamientos llamados capas alrededor del núcleo; cuando son arrancados del átomo se llaman electrones libres. Su antipartícula es el positrón, predicha por Paul Dirac.

En los átomos existen el mismo número de protones que el de electrones, y, las cargas positivas de los protones son iguales que las negativas de los electrones, y, de esa manera, se consigue la estabilidad del átomo al equilibrarse las dos fuerzas contrapuestas.

El electrón fue descubierto en 1.897 por el físico británico Joseph John Thomson (1.856 – 1940). El problema de la estructura (si la hay) del electrón no está resuelto. Si el electrón se considera como una carga puntual, su autoenergía es infinita y surgen dificultades en la ecuación conocida como de Lorente–Dirac.

Es posible dar al electrón un tamaño no nulo con un radio ro, llamado radio clásico del electrón, dado por e2/(mc2) = 2’82×10-13cm, donde e y m son la carga y la masa, respectivamente, del electrón y c es la velocidad de la luz. Este modelo también tiene problemas, como la necesidad de postular las tensiones de Poincaré.

Muchas son las partículas de las que aquí podríamos hablar, sin embargo, me he limitado a las que componen la materia, es decir Quarks y Leptones que conforman Protones y Neutrones, los nucleaones del átomo que son rodeados por los electrones.

emilio silvera

Un Rumor del saber

Los orígenes del saber de la Humanidad están dispersos a lo largo y a lo ancho del mundo y también del tiempo. Muchas han sido las Civilizaciones que nos dejaron sus logros, los personajes que, con su ingenio, hicieron posible que la Humanidad continuara, su eterno viaje hacia el futuro incierto.

Aquellas constelaciones del cielo a las que los antiguos dieron el nombre que todavía hoy, seguimos utilizando. Otras de aquellas grandes obras y pensamientos han quedado borrados por las brumas del tiempo y el hecho cierto de que, en aquellas épocas no existían las tecnologías adecuadas para preservar aquellos tesoros del pensamiento humano.

 Civilizaciones pérdidas que poblaron nuestro planeta hace miles de años, dejaron algunas muestras de su grandeza que, muchos siglos después han sido desenterradas y estudiadas. De ellas hemos hablado aquí largamente en variados trabajos que trajeron el recuerdo de aquellos pueblos y sus logros: Los verdaderos cimientos de la Civilización moderna.

Mundos de fascinante belleza que nos hablan de lo que fue.

Hace ya muchos siglos que existieron ciudades modernas donde floreció la cultura, las artes, las letras, la medicina, las matemáticas y la astronomía. Como por ejemplo, la “Casa de la Sabiduría” en Bagdad. Hombres del pasado, pensadores de ingenio y visión futurista, pusieron los cimientos de lo que hoy llamamos el saber, el conocimiento de las cuestiones del mundo, de los secretos de la Naturaleza y del Universo mismo.

 http://2.bp.blogspot.com/_VhpBcDwg5f8/Rf8F7w6dpsI/AAAAAAAAASA/yBBPgQpqOmg/s400/Bagdad-001.jpg

En la antigua ciudad de Bagdad se alentaba el conocimiento. La literatura, la arquitectura y la ciencia alcanzaron su época dorada durante los reinados de los califas Harún Al Rashid (el de Las Mil y Una Noches) y Al-Mamun. Justo en el centro de la ciudad estaba el Palacio Dorado del califa, adornado por 30 mil tapices, 22 mil alfombras y esculturas de todo tipo, incluyendo árboles de oro y plata. En los barrios periféricos, había lugares comunes para judíos y cristianos, consideradas religiones amigas del Islam (mirando aquello, hoy día vemos que hemos retrocedido). La ciudad estaba llena de jardines, fuentes y Mezquitas de increíble belleza. A lo largo del Tigris, se construían elegantes residencias y el río se atravesaba con chalupas hermosas contruídas por ebanistas renombrados.

Eruditos, científicos y artistas acudían a la ciudad en masa y siempre eran bien recibidos. Muchos llegaban con manuscritos de diferentes idiomas, lo que generó un auge en el arte de la traducción. Todos eran almacenados en el palacio dorado, que pronto se quedó sin espacio. Por ese motivo, Al Mamun ordenó la construcción de “La Casa de la Sabiduría”. Una grán biblioteca que fue terminada en el 833 y se convirtió en el punto de reunión de los sabios. Se estudiaban escritos antiguos y se desarrollaban teoremas inéditos.

El deseo de instruirse era tan grande, que los califas se valían de todos los medios para atraer a los sabios. Incluso se declararon guerras para obligar a otros reinos a que entreguen a sus matemáticos o para robarse manuscritos importantes. A su vez, los acuerdos de paz subsiguientes incluían el intercambio de nuevos manuscritos como señal de buena voluntad. Los sabios que trabajaban “full time” en La Casa de la Sabiduría, debían estar de guardia permanente para contestar cualquier duda que tuviera el califa, incluso si esta surgía de madrugada.

ovnis en jeroglificos

Algunas de las obras del pasado, teniendo en cuenta los medios de los que disponían en aquellos momentos, no parece que fuera posible que la hubieran realizados los habitantes del lugar y, en más de una ocasión se ha pensado en seres venidos de otros mundos que dejarón aquí sus huellas haciendo posible toda aquella grandeza. Pero, lo más probable sea que, todo ello, fue posible gracias a hechos dispersos y a la diversidad de pensamiento de los seres humanos, siempre curiosos y deseosos de saber y en la Historia  están recogidos algunos rumores del saber del mundo.

¡Es tan grande el Universo! Ni la mano más experta del pintor, ni los cinceles del diestro escultor, incluso ni nuestra “infinita” imaginación podrá nunca mostrar tanta belleza como en el Universo está presente. Es la Naturaleza, donde reside todo, donde todo podemos hallar, y, dónde, además, los misterios y secretos residen, y, precisamente por ello, en ella están las respuestas que tan insistentemente buscamos.

La reverenda madre debe combinar las artes de seducción de una cortesana con la intocable majestad de una diosa virgen, manteniendo estos atributos en tensión tanto tiempo como subsistan los poderes de su juventud.  Pues una vez se hayan ido belleza y juventud, descubrirá que el lugar intermedio ocupo antes por la tensión se ha convertido en una fuente de astucia y de recursos infinitos.

De “Muad’Dib, comentarios familiares”

POR LA PRINCESA IRULAM

http://4.bp.blogspot.com/-UHQKOgLxUM8/TbbuyCBz0VI/AAAAAAAAABA/Wadq8gHy0XM/s1600/cuerpos.jpg

Todo lo que existe está dentro de nosotros. En nuestro interior, en lo más profundo de nuestras mentes, subyacen las respuestas de los secretos del Universo. Lo único que necesitamos es “Tiempo” para que, al evolucionar, podamos recoger los frutos de esa sabiduría de la que ahora carecemos, simplemente estamos creciendo y, el ritmo lo impone la Naturaleza.

Sí, al parecer, todo está dentro de nosotros y, algunos dicen que lo único que tenemos que hacer es recordar. La Naturaleza que nos creó con los átomos elaborados en las estrella, puso allí la memoria de todo lo que fue, de lo que es y de todo lo que será, y, de esa manera, a medida que vamos evolucionando, los recuerdos acuden a nosotros para que, poco a poco y, en la justa medida, que en cada momento nuestras mentes puedan dominar, podamos ir elaborando nuestras teorías de lo que es el “mundo” con todas sus implicaciones y complejidades. Sin embargo,  finalmente, seremos nosotros los que tendremos que decidir nuestro propio destino.

Bueno, sabemos del destino de las estrellas, también conocemos como será el final de nuestro planeta Tierra, y, tenemos modelos que nos dicen como será el final del Universo en función de la Materia que pueda contener. Sin embargo, el futuro nuestro, el de la Humanidad, está muy confuso…¡Depende de tántas cosas!

luz2

No intentes ver la verdad

sin conocer la mentira.

No sabrás lo que es la luz

sin conocer las tinieblas.

Si no sabes de donde vienes

no sabrás nunca quien eres.

Lo sé por experiencia,

la dificultad, agudiza el ingenio.

http://2.bp.blogspot.com/-QBJtUUiL7nI/TcsHZJH8fzI/AAAAAAAABJg/-AMeWtrdNZE/s1600/padre%2Be%2Bhijo2.jpg

 Mi padre me dijo una vez que el respeto por la

Verdad es el fundamento de la moral.

Nada puede surgir de la nada,

Si surge, es porque había.

En realidad, lo que llamamos vacío,

Está lleno a rebosar.

La vida no es gratis,

Se nos ha dado para pagarla.

¡ De tantas maneras !

 

El Joven Poeta Algernon

Hace más de un siglo que el poeta victoriano Algernon Swinburne expresó una idea en su obra El jardín de Proserpina:

Para liberarnos del amor excesivo a la vida,

de esperanzas y miedos,

damos las gracias brevemente

a cuales quieran que los dioses sean.

por que ningún hombre viva para siempre;

por que los hombres muertos nunca resuciten;

que incluso el río más fatigado

llegue siempre con seguridad al mar.

 El premio Nóbel Steven Weinberg, en parte responsable de nuestra comprensión actual de la Naturaleza, cerró su magnífico libro “Los tres primeros minutos”, con un comentario que rezaba:

“Cuanto más comprensible parece el Universo, más sin sentido parece también.”

Einstein1921_by_F_Schmutzer_2.jpg/220px-Einstein1921_by_F_Schmutzer_2.jpg" alt="Einstein1921 by F Schmutzer 2.jpg" width="220" height="275" />Einstein en 1921.

Lo Incomprensible del Universo, Es que podamos llegar a comprenderlo.

Está claro, al menos para mí, que sabiendo lo que sabemos sobre el Universo,  sobre la vida, sobre como funciona el mundo  y la gente que lo puebla, y sobre el final de todo lo que existe (del Universo también) que, aunque a lo grande, es el mismo final que lo será para todo y para todos…,  al tomar las decisiones cotidianas que forman mi vida, de alguna forma,  esa perspectiva del futuro que será, me hace tomarlas de manera diferente. Nada es tan importante como algunas veces creemos, todo, sin excepción, es relativo. También está claro para mí que, el Universo, además de materia es algo más, ¿será eso que llamamos “espíritu”?  Parece que los mecanismos y el ritmo del Universo ha puesto en nosotros y, posiblemente en seres que, como nosotros, se encuentren dispersos por esas galaxias lejanas hacioéndose las mismas preguntas que nosotros nos hacemos, un “algo especial”. Y, algo flota en el cosmos que, aunque no se deja ver, influye en todos nosotros, ese algo, con sus hilos invisibles, nos conecta e incide en nuestros comportamientos (aunque eso sí, en algunos incide más que en otros).

Sospecho que, en esos hilos invisbles que nos atan a todo lo que existe, está presente la luz. De vez en cuando, un fogonazo de esa luz incide en algunas mentes (Newton, Einstein, Ramanujan…) y les deja mensajes que ellos transmiten al mundo. De esa manera avanzamos.

Alguien, no recuerdo ahora quien, dijo:

 “En el Universo puede haber millones de planetas. si están habitados, ¡qué cantidad de sufrimiento y de locura!, y si no lo están, ¡que desperdicio de espacio!

http://4.bp.blogspot.com/_QbE1I_Gdm1o/TTX7a4EmURI/AAAAAAAAFL0/iq1FTH0C6XU/s1600/postales+de+amor+9.jpg

Claro que, quien sea el que lo dijo, no se acordó del amor, ¡pobre hombre!

Hablemos ahora de algunos personajes de la Historia, de algunos lugares y de algunos hechos que finalmente, cambiaron el mundo donde vivimos. Gracias a que fue así como sucedió todo, ahora podemos, después de haber recogido aquella fantástica cosecha del saber humano, continuar el camino que aquellos seres del pasado emprendieron hacia una larga historia de sucesos que nos llevarán…hasta las estrellas que ellos, sólo podían mirar.

Pitágoras de Samos.  569 a.C. (Samos). 475 a.C. (Tarento).

Pitágoras era hijo de un comerciante griego, por lo que viajó mucho de niño, acompañando a su padre.  No se conocen muchos detalles de su infancia, pero es seguro que recibió buena educación.  En Mileto, Tales y Anaximándro lo introdujeron en el mundo de las Matemáticas y le recomendaron ir a Egipto para profundizar en su estudio, lo que hizo en el 535 a.C. Estudió en el templo de Dióspolis.

¡Si estos viejos muros pudieran hablar! Una parte de lo que queda del Templo que por dentro mostraba obras de considerable belleza y refinada técnica en su elaboración.

Allí fue hecho prisionero hacia el 525 a.C. y llevado a Babilonia, de donde regresaría a Samos hacia el 520 a.C.  Al regreso, fundó una escuela que llamó El Semicírculo.  Al cabo de dos años se trasladó a Crotona, en el sur de Italia, donde fundó una escuela filosófica y religiosa que tuvo muchos seguidores. Las enseñanzas principales decían que la realidad era matemática y que el estudio puede llevar a la purificación espiritual y la unión con la divino. Creían que todo lo que existe son números y todas las relaciones podían reducirse a relaciones numéricas.  Además, atribuían a cada número una propia personalidad (masculina o femenina, perfecta o incompleta, bella o fea).

Por ejemplo, el 10 era el número perfecto, pues contenía en sí mismo los cuatro primeros enteros (1+2+3+4=10).

La escuela exigía a sus miembros estricta lealtad y secretismo por lo que los conocimientos en Matemáticas producidos por ellos eran siempre atribuidos a Pitágoras, y no podemos saber qué descubrió él personalmente y qué se le atribuyó.  Sin ir más lejos, el conocido teorema de Pitágoras no lo descubrió él, sino que ya era conocido por los babilonios mil años antes, aunque puede que él fuese el primero en demostrarlo.

 El objeto de estudio de esta escuela no eran las Matemáticas tal como las pensamos hoy, sino desde una perspectiva más filosófica.  Se preocupaban de los principios en que se basan las Matemáticas, el significado de los conceptos número o círculo, así como qué ha de entenderse por demostración (de un teorema por ejemplo).

Son varios los teoremas debidos a Pitágoras o, más genéricamente, a los pitagóricos: el que afirma que la suma de los ángulos de un triángulo es igual a dos ángulos rectos, o el teorema de Pitágoras, esto es, que un triángulo rectángulo, al cuadrado de la hipotenusa es igual a la suma de los cuadrados de los catetos.

También descubrieron los números irracionales -que no se pueden expresar como el cociente de dos enteros- y los cinco sólidos regulares: el tetraedro, el hexaedro o cubo, el octaedro, el dodecaedro y el icosaedro.

Aunque Pitágoras es uno de los matemáticos griegos más conocidos, a mí, no se porqué, me gusta más Euclides.  Claro que a cada acontecimiento o a cada personaje, hay que valorarlo dentro del contexto de su obra en su época, en su “tiempo”.

Aquí están los primeros vestigios del lenguaje

El lenguaje, las matemáticas, la escritura,… son las cosas que nos hicieron distintos, partiendo siempre de la base de que teníamos los sentidos y la mente que requerían aquellos logros que nos separaron de los demás animales.

La lengua o el lenguaje, cuyos comienzos se limitan a sonidos guturales y sin sentido de aquellos primeros homínidos que, caminando ya erguidos, vivían más o menos en comunidad y, ello, les llevó, a inventarse un sistema arbitrario de signos que los miembros de una comunidad establecían por convención, con el fin de comunicarse, así fueron los principios del lenguaje que, en cada caso, en cada lugar, está relacionado con la psicología y antropología específica de los distintos pueblos, lo que llevó a que el lenguaje, tomado en su conjunto, sea multiforme y heteróclito, y conectado con lo físico-fisiológico-psíquico y dentro de un dominio individual y a la vez social.

El lenguaje hablado se quiso expresar mediante escritura, y, el comienzo, fueron dibujos, signos, jeroglíficos, etc., hasta alcanzar un alto nivel mediante las reglas inventadas para la escritura. La importancia del lenguaje y la escritura para la humanidad no está bien valorada, pocos piensan en lo importante que fue el hecho ocurrido hace ya muchos miles de años, cuando aquel ser primitivo, pintó un animal en la pared de su cueva, allí, en aquel lugar, se dio el primer paso.

 Mediante un conjunto de sonidos articulados podemos manifestar lo que pensamos y comunicarnos con los demás y, cada pueblo, tiene su propio lenguaje.  Este hecho, el de distintas lenguas para cada región del mundo, expresa en realidad nuestro retraso en la evolución del lenguaje, cuyo futuro irreversible es el de una lengua común para todos que, de momento, sólo está conseguida en el ámbito de las matemáticas, un lenguaje mas avanzado y perfecto que el hablado y el escrito.  Los números pueden seguir hablando cuando se acaban las palabras.

 ¿Qué sería de la Física sin las matemáticas? ¿Cómo se podrían explicar algunas cuestiones tan complejas que, las palabras, resultan insuficientes para expresarlas en toda su grandeza?

Antes os hacía un resumen de la vida y obra de Pitágoras y lo comparaba con Euclides, matemático griego de principios del siglo III a. de C. que, vivió en Alejandría (Egipto) durante el reinado del faraón helenista Tolomeo I Soler (325-283 a.C.) quien le encargó modernizar la geometría existente y dio lugar al trabajo que lleva por nombre: Los Elementos, compuesto de trece volúmenes.

En mi libreta sobre personajes, incluí a Euclides y dejé una larga reseña de sus logros pero, decir Euclides es como decir Geometría.  Su Geometría prevaleció durante 2.000 años, hasta que llego Riemann.

De Georg Friedrich Bernard RIEMANN, también he hablado extensamente en bastantes de mis trabajos.  La contribución de Riemann a las matemáticas es impagable, profesor en Gotinga donde se doctoró en 1.851 habiendo sido alumno de Dirichlet, Gauss y Jacobi, Riemann, sin duda alguna, fue uno de los matemáticos más geniales del siglo XIX.  Durante su corta carrera (murió de tuberculosis a los 39 años) hizo avanzar así todos los campos, especialmente:

El Análisis.

La Teoría de números,

La Geometría, y la

Topología.

Riemann inventó una forma nueva de integración (la integral de Riemann) y aplicó la Geometría al cálculo de funciones de variables complejas, lo que le condujo al principio o concepto de superficie de Riemann y le ganó las alabanzas de Gauss. También realizó importantes contribuciones a las ecuaciones diferenciales en derivados parciales, especialmente en su aplicación de la Física, e introdujo la función zeta de Riemann, que se utiliza en el estudio de los números primos.

 Su logro principal fue la Geometría elíptica no euclidiana, que prescinde del quinto postulado de Euclides y lo sustituye por otro que afirma que por un punto exterior a una recta no pasa ninguna paralela a ella.  En la famosa conferencia inaugural de Riemann en la que presentó su geometría, quedó sentado y reconocido por todos el enorme valor de las formas no euclidianas.  Su geometría elípticas y de los espacios curvos, encontraría una insospechada aplicación, 60 años más tarde, en la Teoría de la Relatividad General de Einstein.

¿Cómo podríamos saber todo lo que corre por la mente Humana? Sus intrincados laberintos y sus cien mil millones de neuronas nos hace tener un arma muy poderosa…¿Sabremos utilizarla? La mente humana, en el campo de las matemáticas ha conseguido avances asombrosos.  Así sobre la marcha, me viene a la memoria numerosos descubrimientos en el campo del cálculo, y, como una muestra, se me ocurre lo que se conoce como: relación de Euler, una de las más importantes de las Matemáticas.

Euler

Esta relación liga las cuatro constantes fundamentales de las Matemáticas: la de la aritmética (el 1), la de la Geometría (p), la del cálculo (el número e) y la del álgebra de números imaginarios (i; la raíz cuadrada de menos 1). Euler desarrolló el cálculo de números complejos, demostrando que tiene infinitos logaritmos.  También estudió las sumas de las series, introdujo los símbolos actuales para e, p y la unidad imaginaria, así como la notación f(x) para las funciones y la legra griega sigma mayúscula (å) para la suma de una serie.  También le debemos la constante de Euler y la función gamma de Euler.  En Geometría desarrolló la Geometría analítica y la Trigonometría.

Resolvió el problema de los puentes de Königsberg (demostrar que era imposible pasar por los siete puentes sin cruzar uno de ellos dos veces) y con ello creó la teoría de Grafos.  Estudió los poliedros simples y descubrió la igualdad fundamental caras+vértices=aristas+z.

Euler aplicó el cálculo a la Mecánica y la Astronomía. Leonardo Euler (Leonhard), nació en Basilea en 1.707 y murió en San Petersburgo, en 1.783.  Un matemático suizo al que, igual que a Riemann, debemos mucho.

Otro matemático por el que siento una profunda admiración es por Srinivasa RAMANUJAN (Erode, 1.887-Kumbakonam, 1920.) Matemático indio que, desde una oscura oficina en el puerto de Madrás (donde se ganaba la vida), su amor por las matemáticas para las que demostró tener un don natural, demostrando tener conocimientos asombrosos, casi todos obtenidos de forma autodidacta, llamó la atención del matemático inglés Godfreny Hardy, quien tras leer una carta de Ramanujan, le consiguió una beca en Madrás y otra en Cambridge.

En 1914 viajo a Inglaterra, donde vivió cinco años.  Ramanujan era un genio de las matemáticas.  Hizo avanzar la Teoría de Números, las fracciones continuas y el cálculo de series divergentes, y dedujo por sí mismo casi todos los avances del siglo XIX, como las series de Riemann y las integrales elípticas.  Se interesó mucho por el númerop. Construyo una serie cuya suma está relacionada con él, y desarrolló algoritmos que han permitido obtenerlo con millones de cifras exactas.

En 1917, fue nombrado miembro de la Royal Society de Londres.

 Después de su muerte, aparecieron los que llamaron Los cuadernos perdidos de Ramanujan, cuyo contenido y funciones modulares aún están siendo estudiados por expertos matemáticos.

Cuando aparecieron las libretas, los expertos encargados de revisarlas, comentaron: “Aquí está el trabajo que Ramanujan ha realizado, el último año de su vida mientras se estaba muriendo, y, sólo es comparable, al trabajo que varios de los mejores matemáticos podrían haber realizado durante toda sus vidas”.

¡Valiente personaje, Ramanujan! En uno de los trabajos que aquí he presentado se expuso una extensa biografía del personaje que reflejaba toda su dimensión humana y, sobre todo, del extraño matemático que fue.

Que disfruteis el fin de semana.

¡Qué historias! ¡qué cosas!

sisifo

 

A veces, escalar niveles más altos puede resultar penoso y, para algunos, un esfuerzo que les puede sobrepasar, pero si queremos conseguir alguna cosa, tendremos que pagar el precio. Nada, absolutamente nada en este mundo, se nos regala, todo tenemos que pagarlo de una u otra manera.

La escena me recuerda al viejo Sísifo que fue condenado a subir una gran piedra hasta la cúspide de la montaña y, cuando le faltaba un escaso margen para la llegada, cansado por el enorme esfuerzo realizado, no podía evitar que la gran piedra rodara montaña abajo obligándole así, a comenzar de nuevo. Lo mismo nos ocurre a nosotros en la vida cuando intentamos algo que no llega a salir como pensábamos, sin embargo, más que un fracaso, son sucesos que nos esnseñan la dureza de la vida. El que es poco luchador y se rinde, suele culpar al destino, o, a “su mala suerte”. Algunos, cuando han estado al borde de la derrota, han visto pasar por su lado el resplandor de la felicidad en forma de Amor, y, tan acontecimiento les cambió, algo dentro de ellos saltó y les abrió nuevos horizontes, otras formas de ver las cosas y, sobre todo, más capacidad para sufrir cuando la ocasión así lo requiere. Hay que pensar en el premio, nunca en el esfuerzo que exige lograrlo.

Alguna vez os hablé aquí de Gesner, aquel personaje que tenía una obsesión filológica. Os hablé de su libro de 158 páginas Mitridates, u observaciones sobre las diferencias existentes entre las lenguas que han estado o están en uso en las diversas naciones del mundo entero (1555), él intentó hacer con las lenguas lo que estaba haciendo con los animales y las plantas. Tomando como base su tradducción del padrenuestro. Gesner describió y comparó “la totalidad de las cientos treinta lenguas del mundo”. Por primera vez, se incluyó un vocabulario del lenguje Gitano.

Iconos de Animalium de Conrad Gesne, págs 28 y 175, Publicado en 1560.
Fotografo: James King. Ilustrador: Conrad Gester. Derechos © Australian Museum Research Library

Conrad Gesner (26/03/1516 – 13/12/1565), naturalista suizo, filólogo y bibliógrafo. Desde 1537 profesor de Lausana en 1541 un médico en Zurich, donde murió de la peste. El autor de Historias de animales (es decir, 1-5, 1551 a 1587) – la primera enciclopedia de zoología en el tiempo. Con base principalmente de la clasificación de Aristóteles, Gesner describió los animales en este orden: los animales de cuatro vivípara y ovípara, aves, peces y acuáticos, las serpientes y los insectos. Cada volumen de la materia se organiza en orden alfabético de los nombres de los animales y algunas formas conexas se agrupan en torno a un modelo único de un animal. Gessner trabajo desempeñado un papel importante en la difusión y sistematización de los conocimientos zoológicos. Durante más de 100 años, ha reimpreso varias veces y traducida. Gessner también ha recogido y estudiado las plantas. Ha publicado obras sobre filología. El autor de la primera colección de Trabajo bibliográfico universal Universal (1545-1555). Por ultimo, como arriba mencionamos, hizo un meritorio trabajo sobre las lenguas que se hablaban en el mundo.

 

No es de extrañar que en el libro se note la influencia heterogénea de quienes trabajaron en el. Los pasajes eruditos de Gesner, la posible ordenación básica de Wotton, las líricas…

La obra de Gesner se asocia con la de Aldrovandi, que también realizó una enciclopedia sobre animales. En cierto sentido, Aldrovandi es un Gesner llevado hasta el límite, pero hay un cambio de escenario, el Barroco italiano. Ulises Aldrovandi (1552-1605), nacido en Bolonia de una noble familia, viajó a través de Francia y España. estudiando en Padua y Bolonia, y en esta última fue nombrado profesor de medicina. Su cátedra y su posición como director del jardín botánico le sirvieron para enseñar sobre historia natural. El museo de curiosidades de Aldrovandi fue uno de los mayores de la época, con miles de pinturas, grabados, especímenes, un herbario y minerales. El pretendía realizar un teatro di natura, una representación de todo el mundo natural en un pequeño gabinete que reprodujera el macrocosmos y el microcosmos. Su teatro de la naturaleza contenía ocho mil ilustraciones, once mil animales, frutas y minerales, sy iete mil plantas disecadas. Tres de sus obras sobre animales fueron escritas por él, los tres volúmenes de Ornithologia (Bolonia, 1599, 1600, 1603), De animalibus insectis (1602), y, probablemente, De reliquis animalibus exanguis (editada póstumamente en 1606). El resto de su obra fue editada por su discípulo Cornelius Uterverius, y, tras su muerte, por Bartolomeo Ambrosino. Al igual que en Gesner, los relatos aldrovandinos de animales son un tesoro de resúmenes, anotaciones y paráfrasis procedentes de todo el ámbito del conocimiento. La masa de estos materiales está ordenada en varias categorías, muchas de las cuales fueron usadas por Gesner. La historia natural de Alrovandi ha sido definida como emblemática, y como resultado cada animal se convierte en el centro de múltiples asociaciones textuales y visuales.

Lástima que muchas de estas obras llegaran a nosotros muy deterioradas, o, no llegaron

El erudito, naturalista, médico y polígrafo suizo Conrad Gesner es el enciclopedista del siglo del humanismo.  Escribió y/o editó alrededor de setenta títulos, entre los que se cuentan aportaciones históricas en media docena de disciplinas: de la bibliografía a la historia natural, de la lingüística a la farmacopea. Sus dos obras magnas son la Bibliotheca Universalis (1545-) y las Historiae Animalium (1551-). Con la ‘Biblioteca’ Gesner funda la bibliografía: a un siglo de la invención de la imprenta, reseña la totalidad de lo escrito y publicado, ordenando la información por autores (la Bibliotheca) y por temas o pandectas (el Pandectarium), taxonomía pionera de las clasificaciones de todos los saberes. Los tomos de Historiae Animalium son una enciclopedia aristotélica de los vertebrados (comunes, exóticos e imaginados); sus magníficas ilustraciones (reproducidas por doquier) son, sin duda, el legado más notorio asociado a Gesner.
Lo viejo y lo nuevo se conjugan en los variados intereses de Gesner: formación clásica, espíritu observacional y conciencia de la pluralidad lingüística en la cultura del mundo moderno. Este prisma epistemológico permea en glosarios de historia natural, diccionarios, y sobre todo en su compendio pionero sobre las lenguas conocidas: Mithridates ‘o sobre la diversidad de lenguas usadas por las naciones de todo el orbe’ (1555). Y también en su contribución a proyectos de fijación léxica del alemán, como el diccionario de Josua Maaler(1529-1599).
                                                                              Zurich (Civitates Orbis Terrarum) y detalle del Froschau (Murerplan)
Como naturalista, Gesner fue de los primeros en salir de los gabinentes al campo en busca de especímenes; el relato de una de esas expediciones (al monte Pilatus, cerca de Lucerna) es uno de los textos fundacionales del excursionismo y del alpinismo. La mayor parte de la obra de Gesner fue publicada por Christoph Froschauer (c.1490-1564), primer impresor de Zurich y uno de los impresores más reputados del siglo XVI.
Un día Gesner reveló su intención de explorar las altas montañas, que hasdta entonces sólo habían inspirado pasmo y terror. Gesner halló un modo típicamenter suizo de descubrir la Naturaleza. La Europa renancestista había presenciado un breve y prematuro surgir de la fascinación por la aventura de las montañas. Petrarca (1304-1374) había sido el precursos, con su ascensión al monte Ventoux cerca de Avignon, en 1336. En la cumbre leyó en un ejemplar de las Confesiones de san Agustín que sacó del bolsillo una advertencia dirigida a los hombres que “van a admirar las altas montañas y la inmensidad del océano y el curso de los astros… y se olvidan de sí mismos”.
Leonardo Da Vinci exploró el monte Bo en 1511 con ojos de artista y naturalista. El reformista y humanista suizo Joachin Vadian (1484-1551), amigo de Lutero y defensor de Zwinglio, llegó a la cumbre del Gnepfstein, cerca de Lucerna, en 1518. Pero Gesner fue el primer europeo que publicó un himno de alabanza al montañismo. Tras su ascensión al monte Pilatos, situado cerca de Lucerna, en 1555, escribió su pequeña obra cásica.
Monte Pilatus en Suiza

El Monte Pilatus es una montaña que se encuentra en el macizo de los Alpes suizos, cerca de la ciudad de Lucerna, en Suiza. El punto más alto culmina a 2.137 msnm. En él, Gesner pudo experimentar la maravillosa sensación y experiencia de haber ascendido a una montaña y, en ella, poder descubrir las mil maravillas que allí están y que, desde ella, podemos admirar.

“Si deseais ampliar vuestro campo de visión, sirigid la mirada a vuestro alrededor y contemplad todas las cosas que hay a lo largo y a lo ancho. No faltan atalayas y riscor, desde donde os parecerá que tenéis la cabeza en las nubes. Si, por otra parte, preferís reducir la visión, podeis mirar los prados y los verdes bosques, o adentraros en ellos; y si quereis reducir más, podeis observar los oscuros valles, las sombrías rocas y grandes bocas de las negras cavernas… En verdad, en ningún otro lugar se encuentra tal variedad en tan reducido espacio como en las montañas, en las cuales… en un solo día se puede contemplar y sentir las cuatro estaciones del año, verano, otoño, primavera e invierno. Además, desde los picos más altos de las montañas, la cúpula entera de nuestro cielo se tenderá audazmente abierta ante nuestra mirada, y podreis presenciar la salida y la puesta de las constelaciones sin ningún estorbo, y comprobaréis que el Sol se pone mucho después y sale mucho antes.”

 

 


Descripción: La hoja helada de Orión
Credit & Copyright: Masahiro Miyasaka

NASA: Algunas veces, se puede decir el cielo nocturno es arte. Tomada sobre Japón a principios de mes, una vista del cielo fue fotografiada detrás de una hoja helada. El reflejo de los cristales de hielo en la fría hoja imita el brillo de las estrellas de fondo.

El particular cielo de fondo en esta exposición de 78 segundos realizada con un gran ángulo, sin embargo, puede parecer un tanto interesante y familiar.

 

 

En la izquierda, sin dificultad de encontrar , aparece el rastro de un meteoro. Por debajo y a la derecha del meteoro aparece un gran y largo rastro dejado por un aeroplano. La brillantes estrellas de la izquierda es Sirius, la más brillante estrella en el cielo nocturno. A la derecha de Sirius aparece la constelación de Orión, incluyendo las tres estrellas alineadas del Cinturón, con la roja gigante Betelgeuse.

El brillante camino de luz de la derecha es el grupo abierto de estrellas Pléyades. En similares vistas la constelación de Orión puede ser encontrada en el hemisferio norte al menos en los siguientes meses,.sin embargo podrías tendrás que probar con tu propia hoja.

 

 


Descripción: Orión desde el Spitzer
Credit: NASA, JPL-Caltech, J. Stauffer (SSC/Caltech)

NASA. Pocas vistas cósmicas excitan la imaginación como la Nebulosa de Orión, una inmensa matrona de 1.500 años luz. Extendiéndose 40 años luz sobre la región, esta nueva imagen en infrarrojos desde el Telescopio Espacial Spitzer se construyó con datos destinados a monitorizar el brillo de las jóvenes estrellas de la nebulosa, muchas de las cuales están formadas por polvo que componen discos de formación de planetas.

Las jóvenes estrellas de Orión son sólo tienen un millón de años de antigüedad, pocos comparados con los 4.6 billones (americanos) de años de nuestro Sol.

 

Verdaderamente, tener una visión del cielo desde una atalaya que nos permita observaciones tan maravillosas como las que arriba podemos ver, es una maravilla que, nos funde de manera más profunda con el Universo del que formamos parte, y, el amigo Gesner, así presintió que sería.

Claro que, la Humanidad, aún no ha podido vencer aquellos temores primitivos, en la mayoría de las personas (salvo excepciones), quedan las reminiscencias de aquel temor ancestral a lo desconocido, al peligro que esconde, a… ¿qué nos podremos encontrar allí?

En realidad, el objetivo perseguido con toda esta historia es simple: Hacer ver a quien esto lea que, cualquier empresa que nos podamos proponer, cualquier logro que nos propongamos alcanzar, siempre nos exigirá esa parte nuestra que no todos están disopuestos a dar: Sacrificio y, no en pocas ocasiones, tener que vencer ese miedo que todos tenemos.

emilio silvera

 

 

El Universo siempre está presente

Hace mucho tiempo ya desde que mirábamos el cielo asombrados ante un eclipse de Sol. Cada civilización a lo largo de la Historia entendió el fenómeno natural de una manera distinta, según los conocimientos que poseian, 0, también, según interesaba a los mandatarios de turno.

http://refugioantiaereo.com/wp-content/uploads/eclipse-sol-espacio.jpg

El primer eclipse solar de la década creó el “anillo de fuego” en la provincia de Jiangsu, China. Este evento es conocido como un eclipse anular, ya que el anillo brillante o anillo de luz del sol sigue siendo visible incluso cuando la Luna está directamente entre la Tierra y el sol.La órbita de la Luna no es un círculo perfecto, lo que significa la distancia exacta de la Tierra cambia. Durante un eclipse anular, la Luna está más lejos de la Tierra, por lo que su tamaño aparente es menor que el disco visible del sol.

Ahora, pasado el tiempo, nuestra innata curiosidad nos ha llevado a descubrir que vivimos en un planeta que pertenece a una estrella de una galaxia que forma parte de un grupo de treinta galaxias (el “Grupo Local”) y que a su vez, están inmersas en un Universo que cuenta con decenas de miles de millones de Galaxias como la nuestra.

Hemos podido saber que ese Universo está en expansión y que las Galaxias se alejan las unas de las otras. Se ha podido deducir que el Universo surgió de una explosión a la que llamamos el Big Bang hace ahora 13.700 millones de años. A partir de una singularidad, “un punto de energía y densidad infinitas”, surgió el Universo que, desde entonces, junto con el espacio y el tiempo continua expandiéndose.

[si+el+universo+se+expande,+las+galaxias+chocan+1.jpg]

Aunque las galaxias se alejen las unas de las otras, esto no ocurre a nivel Local. Nuestro Grupo Local de Galaxias, por ejmplo, no es que no se expande y se separen las galaxias, sino que, al contrario, algunas tienden a fundirse con otras, tal es el caso de las Nubes de Magallanes que terminarán por Unirse a la Vía Láctea y, ésta, a su vez, con el tiempo lo hará con Andrómeda que ya viene de camino.

Surgieron los primeros quarks libres que se juntaron para formar protones y neutrones que, a su vez, se unieron y formaron núcleos que, al tener energía positiva, atrajeron a los electrones, de energía negativa, formándose asi lo átomos estables.

Los átomos se juntaron para formar células y éstas, a su vez, juntas formaron materia. Al principio era todo simetría y existía una sola fuerza que lo regía todo, el Universo era totalmente opaco, la temperatura reinante muy alta y todo estaba invadido por una especie de plasma.

Pero la expansión del joven Universo continuó imparable, la temperatura fue descendiendo y la simetría se rompió lo que dio lugar a que dónde sólo había una sola fuerza aparecieran cuatro que ayer mismo quedaron explicadas aquí. Las fuerzas nucleares, fuerte y débil, el electromagnetismo y la Gravedad surgieron de aquella simetría rota y como hemos dicho antes, surgieron los primeros quarks para, con los electrones, fabricar la materia que, que está hecha de Quarks y Leptones. Más tarde, la luz apareció al quedar libres los fotones, y, donde antes todo era opacidad, surgió la transparencia. Pasaron unos doscientos mil años antes de que nacieran las primeras estrellas y se formaran las Galaxias.

http://www.astrocedia.org/wp-content/uploads/2010/07/firststars.jpg

Mediante el uso de un complejo aparato (en el recuadro), los investigadores han medido una reacción química fundamental para la formación de las primeras estrellas, como se observa en esta imagen simulada.

Las estrellas evolucionaron y en sus hornos nucleares se fabricaron elementos más complejos que el primario hidrógeno; con la fusión nuclear en las estrellas se fabricó helio, Litio, magnesio, neón, carbono, oxigeno, etc. etc.

Estas primeras estrellas brillaron durante algunos miles de millones de años y, finalmente, acabado su combustible nuclear, finalizaron su ciclo vital explotando como supernovas lanzando al espacio exterior sus capas más superficiales y cargadas de materiales complejos que, se dispersó por el inmenso cosmos para hacer posible el nacimiento de nuevas estrellas y planetas y… a nosotros que, sin esas primeras estrellas que fabricaron los materiales complejos de los que estamos hecho, no estaríamos aquí.

SN 1987a

Ahí comienzan a formarse los materiales para vida

Ese inmenso tiempo que hemos tenido desde que asombrados, mirábamos brillar las estrellas sobre nuestras cabezas sin saber lo que eran, o bien, asustados, nos encogíamos ante los rayos amenazadores de una tormenta o huíamos despavoridos ante el rugido aterrador de la Tierra con sus temblores de terremotos pavorosos o explosiones inmensas de enormes montañas que vomitaban fuego.

Desde entonces, hemos aprendido a observar con atención, hemos desechado la superstición, la mitología y la brujería para atender a la lógica y a la realidad de los hechos. Aprendimos de nuestros propios errores y de la naturaleza.

Como ya se dijo antes, ahora sabemos de donde vinimos, qué debemos hacer para continuar aquí sin estropearlo todo, y, seguramente, con poco margen de error, podríamos decir también hacia donde nos dirigimos.

Una de las propiedades del “tiempo” es que, en su transcurrir pasan cosas. Estas cosas que pasan, estos sucesos, los reunimos y los guardamos, le llamamos historia y nos sirven para recordar y aprender. De lo bueno que pasó para repetirlo y mejorarlo, de lo malo para procurar que no vuelva a ocurrir.

Eso, lo que ocurrió, es lo que llamamos pasado. Lo que ocurre ahora mismo, en este preciso instante, es lo que llamamos el presente y, lo que no ha ocurrido aún es lo que llamamos el futuro.

En realidad, como el tiempo nunca se para, el presente no existe, es algo tan efímero que ocurre y al instante es pasado, y entramos en el futuro que, a su vez, pasa vertiginoso por el instante “presente” que se convierte en “pasado” y rápidamente estamos en el “futuro”, otra vez.Así que, en realidad ¿Dónde estamos?

El concepto de tiempo está enclavado en las profundidades y conceptos más avanzados de la física y la astronomía. Sin embargo, su verdadera naturaleza permanece en el misterio. Todo acontece con el transcurso del tiempo que es implacable y fluye continuamente y todo lo que existió, lo que existe y, lo que existirá, está sometido a los efectos del tiempo que, desgraciadamente, si podemos ver. La destrucción provocada por el paso del tiempo es muy real y, tanto en las cosas como en nosotros mismos, el resultado es el mismo; ¡la aniquilación y la muerte!

(En este punto, no puedo dejar de anotar la aclaración de que en las Galaxias espirales, se produce entropía negativa que contrarresta el Caos de la irreversible destrucción que, más bien, es una transformación).

Hace mil quinientos años que, San Agustín, filosofo y sabio Obispo de Hipona, preguntó: ¿qué es el tiempo? Y se respondió a si mismo: “Si alguien me lo pregunta, sé lo que es. Peso si deseo explicarlo, no puedo hacerlo”.

http://juancarrion.files.wordpress.com/2010/03/reloj_dali11.jpg

¡El tiempo! Se nos va de la mano

Su transcurrir, desde “tiempos remotos”, ha sido una abstracción que ha cautivado e intrigado a las mentes humanas que han intentado entenderlo en todas las vertientes y en todos los sentidos. Del tiempo, las mentes más preclaras, han intentado definir, en esencia, lo que es. La verdad es que, unos con más fortunas que otros, con más interés o con mejor lógica científica dejaron sus definiciones que, de todas formas, nunca llegaron a llenar ese vacío de una explicación convincente, sencilla, que todo el mundo comprenda y que esté basada en principios naturales que nos digan su origen, su transcurrir y, si es que lo hay, su final. Porque ¿Es el tiempo infinito?

Infinito, según las leyes de la física, no puede haber nada. Todo ha tenido un principio y tendrá un final, valdrá tal aseveración también para el tiempo, o, por el contrario éste seguirá cuando todo acabe. ¡Es tan extraño el Tiempo!

Ni siquiera el Universo, es infinito y, conforme determine la Densidad crítica de la materia que contiene, un día, dejará también de existir.

Luego si el tiempo nació con el Big Bang, es probable que finalice con el Big Crunch, o, en su caso, cuando el Universo quede congelado, yermo y frío, sin vida. Es una posibilidad.

Hemos tenido que “inventar el tiempo” para controlar y reglar nuestros movimientos Sociales, anuestras vidas.

Como antes explicaba, el pasar del tiempo es muy subjetivo dependiendo de la situación de quien lo percibe. Un minuto puede parecer eterno o un suspiro, dependiendo del estado de dolor o de felicidad de quien lo mide. También será relativo, no pasa a la misma velocidad para todos, depende de la velocidad a que esté viajando y de qué observador lo esté midiendo, como quedó demostrado con la Teoría Especial de la Relatividad de Einstein.

Desde tiempos inmemoriales hemos querido medir el tiempo, el día y la noche, las estaciones, el sol, relojes de arena, etc. etc., hasta llegar a sofisticados aparatos electrónicos o atómicos que miden el tiempo cotidiano de los Humanos con una exactitud de solo un retrazo de una millonésima de un segundo cada 100 años.

Hemos inventado éstas medidas de tiempo para controlar nuestras actividades cotidianas y nuestras vidas.

La medida de tiempo elegida es el segundo que, en las unidades del SI tiene el símbolo s y su duración es igual a la duración de: hertzios= 9 192 631 770 períodos de la radiación correspondiente a la transición entre dos niveles hiperfinos del estado fundamental del átomo de cesio 133.

reloj, tiempo, física

 

 

reloj, tiempo, física

Reloj de Cesio

Reloj atómico cuyo funcionamiento se basa en la diferencia de energía entre dos estados del núcleo de cesio-133 cuando se sitúa en un campo magnético. En un tipo, los átomos de cesio-133 son irradiados con radiación de radiofrecuencia, cuya frecuencia es elegida para corresponder a la diferencia de energía entre dos estados. Algunos núcleos de cesio absorben esta radiación y son excitados al nivel superior. Estos átomos son desviados por otro campo magnético, que hace que choquen contra un detector. Una señal de ese detector es llevada al oscilador de radio frecuencia para evitar que se desplace de la frecuencia de resonancia de la que indicamos antes del orden de 9 192 631 770 hertzios. De este modo, el instrumento está fijado a esta frecuencia con una precisión mejor que una parte en 1013 (algo mayor que Tera –T-). Así, el reloj de cesio es utilizado en la definición del segundo en el SI.

http://libertaliadehatali.files.wordpress.com/2010/12/extended-mind.jpg

¿Hasta que punto se extiende la mente?

Como podemos ver, la imaginación humana no tiene límites, y, si nos dan el “tiempo” suficiente, quien sabe hasta donde podremos llegar.

Como estamos comentando sobre cuestiones que están conectadas con lo que llamamos tiempo, es difícil que, al estar el tiempo siempre presente, ocurra algo que no tenga nada que ver con él, de alguna manera, el tiempo está presente. Sin embargo, puede existir algún fenómeno que, de alguna manera, esquive al tiempo.

Velocidad de escape para fotones Rsv2 = 2 GMC2

Los núcleos para formar átomos están rodeados por varios niveles de electrones y todos sabemos que un átomo es la parte más pequeña de un elemento que puede existir, es la fracción mínima de ese elemento. Consta de un denso núcleo de protones y neutrones (los nucleones) rodeados de electrones moviéndose a velocidades cercanas a las de la luz. Es lo que se conoce como estructura electrónica del núcleo y que tiene que ver con los niveles de energía que los electrones ocupan.

Una vez dejada la reseña básica de lo que es el átomo y donde están situados los electrones por capas o niveles alrededor de su núcleo, veamos el fenómeno principal de este comentario referido a “esquivar el tiempo”.

 

 

Si un fotón viajero va por el espacio a 299.792’458 km/s., velocidad de c, golpea a un electrón situado alrededor de un núcleo, lo que ocurre, trae de cabeza a los científicos que no saben explicar de manera convincente la realidad de los hechos. El electrón golpeado, absorbe el fotón, y, de manera inmediata, desaparece del nivel que ocupa y, sin recorrer la distancia que los separa, simultáneamente, aparece en el nivel superior.

¿Por donde hizo el viaje? ¿En que lugar se escondió mientras desapareció? ¿Cómo pudo aparecer simultáneamente en otro lugar, sin recorrer la distancia existente entre el nivel de partida y el de llegada? y, ¿cómo esquivó el tiempo para que todo ocurriera simultáneamente?

Estas son preguntas que aún no podemos contestar, aunque sí es verdad que nos gusta especular con viajar en el tiempo y, lo del electrón, conocido como “efecto túnel” o salto cuántico; es una idea.

[Imagen1_salto_cuantico.jpg]

¿Quien nos puede asegurar que, nosotros mismos,no estamos llamamdos también, algún día, a poder dar ese salto cuántico que ahora tánto nos maravilla y para el que no encontramos explicación? El futuro que nos espera es tan misterioso que, teniendo en cuenta ese libre albedrio que “parece” tenemos los humanos, hace que, ni conociendo las condiciones iniciales, podemos decir que será del mañana.

Necesitamos tiempo para cambiar las cosas. Principalmente y en primer lugar, la educación de los niños a los que debemos dar otras perspectivas distintas a las actuales (ya se ve el resultado de cómo marcha nuestra Sociedad). Después, y, sobre todo, la cultura científica de los pueblos.Y, desde luego la Astronomía y la Astrofísica nos llevarán un día al verdadero conocimiento del Universo que nos acoge y al cual pertenecemos.

Si preguntamos ¿Qué es el tiempo?, tendríamos que ser precisos y especificar si estamos preguntando por esa dimensión temporal que no deja de fluir desde el Big Bang y que nos acompaña a lo largo de nuestras vidas, o nos referimos al tiempo atómico, ese adoptado por el SI, cuya unidad es el segundo y se basa en las frecuencias atómicas, definida a partir de una línea espectral particular de átomo de cesio 133, o nos referimos a lo que se conoce como tiempo civil, tiempo coordinado, tiempo de crecimiento, tiempo de cruce, tiempo de integración, tiempo de relajación, tiempo dinámico o dinámico de Baricéntrico, dinámico terrestre, tiempo terrestre, tiempo de Efemérides, de huso horario, tiempo estándar, tiempo local, tiempo luz, tiempo medio, etc. etc. Cada una de estas versiones del tiempo, tiene una respuesta diferente, ya que, no es lo mismo el tiempo propio que el tiempo sidereo o el tiempo solar, o solar aparente, o solar medio, o tiempo terrestre, o tiempo Universal. Como se puede ver, la respuesta dependerá de cómo hagamos la pregunta.

http://ptobal.files.wordpress.com/2008/01/marcapaginas.jpg

Es importante saber aprovechar el poco tiempo que se nos concede, administrarlo bien, no regalar tan preciado tesoro. Muchos lo dejan pasar sin hacer aquello que realmente deben y, cuando quieren rectificar, es tarde, su tiempo pasó y, dejaron tántas cosas sin haccer, tántas palabras sin decir, tántos gestos…

En realidad, para todos nosotros el único tiempo que rige es el que tenemos desde que nacemos hasta que morimos, los otros tiempos son inventos del hombre para facilitar sus tareas de medida, de convivencia o de otras cuestiones tecnicas o astronómicas pero, sin embargo, el tiempo es solo uno; ese que comenzó en el Big Bang y que, seguramente, finalizará con el Universo mismo cuando éste deje de ser dinámico y su energía quede paralizada, no apta para desarrollar trabajo.

Lo cierto es que, para las estrellas supermasivas, cuando llegan al final de su ciclo y deja de brillar por agotamiento de su combustible nuclear, en ese preciso instante, el tiempo se agota para ella. Cuando una estrella pierde el equilibrio existente entre la energía termonuclear (que tiende a expandir la estrella), y, la fuerza de gravedad (que tiende a comprimirla), al quedar sin oposición esta última, la estrella supermasiva se contrae aplastada bajo su propia masa. Queda comprimida hasta tal nivel que, llega un momento que desaparece para convertirse en un Agujero Negro, una singularidad, donde dejan de existir el “tiempo” y el espacio. A su alrededor nace un horizonte de sucesos que, si se traspasa, se es engullido por la enorme gravedad del Agujero Negro.

Archivo:Ergosphere.svg

El tiempo, de ésta manera, deja de existir en estas regiones del Universo que conocemos como singularidad. El mismo Big Bang surgió de una singularidad de energía y densidad infinitas que, al explotar, se expandió y creó el tiempo, el espacio y la materia.

Como contraposición a estas enormes densidades de las enanas blancas, estrellas de neutrones y Agujeros Negros, existen regiones del espacio que contienen menos galaxias que el promedio o incluso ninguna galaxia; a estas regiones las conocemos como vacío cósmico. Han sido detectados vacíos con menos de una décima de la densidad promedio del Universo en escalas de hasta 200 millones de años luz en exploraciones a gran escala. Estas regiones son a menudo esféricas. El primer gran vacío en ser detectado fue el de Boöten en 1.981; tiene un radio de unos 180 millones de años luz y su centro se encuentra aproximadamente 500 millones de años luz de la Vía Láctea. La existencia de grandes vacios no es sorprendente, dada la existencia de cúmulos de galaxias y supercúmulos a escalas muy grandes.

Mientras que en estas regiones la materia es muy escasa, en una sola estrella de neutrones, si pudiéramos retirar 1 cm3 de su masa, obtendríamos una cantidad de materia increíble. Su densidad es de 1017 kg/m3, los electrones y los protones estan tan juntos que se combinan y forman neutrones que se degeneran haciendo estable la estrella de ese nombre que, después del agujero negro, es el objeto estelar más denso del Universo.

Es interesante ver cómo a través de las matemáticas y la geometría, han sabido los humanos encontrar la forma de medir el mundo y encontrar las formas del Universo. Pasando por Arquímedes, Pitágoras, Newton o Gauss (entre otros), siempre hemos tratado de buscar las respuestas de las cosas por medio de las matemáticas.

Magia es cualquier tecnología suficientemente avanzada

Arthur C. Clarke

Pero también es magía el hecho de que, en cualquier tiempo y lugar, de manera inesperada, aparezca una persona dotada de condiciones especiales que le permiten ver, estructuras complejas matemáticas que hacen posible que la Humanidad avance considerablemente a través de esos nuevos conceptos que nos permiten entrar en espacios antes cerrados, ampliando el horizonte de nuestro saber.

Algunas geometrías no euclídeas son:

 

Recuerdo aquí uno de esos extraños casos que surgió el día 10 de Junio de 1.854 con el nacimiento de una nueva geometría: La teoría de dimensiones más altas que fue introducida cuando Georg Bernhard Riemann dio su célebre conferencia en la facultad de la Universidad de Gotinga en Alemania. Aquello fue como abrir de golpe, todas las ventanas cerradas durante 2.000 años, de una lóbrega habitación que, de pronto, se vé inundada por la luz cegadora de un Sol radiante. Riemann regaló al mundo las sorprendentes propiedades del espacio multidimensional.

Su ensayo de profunda importancia y elegancia excepcional, “sobre las hipótesis que subyacen en los fundamentos de la geometría” derribó pilares de la geometría clásica griega, que habían resistido con éxito todos los asaltos de los escépticos durante dos milenios. La vieja geometría de Euclides, en la cual todas las figuras geométricas son de dos o tres dimensiones, se venía abajo, mientras una nueva geometría riemanniana surgía de sus ruinas. La revolución riemanniana iba a tener grandes consecuencias para el futuro de las artes y las ciencias. En menos de tres decenios, la “misteriosa cuarta dimensión” influiría en la evolución del arte, la filosofía y la Literatura en toda Europa. Antes de que hubieran pasado seis decenios a partir de la conferencia de Riemann, Einstein utilizaría la geometría riemanniana tetradimensional para explicar la creación del Universo y su evolución mediante su asombrosa teoría de la relatividad general Ciento treinta años después de su conferencia, los físicos utilizarían la geometría decadimensional para intentar unir todas las leyes del Universo. El núcleo de la obra de Riemann era la comprensión de las leyes físicas mediante su simplificación al contemplarlas en espacios de más dimensiones.

Contradictoriamente, Riemann era la persona menos indicada para anunciar tan profunda y completa evolución en el pensamiento matemático y físico. Era huráno, solitario y sufría crisis nerviosas. De salud muy precaria que arruinó su vida en la miseria abjecta y la tuberculosis.

Riemann nació en 1.826 en Hannover, Alemania, segundo de los seis hijos de un pobre pastor luterano que trabajó y se esforzó como humilde pastor para alimentar a su numerosa familia que, mal alimentada, tendrían una delicada salud que les llevaría a una temprana muerte. La madre de Riemann también murió antes de que sus hijos hubieran crecido.

A edad muy temprana, Riemann mostraba ya los rasgos que le hicieron famoso: increíble capacidad de cálculo que era el contrapunto a su gran timidez y temor a expresarse en público. Terriblemente apocado era objeto de bromas de otros niños, lo que le hizo recogerse aún más en un mundo matemático intensamente privado que le salvaba del mundo hostil exterior.

Para complacer a su padre, Riemann se propuso hacerse estudiante de teología, obtener un puesto remunerado como pastor y ayudar a su familia. En la escuela secundaria estudió la Biblia con intensidad, pero sus pensamientos volvían siempre a las matemáticas. Aprendía tan rápidamente que siempre estaba por delante de los conocimientos de sus instructores, que encontraron imposible mantenerse a su altura. Finalmente, el director de la escuela dio a Riemann un pesado libro para mantenerle ocupado. El libro era la Teoría de números de Adrien-Marie Legendre, una voluminosa obra maestra de 859 páginas, el tratado más avanzado del mundo sobre el difícil tema de la teoría de números. Riemann devoró el libro en seis días.

Cuando el director le preguntó: “¿Hasta dónde has leído ?”, el joven Riemann respondió: “Este es un libro maravilloso. Ya me lo sé todo”.

Sin creerse realmente la afirmación de su pupilo, el director le planteó varios meses después cuestiones complejas sobre el contenido del libro, que Riemann respondió correctamente.

 

Universidad en la que estudió Riemann

 

Con mil sacrificios, el padre de Riemann consiguió reunir los fondos necesarios para que, a los 19 años pudiera acudir a la Universidad de Gotinga, donde encontró a Carl Friedrich Gauss, el aclamado por todos “Príncipe de las Matemáticas”, uno de los mayores matemáticos de todos los tiempos.Incluso hoy, si hacemos una selección por expertos para distinguir a los matemáticos más grandes de la Historia, aparecerá indudablemente Euclides, Arquímedes, Newton y Gauss.

Los estudios de Riemann no fueron un camino de rosas precisamente. Alemania sacudida por disturbios, manifestaciones y levantamientos, fue reclutado en el cuerpo de estudiantes para proteger al rey en el palacio real de Berlín y sus estudios quedaron interrumpidos.

En aquel ambiente el problema que captó el interés de Riemann, fue el colapso que, según el pensaba, suponía la geometría euclidiana, que mantiene que el espacio es tridimensional y “plano” (en el espacio plano, la distancia más corta entre dos puntos es la línea recta; lo que descarta la posibilidad de que el espacio pueda estar curvado, como en una esfera).

Para Riemann, la geometría de Euclides era particularmente estéril cuando se la comparaba con la rica diversidad del mundo. En ninguna parte vería Riemann las figuras geométricas planas idealizadas por Euclides. Las montañas, las olas del mar, las nubes y los torbellinos no son círculos, triángulos o cuadrados perfectos, sino objetos curvos que se doblan y retuercen en una diversidad infinita. Riemann, ante aquella realidad se rebeló contra la aparente precisión matemática de la geometría griega, cuyos fundamentos., descubrió el, estaban basados en definitiva sobre las arenas movedizas del sentido común y la intuición, no sobre el terreno firme de la lógica y la realidad del mundo.

Aunque os pueda parecer que algunos de los temas aquí tratamos se apartan del motivo de la página, os puedo asegurar que todo, absolutamente todo de lo que aquí se habla, está directamente relacionado con el Universo que, al fin y al cabo, es lo que tratamos de llevar a todos.

emilio silvera

Hechos que nos llevan al el futuro

Para no viajar muy atrás en el tiempo, fijaremos el punto de partida en 1687, fecha en que salió a la luz la Obra de Newton, sus Principas. El tiempo transcurrió hasta 1900, fecha en la que Planck publicó un artículo de ocho páginas con su idea del cuanto que sería la semilla que daría lugar al nacimiento de la mecánica cuántica. En 1905, aquel joven de la Oficina de Patentes de Berna, sorprendió al mundo de la Física con su Teoría de la Relatividad Especial. Se produjeron muchos desarrollos importantes para nuestras imágenes de la Física Fundamental. Uno de los mayores cambios ocurrido en ese período fue la comprensión, básicamente mediante los trabajos de Faraday y Maxwell en el siglo XIX, de que cierta noción de campo físico, que permea en el espacio, debe cohexistir con la previamente aceptada “realidad newtoniana” de las partículas individuales que interaccionan por medio de fuerzas instantáneas.

Conforme a lo que arriba decimos se producen fenómenos y se ponen en marcha mecanismos que hacen posible que, la imagen que vemos, pueda ser posible gracias a la presencia de fuerzas que, aunque no las podamos ver, su presencia se hace patente por los resultados que en su diversidad, son los mecanismos que llevan el ritmo del universo en el que vivímos.

 

Más tarde, esta noción de “campo” se convirtió también en un ingrediente crucial de la teoría de la Gravedad en un espaciotiempo curvo a la que llegó Einstein en 1915. Lo que ahora denominamos campos clásicos son el Campo Electromagnético de Maxwell y el Campo Gravitatorio de Einstein.

relatividad/imagenes/charla3imag/gravedadestira640.jpg" alt="http://www.iac.es/cosmoeduca/relatividad/imagenes/charla3imag/gravedadestira640.jpg" width="640" height="467" />

La presencia del campo gravitatorio de una masa afecta al tiempo y al espacio. La gravedad hace que dos relojes atrasen. Un reloj en la superficie de la Tierra atrasa con respecto a un reloj en la Luna, toda vez que el campo gravitatorio de la Tierra es más potente. De la misma manera, nos podríamos preguntar ¿por qué la gravedad actúa sobre el espacio y alarga el tamaño de los objetos (estirándolos). ¿Dónde podríamos crecer más, si viviéramos en la Tierra o en la Luna?

Pero sigamos. Hoy día sabemos que hay mucho más en la Naturaleza del mundo físico que la sola física clásica. Ya en 1900 -como decimos antes- Max Planck había reveleado los primeros indicios de la necesidad de una “teoría cuántica”, aunque se necesitó un cuarto de siglo más antes de que pudiera ofrecerse una teoría bien formulada y global. También debería quedar claro que, además de todos estos profundos cambios que se han producido en los fundamentos “newtonianos” de la física, ha habido otros desarrollos importantes, tanto previos a dichos cambios como coexistentes con algunos de ellos en forma de poderosos avances matemáticos, dentro de la propia teoría newtoniana.

einst_planck.jpg

En 1905 un desconocido Albert Einstein publicaría unos espectaculares estudios sobre la teoría de la relatividad, pero muy pocos científicos, entre ellos Planck, reconocerían inmediatamente la relevancia de esta nueva teoría científica. Tanta fue su importancia que incluso Planck contribuyo a ampliarla.

Pero igualmente, la hipótesis de Einstein sobre la ligereza del quantum (el fotón), basada en el descubrimiento de Philipp Lenard de 1902 sobre el efecto fotoeléctrico fue rechazada por Planck, al igual que la teoría de James Clerk Maxwell sobre la electrodinámica.

En 1910 Einstein desafía la explicación de la física clásica poniendo el ejemplo del comportamiento anómalo del calor específico en bajas temperaturas. Planck y Nernst decidieron organizar la primera Conferencia de Solvay, para clarificar las contradicciones que aparecían en la física. En esta reunión celebrada en Bruselas en 1911, Einstein consiguió convencer a Planck sobre sus investigaciones y sus dudas, lo que hizo forjar una gran amistad entre ambos científicos, y conseguir ser nombrado profesor de física en la universidad de Berlín mientras que Planck fue decano.

Otra área importante de avance sobre la que había que llamar la atención es la termodinámica (y su refinamiento conocido como mecánica estadística). Esta estudia el comportamiento de sistemas de un gran número de cuerpos, donde los detalles de los mocimientos no se consideran importantes y el comportamiento del sistema se describe en términos de promedios de las magnitudes adecuadas. Esta fue una empresa iniciada entre mediados del XIX y principios del XX, y los nombres de Carnot Clausius, Maxwell, Boltzmann, Gibbs y Einstein son los protagonistas.

Termodinámica.- Parte de la física que estudia las relaciones existentes entre los fenómenos dinámicos y los caloríficos. Trata de la transformación de la energía mecánica en calor y del calor en trabajo. También describe y relaciona las propiedades físicas de sistemas macroscópicos de materia y energía. La termodinámica estudia los sistemas que se encuentran en equilibrio. Esto significa que las propiedades del sistema—típicamente la presión, la temperatura, el volumen y la masa— son constantes.

Un concepto esencial de la termodinámica es el de sistema macroscópico, que se define como un conjunto de materia que se puede aislar espacialmente y que coexiste con un entorno infinito e imperturbable. El estado de un sistema macroscópico en equilibrio puede describirse mediante propiedades medibles como la temperatura, la presión o el volumen, que se conocen como variables termodinámicas. Es posible identificar y relacionar entre sí muchas otras variables (como la densidad, el calor específico, la compresibilidad o el coeficiente de expansión térmica), con lo que se obtiene una descripción más completa de un sistema y de su relación con el entorno. Cuando un sistema macroscópico pasa de un estado de equilibrio a otro, se dice que tiene lugar un proceso termodinámico. Las leyes o principios de la termodinámica, descubiertos en el siglo XIX a través de meticulosos experimentos, determinan la naturaleza y los límites de todos los procesos termodinámicos.

¿Cuales son los Principios de la Termodinámica?

 

 

Cuando dos sistemas están en equilibrio mutuo, comparten una determinada propiedad. Esta propiedad puede medirse, y se le puede asignar un valor numérico definido. Una consecuencia de ese hecho es el principio cero de la termodinámica, que afirma que si dos sistemas distintos están en equilibrio termodinámico con un tercero, también tienen que estar en equilibrio entre sí. Esta propiedad compartida en el equilibrio es la temperatura. Si uno de estos sistemas se pone en contacto con un entorno infinito situado a una determinada temperatura, el sistema acabará alcanzando el equilibrio termodinámico con su entorno, es decir, llegará a tener la misma temperatura que éste.

Primer Principio.-

La cantidad de calor entregado a un sistema es igual al trabajo realizado por el sistema más la variación de su energía interna. Cuando un sistema se pone en contacto con otro más frío que él, tiene lugar un proceso de igualación de las temperaturas de ambos. Para explicar este fenómeno, los científicos del siglo XVIII conjeturaron que una sustancia que estaba presente en mayor cantidad en el cuerpo de mayor temperatura fluía hacia el cuerpo de menor temperatura. El primer principio es una ley de conservación de la energía. Afirma que, como la energía no puede crearse ni destruirse —dejando a un lado las posteriores ramificaciones de la equivalencia entre masa y energía— la cantidad de energía transferida a un sistema en forma de calor más la cantidad de energía transferida en forma de trabajo sobre el sistema debe ser igual al aumento de la energía interna del sistema. A veces, el primer principio se enuncia como la imposibilidad de la existencia de un móvil perpetuo de primera especie.

'Ecosistemas y comunidades biológicas'

                    Flujo de la energía en los ecosistemas. En los ecosistemas se cumplen pues el primer y segundo principio de la termodinámica.

Segundo Principio.-

El segundo dice que solamente se puede realizar un trabajo mediante el paso del calor de un cuerpo con mayor temperatura a uno que tiene menor temperatura. Al respecto, siempre se observa que el calor pasa espontáneamente de los cuerpos calientes a los fríos hasta quedar a la misma temperatura. La segunda ley afirma que la entropía, o sea, el desorden, de un sistema aislado nunca puede decrecer. Por tanto, cuando un sistema aislado alcanza una configuración de máxima entropía, ya no puede experimentar cambios: ha alcanzado el equilibrio. La naturaleza parece pues ‘preferir’ el desorden y el caos. Puede demostrarse que el segundo principio implica que, si no se realiza trabajo, es imposible transferir calor desde una región de temperatura más baja a una región de temperatura más alta. El segundo principio impone una condición adicional a los procesos termodinámicos. No basta con que se conserve la energía y cumplan así el primer principio. Una máquina que realizara trabajo violando el segundo principio se denomina “móvil perpetuo de segunda especie”, ya que podría obtener energía continuamente de un entorno frío para realizar trabajo en un entorno caliente sin coste alguno. A veces, el segundo principio se formula como una afirmación que descarta la existencia de un móvil perpetuo de segunda especie.

[espejo.jpg]

Tercer principio de termodinámica o principio onfalóscópico, (mirarse el ombligo): La televisión se retroalimenta a sí misma. Se hace televisión para hablar sobre televisión.

Tercer Principio.-

El tercer principio de la termodinámica afirma que el cero absoluto no puede alcanzarse por ningún procedimiento que conste de un número finito de pasos. Es posible acercarse indefinidamente al cero absoluto, pero nunca se puede llegar a él.

Ciclos termodinámicos.-

Todas las relaciones termodinámicas importantes empleadas en ingeniería se derivan del primer y segundo principios de la termodinámica. Resulta útil tratar los procesos termodinámicos basándose en ciclos: procesos que devuelven un sistema a su estado original después de una serie de fases, de manera que todas las variables termodinámicas relevantes vuelven a tomar sus valores originales. En un ciclo completo, la energía interna de un sistema no puede cambiar, puesto que sólo depende de dichas variables. Por tanto, el calor total neto transferido al sistema debe ser igual al trabajo total neto realizado por el sistema. Un motor térmico de eficiencia perfecta realizaría un ciclo ideal en el que todo el calor se convertiría en trabajo mecánico. El científico francés del siglo XIX Sadi Carnot, que concibió un ciclo termodinámico que constituye el ciclo básico de todos los motores térmicos, demostró que no puede existir ese motor perfecto. Cualquier motor térmico pierde parte del calor suministrado. El segundo principio de la termodinámica impone un límite superior a la eficiencia de un motor, límite que siempre es menor del 100%. La eficiencia límite se alcanza en lo que se conoce como ciclo de Carnot.

9starlight_fantasy.jpg

  • Gravitación
  • Luz
  • Atracción y repulsión eléctricas
  • Atracción y repulsión magnéticas

Pero sigamos con el objeto principla de este trabajo del que, como siempre me pasa, me he desviado a la termodinámica que ya se dio hace unos días. Aquí hablamos de los “campos clásicos” y, sobre las teorías físicas de campos de Maxwell y Einstein: la física “clásica” ¿Cómo pudieron hablar y describir a la perfección suscesos que el ojo no podía ver, y, simplemente con la imaginación, lo hicieron posible, hasta tal punto que, cuando hablamos de campos electromagnéticos o gravitatorios, en nuestras mentes se instalan las imágenes de unos y otros que podemos “ver” con toda precisión.

La teoría del electromagnetismo desempeña también un papel importante en la teoría cuántica, pues proporciona el “campo” arquetípico para el desarrollo posterios de la teoría cuántica de campos. Por el contrario, el enfoque cuántico apropiado del campo gravitatorio sigue siendo eninmático, escurridizo y controvertido y, abordar ahora aquí estas complejas cuestiones, seguramente daría lugar a explicaciones farragosas debido a mi ignorancia profunda en esos conocimientos y a la levedad de los que puedo poseer.

http://www.nuevoordenmundial.es/wp-content/uploads/2011/05/Ciudad-del-futuro.jpg

Los campos de fuerza de Faraday han dado lugar a que, la imaginación se desboque y corriendo hacia el futuro, haya imaginado inmensas ciudades que, situadas en lugares imposibles, sostienen sin problema a sus habitantes que, resguardados por un “campo de fuerza” están al resguardo de cualquier peligro que del exterior les pueda venir.

Por ahí arriba me refería al hecho de que ya en el siglo XIX se había iniciado un cambio profundo en los fundamentos newtonianos, antes de las revoluciones de la relatividad y la teoría cuántica en el siglo XX. El primer indicio de que sería necesario un cambio semejante se produjo con los maravillosos descubriumientos experimentales de Faraday hacia 1833, y de las representaciones de la realidad que encontró necesarias para acomodar dichos descubrimientos. Básicamente, el cambio fundamental consistió en considerar que las “partículas newtonianas” y las fuerzas” que actúan entre ellas no son los únicos habitantes de nuestro universo.

A partir de ahí había que tomar en serio la idea de un “campo” con una existencia propia incorpórea. Y, fue entonces cuando se produjo la providencial llegada de Maxwell que, al contrario de Faraday, él si entendía bien el complejo mundo de las matemáticas y, en 1864, formuló las ecuaciones que debe satisfacer este “campo” incorpóreo, y quien demostró que estos campos pueden transportar energía de un lugar a otro.

Transporte de energía

Transportando energía

Las ecuaciones de Maxwell unificaban el comportamiento de los campos eléctricos, los campos magnéticos e incluso la luz, y hoy día son conocidas como las ecuaciones de Maxwell, las primeras entre las ecuaciones de campo relativistas. Desde la perspectiva del siglo XX se han hecho profundos cambios y se ha producido profundos avances en las técnicas matemáticas, las ecuaciones de Maxwell parecen tener una naturalidad y simplicidad concincentes que nos hacen preguntarnos cómo pudo considerarse alguna vez que el campo electromagnético pudiera obedecer a otras leyes. Pero semejante perspectiva ignora el hecho de que fueron las propias ecuaciones de Maxwell las que llevaron a muchos de estos desarrollos matemáticos. Fue la forma de estas ecuaciones la que indujo a Lorentz, Poincaré y Einstein a las transformaciones espaciotemporales de la relatividad especial, que, a su vez, condujeron a la concepción de Minkowaki del espaciotiempo.

¡La Mente Humana! ?Hasta donde podrá llegar? ¿Qué limite tendrá impuesto? La respuesta es sencilla: ¡ No hay límites! Y, aunque dicha afirmación la repita en muchos de mis escritos, esa es la realidad.

emilio silvera

Sí, hemos avanzado

Una cosa está clara: Nunca podremos estar en posesión de todo el saber del Universo. Sería muy triste no tener curiosidad por nada, tener todas las respuestas, no tener ningún objetivo que cumplir en el horizonte de nuestros sueños. Parece, según lo poco que podemos saber sobre el funcionamiento de nuestras mentes que, entonces, si eso llegara a ser posible, sería el comienzo del final. La falta de interés por las cosas del mundo haría que, el hastío se apoderara de nosotros y que la falta de secretos que desvelar, nos llevaría a una situación tal que, el deterioro sería irreversible. Somos animales “racionales” y “curiosos” que necesitan plantear preguntas y obtener respuestas, sino ocurre así, el principio dinámico que nos guía hacia adelante desaparecería y todo dejaría de tener sentido.

Una cosa importante en nuestros vidas son los recuerdos y las experiencias vivídas. Ahora, andan detrás de mi (los de una cadena de TV) que me están dando la tabarra para hacer un extenso reportaje sobre mi vida. y, me resisto a que todo “aquello” salga a la luz cuando muchos de los personajes ya no están aquí con nosotros.

He preferido dejar aquí una pincelada, breve y corta de mi vida y, de ella, todos podreis sacar la conclusión de lo que ha sido mi vida que, como la de aquel hombre que subía la montaña con una piedra cargado, ha sido dura y, en momentos, hasta me llevó a situaciones extremas. Sin embargo, sí quieres una cosa, si desea algo, si estás dispuesto a pagar el precio que tal “cosa” vale…la conseguirás.

http://1.bp.blogspot.com/_h7wQ7HPptZM/TBVJr9-SaDI/AAAAAAAAAI8/By2AZunwryI/s1600/magia.bmp

Queremos tocarlo todo con las manos de la mente, y, aunque el riesgo sea grande, ahí estaremos. Siempre encontraremos seres humanos dispuestos a correr un riesgo sin límites por hacer y tratar de conseguir aquellas cosas que conforman sus sueños. Ahora mismo, ¿Cuántos se presentarian voluntarios para un viaje a Marte que, seguramente no tendría regreso? Pues, así somos. Dispuesto a darlo todo por conseguir la meta soñada.

Estamos aquí y, no con mucha frecuencia nos paramos a pesnar en que, la vida, es una misteriosa y hermosa aventura en la que estamos inmersos, desconocimendo por completo, lo que pasará en el tiempo que viene. Un instante es suficiente para cambiar nuestras vidas. Un suceso inesperado puede hacer que todo sea diferente y, no siempre nosotros somos los responsables de ese suceso que, no pocas veces llega del exterior, de la mano de la fortuna o del infortunio. Y, si eso es así (que lo es), ¿cómo no pensamos en ello más a menudo y tratamos de ser mejores?

¿Cuántas veces pasamos de largo ante una escena como esta? Cuando una palabra amable y un poco de aliento, procuraría mucho bien a quien, sintiéndose abandonado por todos, se ve reconfortado con el calor que le transmite una simple brizna de comprensión. Nada podemos perder con pararnos unos minutos para intercambiar unas palabras y entregar unas míseras monedas a quien, más que nosotros, las necesitan.¡Si pudiéramos conocer las historias que están detrás de estas personas! La suerte, por una u otra razón las abandonó. Incluso, los acontecimientos que le trajeron a esta situación, pudieron ser provocados por ellos pero, ¿qué más da? Necesitan de nosotros y habría que buscar un mecanismo para que, las personas, nunca se pudieran ver en tan humillante estado.

Esta es, una de esas veces que comienzas a escribir sin rumbo fijo y, sin que te des cuenta, te paseas por distintos y hasta divergentes lugares a los que no pensabas visitar. Sin embargo, la mente es viva y, a menos atisbo de un camino nuevo, antes de que puedas reaccionar, ya estás andando por ese camino impensado. Trataba al comienzo de hablar de los diferentes logros que en el saber del mundo hemos podido conquistar.

Hablaba de lo misteriosa y desconocida que podía llegar a ser nuestras vidas y de lo efímero que para todos nosotros era el futuro que, podemos tratar de ensamblar con minucioso cuidado, planificando nuestra preparación para hacer frente a la complejidad de nuestra Sociedad y, es verdad que no pocas veces podemos llegar a esa meta, sin embargo, en otras, por razones inesperadas, por acontecimientos ajenos a nosotros, todo se tuerce y, nuestras vidas dan un giro inesperado haciendo que, nuestro futuro sea muy diferente a como fue planificado.

http://www.heconomia.es/public/noticias/fotos/37783772a.jpg

Mi padre, el menor de 7 hermanos en una familia de marineros, se ganaba la vida en uno de esos frágiles barcos de madera que salían a pescar por la costa y, más apretados que holgados, la familia podía salir adelante con lo que podía obtener de este esfuerzo y, en aquel tiempo, de inseguras embarcaciones, hasta se jugaban la vida. Sobre todo en invierno con grandes temporales, nunca se sabía si el hombre volvería a casa. Muchas veces ví a mi pobre madre (ahora tiene 103 años) angustiada esperando alguna noticia de la honda pesquera.

Tenía yo 9 años cuando, embarcado en un pesquero algo mayor que faenaba por Cabo Verde, ocurrió la desgracia. Esta vez, mi padre, había conseguido el puesto de cocinero. Estaba arriba, en la pequeña cocina situada en la cubierta, serían las 3,30 de la madrugada de una fría noche de invierno en el mes de enero del año 1949. Preparaba café para los 7 compañeros que, abajo, en los catres descansaban sus maltrechos huesos. Cuando el café estuviera preparado los llamaría, a las 4 había que “chorrar”, es decir, levantar las redes para recoger la pesca.

Ese fue el momento, en el silencio de la noche, un petrolero imponente se acercó al pesquero que, al parecer no habían visto entre la niebla y, sin más, les pasó por encima partiendo el pesquero en dos mitades que, en pocos minutos, se fueron a pique. Mi padre, ataviado con ropa de agua y botas de goma para andar por cubierta, sólo tuvo el tiempo justo de agarrarse con fuerza a un grueso madero cuadrado que, a su lado, flotaban en el mar encrespado. Sus compañeros, todos dormidos en el fondo del pesquero, nunca pudieron salir de allí.

Durante dos largos días, todo fue incertidumbre, el miedo a no poder regresar, sólo en la inmensidad del océano. El miedo y el frío como únicos compañeros. Finalmente, un mercante que la fortuna hizo que pasara por allí y, que uno de sus tripulantes fumando sobre la borda estuviera oteando el océano, lo vió. Lanzó la voz de alarma y, lo pudieron rescastar en grave estado de hipotermia, amodorrado, perdida la consciencia y en un estado crítico.

El médico de abordo le proporcionó los primeros cuidados y, cuando llegaron a Puerto, le ingresaron en un Hospital. Diez días después, le dieromn el Alta provisional y le enviaron en avión a casa. Lo cierto, amigos míos, es que nunca se recuperó de aquel golpe, siempre fue , desde aquel momento, un hombre asmático incapás de poder hacer su trabajo de ir a la mar.

El suceso, como podreis comprender, cambió por completo el devenir de toda la familia. Mi pobre madre tuvo que trabajar. Yo con 9 años era el mayor de 4 hermanos, tres varones y una hembra. También a mí me tocó colaborar y, tuve que abandonar el Colegio que tanto me gustaba para limpiar zapatos con un maestro zapatero remendón que era lo que había en aquellos tiempos.

foto

Este fue mi destino y ocupación durante aquellos años (desde los 9 a los 16)

Durante aquellos años, a pesar de mi corta edad y, trabajando 10 – 12 horas al día, podía llevar a casa lo suficiente para que toda la familia pudiera ir tirando (ganaba 0,30 céntimos de peseta por cada par de zapatos que limpiaba y, había días que podía entregar a mi madre hasta 8 o 10 pesetas) y, tener cubierto lo más básico. Mis hermanos menores crecían y, también ellos, comenzaron a trabajar. Pude verme un poco más liberado y, entonces, hablé con el Catedrático de Contabilidad que vivía al lado de mi casa, Don Manuel Dominguez. Le expuse mi deseo de no ser zapatero y le conté mis sueños. Quería aprender y prepararme para lograr un mejor lugar en la vida.

La Uex también dice adiós a los exámenes de septiembre

Aquello cambió mi vida. Todos los días, después de jar la zapatería (acorté el horario de trabajo que pasó a ser, en lugar de 8 de la mañana a 9 de la noche, sólo hasta las 6 de la tarde, ya que, a las 7 comenzaban las clases. Así, durante dos años, trabajando y estudiando. Claro que, las cosas no podían ser tan fáciles. Cuando llegué al grupo, me encontré con que allí, se daban materias para mí desconocidas, se hablaba de matemáticas comerciales, primeras materias, Activo y Pasivo, Pérdidas y Ganancias, Balances, Mayor…Una serie de conceptos para mi desconocidos y extraños.

Comencé a pedir libros usados de los primeros años de carrera (Perito Mercantil) y, por las noches, después de salir de la Academia y cenar, cuando toda la familia dormía, sacaba mis viejos libros y estudiaba lo que en ellos se decía hasta altas horas de la noche. Así, durante dos largos años de mucho trabajar y poco dormir, pudo suceder el segundo gran acontecimiento.

El profesor (por suerte para mí) encontró un trabajo más rentable y, cuando le expuso al Director, Don manuel Dominguez (mi benefactor) que se marchaba, éste le dijo: ¿A quien pongo yo ahora?. Don Anacleto -así se llamaba el Profesor-, le contestó: No tiene ningún problema, ahí tiene a Emilio que lo hará bien. ¿Cómo es posible? Enviemeló a la Oficina esta tarde para hacerle una prueba.

Aquello fue un examen en toda regla. Don Manuel y Don Anacleto Vidosa, me bombardearon a preguntas y me dieron unos temas para que los desarrollara: Enunciados de Balances empresariales y otras cuestiones de índole económico en el campo Empresarial. Gracias a mis desvelos y a muchas horas de sacrificio nocturno, en los que, mientras mis amigos se divertían, yo me quedaba en casa estudiando, pude pasar aquella dura prueba que hizo posible el segundo gran cambio en mi vida: Me contrataron como profesor por las tardes y, durante las mañanas, trabajaría en la Oficina de Don Manuel Dominguez, dedicada al Asesoramiento de Empresas.

La Zapatería pasó a ser cosa del pasado. Pasé de tener las manos llenas de betún y cerote a estar bien vestido con traje y corbata. Mi nuevos cometidos me obligaban a ofrecer una buena presencia. Desde entonces, mi único afán fue aprender de todo aquel nuevo mundo que ante mí se había abierto. Cuestiones Fiscales, Laborales, Contables, de Inspecciones de Hacienda…Un nuevo mundo de inagotables experiencias.

Entraba el primero cada día y salía el último y, aquellos tiempos que ganaba antes y después del comienzo de la jornada, los aprovechaba para husmear por las mesas, leer expedientes y ver escritos, ojear requerimientos de Hacienda a las Empresas…Poco a poco, me fue mimetizando con todo aquel mundillo, y, un año más tarde, me dieron la responsabilidad de la Dependencia Fiscal.

Comisiones de Empresas, Juntas de Accionistas, Inspecciones de Hacienda, Asesoramientos Fiscales, Recursos y Reclamaciones, esos fueron desde entonces el pan de cada día. Había cambiado el betún por libros de fiscalidad y reuniones. Largas horas robadas al sueño, hicieron posible que poco a poco, me hiciera con los títulos adecuados para poder representar, con los títulos jurídicos necesarios a todas aquellas empresas y personas que necesitaban mis servicios.

Ante la diversidad de ese mundillo de la Enseñanza (que no dejé de momento), de la Empresa en los ámbitos del Comercio, del Fisco y también el laboral, no tuve otra opción que obtener títulos adecuados a distintas profesiones: Diplomatura en Derecho Fiscal en la Escuela Superior de Barcelona, Graduado Social, en la Universidad de Granada, Oposiciones a Gestor Administrativo, API, Administrador de Fincas Rústicas y Urbanas, Intermediario Financiero, la Licenciatura de Técnicas en Relaciones Públicas en la Universidad de Madrid y algún que otro título. Finalmente, por quitarme una espina largamente clavada, pude obtener (con mucho sacrificio) los tres primeros años de Física…Alguna vez procuraré finalizar la empresa inacabada que, siendo mi verdadero sueño, es el único que no he podido hacer una realidad.

physics41

La física no es sólo una ciencia teórica, es también una ciencia experimental. Como toda ciencia, busca que sus conclusiones puedan ser verificables mediante experimentos y que la teoría pueda realizar predicciones de experimentos futuros.

Dada la amplitud del campo de estudio de la física, así como su desarrollo histórico en relación a otras ciencias, se la puede considerar la ciencia fundamental o central, ya que incluye dentro de su campo de estudio a la química y a la biología, además de explicar sus fenómenos La física en su intento de describir los fenómenos naturales con exactitud y veracidad ha llegado a límites impensables, el conocimiento actual abarca desde la descripción de partículas fundamentales microscópicas, el nacimiento de las estrellas en el universo e incluso conocer con una gran probabilidad lo que aconteció los primeros instantes del nacimiento de nuestro universo, por citar unos pocos conocimientos.

Esta tarea comenzó hace más de dos mil años con los primeros trabajos de filósofos griegos como Demócrito o Aristóteles, y continuada después por científicos como Galileo Galilei, Isaac Newton, James Clerk Maxwell, Albert Einstein, Niels Bohr, Paul Dirac, Richard Feynman, entre muchos otros que, como tantas veces he dejado escrito aquí, me llenan de admiración y, al tratar de emular sus logros, me sumerjo en este mundo mágico para tratar de saber, sobre esas maravillas que la Naturaleza nos ofrece.

Aquí, en este lugar, logro apagar mi sed, al compartir con ustedes mis sueños y mis ideas sobre el mundo que nosm rodea, sobre el Universo que nos acoje, sobre lo que vemos y lo que podemos presentir, sobre lo que imaginamos, sobre lo que creemos que es yn lo que realmente es.

Después de todo eso que os he contado, mi mundo, es mucho más grande y más rico que una galaxia. Mis siete hijos me dan una riqueza que sera difícil de igualar con ningún tipo de tesoros por muiy grande que este pueda ser. El Amor de mi querida esposa, la satisfacción del trabajo bien hecho, la tranquilidad de saber que el deber está cumplido. Esos ratos de asueto, cuando dejando volar la imaginación, nos paseamos por el Cosmos infinito e imaginamos como pudo ser aquello o cómo podrá ser esto otro. Mis ratos con ustedes, mis buenos amigos. Mi mayor riqueza, aparte de mis seres queridos, son algunos miles de libros que tengo en casa (algunos sin desembalar por falta de sitio), ellos, amigos míos, sonn buenos compañeros en horas de soledad en las que nunca se podrá estar más y mejor acompañados.

http://1.bp.blogspot.com/_wdt8oATbwBo/TUUhnTCYEVI/AAAAAAAABbY/TPoABe0Cxx4/s1600/neurona%255B1%255D.jpg

Espero que, durante mucho, mucho tiempo aún, por mi mente sigan corriendo esos asombrosos reflejos de luz que llevan la información entre las neuronas y creen mis pensamientos que, sin duda alguna, serán transmitidos a todos ustedes. Compartir con los demás, es el único sentido que tiene el saber. ¿De qué vale saber alguna cosa y quedartela para tí mismo? Somos animales esencialmente sociales y, siempre necesitaremos de los demás para ser. Un artista necesita exhibir su obra para que otros la puedan contemplar. El escritor quiere que sus escritos sean leídos. También el físico desea que sus teorías o descubrimientos sean transmitidos al mundo.

En este día, cuando comencé a escribir, me proponía hacer un largo recorrido por el saber del mundo. Sin embargo, no siempre las cosas salen como nos la habíamos propuesto, agentes extraños, pensamientos inesperados, se interponen en el camino y terminas contando una cosa totalmente distinta de la que, al principio te proponías.

Perdonad, amigos, la paliza personal que os he dado. Seguramente serán necesidades inexplicables que de pronto tienes de compartir y que, al sentiros cerca, hace que quiera haceros partícipe de aquellos recuerdos y vivencias y rememores momentos olvidados que están ahí, escondidos en lo más profundo de tu ser y, ¿copn quien mejor que con los amigos para compartirlos?

Unos ya conoceis la historia pero, los que han llegado recientemente no saben quien es la persona que, cada día, les cuenta y les habla sobre la Naturaleza, la Vida, el Universo y… nosotros. Así que, ahí lo dejo.

emilio silvera

 

¡La Física!… tiene tántas historias que…

Mecánica cuántica

 

 

 

 

 

La mecánica cuántica que conocemos en nuestros días se ha conseguido gracias a la suma de muchos esfuerzos y sería preciso entrar en la historia pasada de esta disciplina que investiga como es el mundo, como funciona la Naturaleza, para saber como se llegó a moldear esos conocimientos que nos llevan al “universo” de lo infinitesimal, de los objetos más pequeños pero que, sin ellos, no podrían existir los más grandes. Ninguna duda nos puede caber ya sobre el hecho cierto de que, la mecánica cuántica, es una de las ramas principales de la Física y está entre uno de los más grandes avances del pasado siglo XX en lo que al conocimiento humano del mundo se refiere. Nos explica el comportamiento de la materia-energía y, de hecho, sin esos conocimientos hubiera sido imposible alcanzar el nivel tecnológico del que hoy podemos disfrutar.

La estructura de las fuerzas familiares como la Gravedad y el magnetismo fueron desarrolladas relativamente temprano. Todos conocemos la historia de Newton y sus trabajos y que, mucho después, dejó perfeccionado Einstein en relación a la fuerza gravitatoria. Las fuerzas electromagnéticas se determinaron también bastante pronto pero, no fue hasta 1927 cuando Dirac realizaría los primeros cálculos cuánticos de interacción de la radiación con la materia y en los años cuarenta y cincuenta gracias a los trabajos de, entre otros, Schwinger y Feynman, se construyó una teoría (electrodinámica cuántica) compatible con los principios básicos de la relatividad y la mecánica cuántica y con una capacidad predictiva asombrosa. Se han conseguido comprender éstos fenómenos, podríamos decir que al nivel de un acuerdo entre los cálculos teóricos y los resultados experimentales de más de diez cifras decimales, y, tal cosa, amigos míos, es un inmenso logro de la mente humana.

No podríamos comprender el macrocosmos sin haber descubierto antes que, en realidad, está fuertemente ligado al microcosmos, a la física subnuclear, ese mundo de lo muy pequeño que, cuando se profundiza en él, nos habla del futuro dinámico del universo y se comienza a ver con claridad como aquellas cuestiones antes no resultas, están ahí, ante nuestros ojos y para que nuestras mentes la puedan entender gracias a la dinámica activa de ese ámbito que resulta ser el campo de las partículas elementales y las fuerzas que con ellas actúan.

Las interacciones débiles y las interacciones fuertes, por su profunda lejanía, tardaron en ser comprendidas. Está claro que, el corto alcance en el que se desarrollan imposibilitaron bastante su hallazgo. Antes, los físicos no tenían acceso al mundo subatómico al que más tarde pudieron entrar de la mano de los microscopios electrónicos, los grandes aceleradores y otros ingenios de increíble alcance y precisición. Así que, a diferencia de lo que pasó con la Gravedad y el electromagnetismo, no se partía de una teoría clásica bien establecida, de manera que se tuvo que construir directamente, una teoría cuántica y relativista de ambas interacciones: la interacción nuclear débil y la interacción nuclear fuerte.

        Gerardus ´t Hooft

La empresa de comprender aquellas interacciones fue ardua y se tuvo que esperar hasta los año setenta para encontrar las teorías correctas y completas. En estos años se produjeron, primero la demostración por el holandés Gerard ´t Hooft, culminando los trabajos de su mentor, el también holandés, Martinus Veltman, de la autoconsistencia (llamada, por motivos técnicos, renormalización) de las teorías propuestas fenomenológicamente por Glashow, Wienberg y Salam para interacciones débiles; y segundo, el descubrimiento de la propiedad de libertad asintótica (por Gross, Wilczek y Plotzer) de las interacciones fuertes. Ambos grupos consiguieron el Nobel, pero los tres últimos no vieron premiados sus esfuerzos hasta 30 años después, en 2004, cuando se había comprobado de manera suficiente la veracidad de sus predicciones sobre la libertad de los Quarks en su confinamiento, cuando éstos, están juntos y los Gluones, se comportan como si no estuvieran allí, sólo actúan cuando tratan de separse.

        Frank Wilczek (su origen es polaco e italiano) unto con David Groos y David Politzer recibió el Premio Nobel de Física 2004 por el descubrimiento de la libertad asintótica en la teoría de la interacción fuerte.

En 1973, Wilczek, un estudiante graduado trabajando con David Gross en la Universidad de Princeton, descubrió la libertad asintótica que afirma que mientras más próximos estén los quarks menor es la interacción fuerte entre ellos; cuando los quarks están extremadamente próximos la interacción nuclear entre ellos es tan débil que se comportan casi como partículas libres.

Estosd avances hicieron posible obtener teorías consistentes con la relatividad y la mecánica cuántica de ambos tipos de interacciones; teorías que, además han superado con éxito las muchas confrontaciones experimentales que han sido realizadas hasta nuestros días. Aunque no hay ni cálculos teóricos, ni resultados experimentales tan exactos como en el caso de la electrodinámica cuántica, es cierto que el nivel de precisión de los cálculos con interacciones débiles llegan a cuatro y más cifras significativas y, para interacciones fuertes, estamos alcanzando el nivel del uno por ciento.

En ambas imágenes está reflejada la Interacción gravitatoria que, en las grandes estructructuras se hace presente y se deja sentir, podemos ver como funciona y cuáles son sus consecuencia. Sin embargo, en el mundo de lo muy pequeño, esta interacción, continúa siendo la cenicienta en lo que se refiere a la comprensión de la estructura microscópica y la incidencia que la interacción gravitatoria pueda tener ahí y, curiosamente, es la interacción que se conoce desde hace mucho tiempo y sabemos, perfectamente de su funcionamiento en ese ámbito de lo muy grande pero, hace mutis por el foro cuando nos acercamos al mundo de las partículas, de la mecánica cuántica. Por eso se habla tanto de que necesitamos una teoría cuántica de la gravedad.

No tenemos información alguna de la fuerza de Gravedad a nivel experimental sobre la interacción gravitatoria a cortas distancias, donde sólo se puede llegar a través de inmensas energías. A lo más que hemos podido llegar es a experimentos del tipo realizado por Eötvös, midiendo la interacción gravitatoria entre dos cuerpos a distancias del orden del centímetro: las interacciones gravitatorias entre partículas elementales (quarks, electrones o incluso núcleos) es tan minúscula que son pocas las esperanzas de poderlas medir…por ahora ni en muchom tiempo futuro, y, siendo así (que lo es), nos tenemos que dedicar a emitir conjeturas y a especular con lo que podría ser.

En el siglo XIX se consiguió uno e los logros más impresionantes que nunca pudo alcanzar la Humanidad. ¡La comprensión de los fenómenos electromagnéticos. Comprensión en la que participaron (como casi siempre) muchos científicos, entre los que podemos destacar a dos británicos: el inglés Muchael Faraday, responsable de una buena parte de la investigación y de los conceptos experimentales (de él es el concepto de campo que tan importante sería para la Física), y, el escocés James Clerk Maxwell al que le debemos la síntesis teórica que condensó en unas pocas ecuaciones fundamentales, de las propiedades de las interacciones electromagnéticas a nivel clásico, esto es, macroscópico.

Los fenómenos electromagnéticos tal y como se entendían a finales del siglo XIX, se suponían debidos a la fuerza que una carga eléctrica ejerce sobre otra: tanto si las cargas son estáticas (y entonces la fuerza viene dada por la conocida ley de Coulomb) como si están en movimiento, situación en la que se generan campos magnéticos. Las vibraciones de estos campos electromagnéticos se suponían propagándose por el éter (el “éter luminífero”) y la luz se identificaba como un caso particular de estas vibraciones electromagnéticas. La corriente eléctrica se interpretaba como una especie de fluido: recuérdese que, todavía en 1896, Lord Kelvin defendía esta naturaleza continua de la electricidad.

Lo que supuso el descubrimiento de la luz eléctrica para la Humanidad, aunque ahora lo podamos ver como cosa trivial y cotidiana, en realidad vino a cambiar el mundo que se vio de pronto, sacado bruscamente de la penunmbra para sumergirse en la más maravillosa claridad del día artificial. Aquello supuso un cambio enorme para muchos de los ámbitos sociales en las ciudades y, no digamos, más tarde, en el de los hospitales, laboratorios y también en el más cotidiano mundo doméstico.

Está claro que la luz es algo tan importante enn nuestras vidas que, sin ella, nos encontramos desamparados, desnudos y, si nos referimos a la natural, la que nos manda el Sol, la cosa sería más grave ya que, sin  ella, no podríamos estar aquí. De todo esto, como de cualquiera de los temas de Física que pudiéramos escoger al azar, nos podríamos estar hablando durante años…¡es tan fascinante! ¡son tan maravillosos! todos esos conocimientos que, de alguna manera, nos acercan a que podamos comprender en funcionamiento del mundo y nos cuentan el por qué ocurren las cosas de la, manera en que la vemos que pasan. Muchas son las historias que se podrían contar de todos estos sucesos que, por el camino de los descubrimientos tuvimos que recorrer.

 

La teoría cuántica, recordémoslo, afirma que para todo objeto existe una función de onda que mide la probabilidad de encontrar dicho objeto en un cierto punto del espacio y del tiempo. La teoría cuántica afirma también que nunca se conoce realmente el estado de una partícula hasta que se haya hecho una observación. Antes de que haya una medida, la partícula puede estar en uno de entre una diversidad de estados, descritos por la función de onda de Schrödinger. Por consiguiente, antes de que pueda hacerse una observación o medida, no se puede conocer realmente el estado de la partícula. De hecho, la partícula existe en un estado ultramundano, una suma de todos los estados posibles, hasta que se hace una medida.

Cuando esta idea fue propuesta por primera vez por Niels Bohr y Werner Heisemberg, Einstein se revolvió contra ella. “¿Existe la luna sólo porque la mira un ratón?“, le gustaba preguntar. Según la teoría cuántica, en su más estricta interpretación, la Luna, antes de que sea observada, no existe realmente tal como la conocemos. “La Luna puede estar, de hecho, en uno cualquiera de entre un número infinito de estados, incluyendo el estado de estar en el cielo, de estar explotando, o de no estar allí en absoluto. Es el proceso de medida que consiste en mirarla el que decide que la Luna está girando realmente alrededor de la Tierra“. Decía Einstein con ironía.

 

 Einstein no pensó en la posibilidad de que fuera la Luna la que nos esté mirando

Edwin Schrödinger, autor de la ecuación con su función de onda, se disgustó con estas interpretaciones de su ecuación. Para demostrar lo absurdo de la situación creada, Schrödinger colocó un gato imaginario en una caja cerrada. El gato estaba frente a una pistola, que está conectada a un contador Geiger, que a su vez está conectado a un fragmento de uranio. El átomo de uranio es inestable y sufrirá una desintegración radiactiva. Si se desintegra un núcleo de uranio, será detectado por el contador Geiger que entonces disparará la pistola, cuya bala matará al gato.

 

Para decidir si el gato está vivo o muerto, debemos abrir la caja y observar al gato. Sin embargo, ¿cuál es el estado del gato antes de que abramos la caja? Según la teoría cuántica, sólo podemos afirmar que el gato está descrito por una función de onda que describe la suma de un gato muerto y un gato vivo.

Para Schrödinger, la idea de pensar en gatos que no están ni muertos ni vivos era el colmo del absurdo, pero la confirmación experimental de la mecánica cuántica nos lleva inevitablemente a esta conclusión. Hasta el momento, todos los experimentos han verificado, favorablemente, la teoría cuántica.

La paradoja del gato de Schrödinger es tan extraña que uno recuerda a menudo la reacción de Alicia al ver desaparecer el gato de Cheshire en el centro del cuento de Lewis Carroll: “Allí me verás“, dijo el Gato, y desapareció, lo que no sorprendió a Alicia que ya estaba acostumbrada a observar cosas extrañas en aquel lugar fantástico. Igualmente, los físicos durante años se han acostumbrados a ver cosas “extrañas” en la mecánica cuántica.

 

                      La Mecánica cuántica, es , más fascinante el el Pais de las Maravillas de Alicia

Existen varias maneras de abordar esta dificultad de lo incomprensible en mecánica cuántica. En primer lugar, podemos suponer que Dios existe. Puesto que todas las “observaciones” implican un observador, entonces debe haber alguna “conciencia” en el universo. Algunos físicos como el premio Nobel Eugene Wigner, han insistido en que la teoría cuántica prueba la existencia de algún tipo de conciencia cósmica universal.

La segunda forma de tratar la paradoja es la preferida por la gran mayoría de los físicos en activo: ignorar el problema.

El físico Richard Feynman dijo en cierta ocasión: “Creo que es justo decir que nadie comprende la mecánica cuántica. No siga diciéndose a sí mismo, si puede evitarlo, “¿pero cómo puede ser así?” porque usted se meterá “hasta el fondo” en un callejón sin salida del que nadie ha escapado. Nadie sabe como puede ser eso“. De hecho, a menudo se ha dicho que de todas las teorías propuestas en el siglo XX, la más absurda es la teoría cuántica. Algunos dicen que la única cosa que la teoría tiene a su favor es que “es indudablemente correcta”.

 http://gua30.files.wordpress.com/2008/05/mecanicacuantica.jpg

            ¿Siempre será parte del misterio?

Sin embargo, existe una tercera forma de tratar esta paradoja, denominada teoría de los muchos universos. Esta teoría (como el principio antrópico) no gozó de mucho favor en la última década, pero está siendo revitalizada por la función de onda del universo de Stephen Hawking.

Pero, bueno… ¿cómo he llegado hasta aquí? Es cierto que, los senderos de la Física te pueden llevar a tántos sitios…

emilio silvera

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

El árbol de la Vida

La química de la vida es la química del carbono, actuando el agua como disolvente capaz de transportar moléculas de un lugar a otro. Los elementos químicos más utilizados por los organismos biológicos son Carbono, Oxígeno, Nitrógeno e Hidrógeno que se combinan entre sí junto con algunos pocos elementos más para formar moléculas orgánicas básicas (como aminoácidos y azúcares que pueden encontrarse en algunos cometas y pueden formarse libremente en el frío espacio) y luego estructuras mucho más complejas como proteínas y enzimas capaces de desarrollar una química compleja capaz incluso de permitir que algunas moléculas se repliquen. Aunque la ciencia ficción ha tratado otras posibles formas de vida basadas en elementos químicos distintos, los biólogos y los químicos no parecen estar de acuerdo argumentando a favor de las propiedades únicas de los átomos de carbono y las moléculas de agua.

http://universitam.com/academicos/wp-content/uploads/2011/09/galaxy02.jpg

La Nebulosa de Orión, también conocida como M42, es una de las nebulosas más brillantes y más famosos en el cielo. La formación de estrellas brillantes, nubes de gas y una región de estrellas jóvenes y calientes están en la foto izquierda en este mosaico marco de fuerte colorido, que incluye a la nebulosa M43 cerca del centro de la polvorienta y azulada nebulosa de reflexión NGC 1977. Situado en el borde de una gigantesca e invisible nube molecular compleja, los astrónomos han identificado lo que parecen ser numerosos sistemas solares en el inicio de su formación.

La química de la vida y la nucleosíntesis estelar

El estudio de la vida en el Universo se ha extendido en las últimas décadas en un campo científico interdisciplinar entre la astrofísica y la biología que ha acuñado el término de astrobiologíay se ocupa de cuestiones muy diversas que van desde la definición de qué es la vida a el origen de la vida en la Tierra o las posibilidades de su desarrollo en otros mundos.

En el árbol de la vida, construido a partir de comparaciones entre secuencias de nucleótidos de genes de diversos organismos, las plantas y los anumales quedan reducidos a brotes en la punta de una sóla de las ramas. La mayor diversidad de la vida y, por extensión, la mayor parte de su historia, es microbiana. Antes de explorar las rocas precámbricas en busca de rastros de las formas primeras de vida, conviene conocer algunas cosas acerca de las bacterias y las arqueas, los diminutos arquitectos de los ecosistemas terrestres.

Los investigadores, historiadores y otros estudiosos de las cosas que han pasado en el mundo, desde la vida, hasta las civilizaciones y los comportamientos de la sociedades de seres de toda índole, a menudo, tienen que habérselas con datos y documentos sesgados e incompletos e incluso, con datos contradictorios. Sin embargo, y a pesar de dichas limitaciones impuestos por relatos individuales a lo largo del tiempo, los estudiosos pueden llegar a formarse una visión equilibrada del pasado mediante la compulsa minuciosa de distintos documentos y diversas pruebas y fósiles de los quem entresacan aquellos datos que llevan al buen camino, al de la verdad de lo que pasó y que pueden mirar desde la perspectiva de la lejanía en el tiempo que va, siempre acompañada, de profundos estudios de toda índole.


En cualquier sitio de la Tierra, en el lugar más inesperado, podemos encontrar huellas de la vida pasada, mil formas diferentes en las que se configuró la vida para estar presente en este mundo y, no pudiendo adaptarse a él, sucumbrieron y quedaron sepultadas como reliquias del pasado que ahora, los científicos, buscan afanosamente para saber lo que pudo pasar y, sobre todo, algo más sobre nosotros mismos.

Algunos de los mejores biólogos de nuestro mundo, nos dicen que la historia evolutiva está presente en los genes de los organismos actuales, ahí está, el relato completo de su historia evolutiva. De ser así, se trataría de relatos limitados a los vencedores de la vida. Sólo los paleontólogos nos pueden hablar de los Tribobites, los Dinosaurios y otras maravillas biológicas que dejaron de adornar la faz de la Tierra.

Para comprender la Historia de la Vida, tenemos que urdir en una misma tela los descubrimientos de la geología y de la biología comparativa, utilizando los organismos vivos para reanimar a los fósiles y a los fósiles para averiguar cómo ha llegado a formarse la diversidad de nuestra propia era.

A pesar de su abrumadora diversidad de formas y funciones, todas las células comporten un conjunto común de características moleculares, en el que se incluye el ATP (la principal moneda de intercambio de energía de la vida), el ADN, el ARN, un código genético común (con unas pocas excepciones) la maquinaria molecular para las transcripción de la información genética del ADN  al ARN, y más maquinaria para la traducción de los mensajes de ARN a las proteínas estructurales y reguladoras de la función celular. La observación recíproca es igualmente sorprende.

A pesar de su fundamental unidad de estructura molecular, los organismos presentan una extraordinaria variación de tamaño, forma, fisiología y comportamiento. La unidad y la diversidad de la vida son ambas excepcionales a su manera, y constituyen conjuntamente los dos grandes temas de estudio de la Biología comparativa.

Aun el observador más superficial percibe que la diversidad biológica de la Tierra se manifiesta de acuerdo con un patrón de similitud jerarquizada. Los chimpancés y los Humanos son claramente distintos, pero comporten muchos rasgos de su anatomía y fisiología, lo que nos lleva a pensar que, un antecesor común que no era ni homo ni pan, fue el ancestro de ambas especies que, en un momento dado, divergieron.

El registro fósil de la ascendencia humana es notablemente incompleto, pero os restos de esquletos hallados en Áfricva y Asia confirman esta predicción. (Nótese que no cabe esperar que los miembros sucesivamente más antiguos de nuestro linaje se asemejen cada vez más a la morfología de los chimpances. Los humanos, como antes he señalado, no descienden de los Chimpancés, sino que ambos, humanos y chimpancés, divergieron a partir de un antepasado común que no era (como decimos) ni Homo ni Pan.

Claro que, es posible que, cuando oimos alguna vez hablar del “hombre mono”, se pueda referir al hecho cierto de que, en los primeros tiempos de nuestra presencia en la Tierra, nuestros antepasados no andaran tan erguidos como lo hacemos nosotros ahora y, aquella reminiscencia, quedó como “sanbenito” de una descendencia que nunca fue.

Puesto que somos grandes  animales, se nos puede perdonar que tengamos una visión del mundo que tiende a celebrar lo nuestro, pero la realidad es que nuestra perspectiva es errónea. Somos nosotros quiénes hemos evoluciuonado para encajar en el mundo microbiano, y no al revés. Que esto sea así se debe, en parte, a una cuestión histórica, pero también tiene una explicación en términos de diversidad y funcionamiento del ecosistema.

Si los animales son la guinda de la Evolución, las Bacterias son el Pastel. Nadie presta la debida atención a lo importante que son estos “bichitos” para el Planeta y para nosotros que, sin ellos, no podríamos estar aquí. Si nos metemos en las profundidades de “sus mundos” quedaríamos fascinados por las maravillas que, tan minúsculos “seres” pueden llegar a conseguir en ámbitos extremos e increíblemente difíciles de imaginar.

Podríamos estar hablando de este tema un siglo y, cuanto más profundicemos en el tema, más asombrados y maravillados estaremos de lo mucho que, esos “animalitos” han hecho por nosotros y por la atmósfera del planeta.

Nosotros, para no ir más lejos, nuestros cuerpos en seco, tienen un dieza por ciento de su masa de bacterias y, no digamos de las funciones que en nosotros desarrollan las mitocondrias que, nos dan la energía que necesitamos y, sobre todo, en el cerebro.

emilio silvera

Otro Rumor del Saber… ¡Música!

Aproximadamente entre  1.580 y 1.589, algunos caballeros empezaron a reunirse de forma regular en casa del conde Giovanni dei Bardi en Florencia.  Este grupo, conocido como la camerana estaba compuesto por el célebre flautista Vincenzo Galilei (padre del astrónomo Galileo Galilei), Jacobo Peri y Giulio Caccini, también músicos, a los que se sumaba el Poeta Octavio Rinuccini.

Durante el curso de sus conversaciones, principalmente dedicadas al teatro clásico, surgió la idea de que las obras clásicas podían notarse “de forma declamatoria”. Fue así como más adelante nacería la opera.  En términos muy amplios, podemos afirmar que en el largo siglo que va de 1.470 a 1.590 aparecen  los principales elementos de la música moderna en un proceso análogo al que se observa en la pintura.

Los desarrollos en este campo pueden dividirse en tres grupos:

- En primer lugar, se dieron una serie de avances técnicos, tanto para instrumentos como para voces, que permitieron la evolución de los tipos de sonido que escuchamos hoy.

- En segundo lugar, se desarrollaron diversos géneros musicales, lo que condujo a la forma de la música tal y como la conocemos en la actualidad.

- Y, en tercer lugar, tenemos el surgimiento de los primeros compositores de música moderan, los primeros músicos famosos cuyos nombres aún recordamos.

                Jean Ockeghem

Entre los avances técnicos, podemos señalar para empezar el principio de “imitación”, una innovación de la escuela de música flamenca, cuyos principales representantes fuera Jean Ockeghem (c. 1430-1.495) y Jacob Obrecht (c. 1430-1505). Sin embargo, durante el siglo XV y buena parte del XVI, la música flamenca fue ganando prestigio no sólo en Europa septentrional sino también en Italia.

                            Catedral de San Marcos en Venecia

En la corte papal en Roma, en la Catedral de San Marcos en Venecia, en Florencia y en Milán, los músicos flamencos eran los más solicitados.  En este contexto, el término “imitación” designa la costumbre de que en una obra polifónica las voces no canten juntas sino una después de otra, cada una repitiendo lo dicho por la anterior.  Este recurso tenía un gran poder expresivo y se ha mantenido vigente hasta el día de hoy en todos los géneros musicales.

Por la misma época, se introdujeron las masas corales que reunían gran cantidad de voces.  En partículas el coro papal adquirió mucha importancia, si bien fue en Venecia donde el flamenco Adrian Willaert (c. 1.480-1.562) introdujo el coro doble, en el que dos cuerpos cocales se yuxta ponían continuamente uno a otro, algo que tenía una fuerza dramática aún mayor.

Francesco Guami, Vincenzo Ruffo, Orlando Di Lasso y  Adrian Willaert

También fue en Venecia donde se dieron los primeros pasos hacia la orquestación, la idea de designar instrumentos específicos para cada parte de la composición.  Esto se relaciona con el hecho de que fue también en esta ciudad donde se inició la impresión de partituras hacia 1.501, con lo que los intérpretes pudieron llevar las ideas musicales “no en la cabeza, sino en su equipaje”.

Venecia produjo dos músicos extraordinarios:

http://www.morristsai.com/uploaded_images/AidaCincinnatiOpera-778308.jpg

Andrea Gabriela y su sobrino Giovanni.  Fueron ellos quienes perfeccionaron el equilibrio de los coros, con grupos de instrumentos de cuerda y de viento, en galerías corales opuestas que hacían avanzar y retroceder la melodía y que tenían por base dos grandes órganos.

Yehudi Menuhin considera que este momento de la música occidental “marca el auténtico comienzo de la música instrumental independiente” y, en particular, de un elemento que sería de vital importancia a lo largo de la era moderna: la disonancia suspendida.

Esta disonancia, planeada de forma deliberada, llama la atención sobre sí misma y exige ser resuelta (al menos hasta Schönberg, en 1.907), lo que subrayó el carácter emocional de la música y propició el desarrollo de la técnica de la modulación, el libre movimiento de un tono a otro sin el cual había sido imposible el movimiento romántico en la música.

Los siglos XV y XVI también fueron testigos del aumento del número de instrumentos disponibles y, en un sentido rudimentario, de los comienzos de la orquesta.  Inicialmente, tuvo una gran importancia la difusión del arco desde Asia, a través del Islam y Bizancio, donde hacia el siglo X el Rabat y la luna se tocaban con arcos de una o dos cuerdas.

En Europa, el arco musical, descendiente directo del arco de caza, apareció primero en España y Sicilia, pero se difundió con rapidez hacia el norte del continente.  Aunque el sonido producido al puntear las cuerdas se desvanecía con rapidez, se descubrió que las notas emitidas por las cuerdas al vibrar podían prolongarse mucho tiempo frotando un arco sobre ellas.

El segundo acontecimiento decisivo para la evolución de la música occidental fueron las cruzadas de los siglos XII y XIII.  Los nuevos instrumentos encontrados en Oriente Próximo se difundieron velozmente, en particular el antecesor del violín, que aparece por primera vez en ilustraciones bizantinas del siglo XI, cuando tenía muchas formas diferentes (ovalada, elíptica, rectangular) y ya contaba con una parte estrecha para permitir que los movimientos del arco fueran más flexibles.

Existe también evidencias, y este es un claro ejemplo, de una guitarra con lados suaves y curvos, varetas y un mástil largo provisto de varios trastes, encontrada en un bajorrelieve de los Hititas en la colina de Euyuk (año 1000 a.C.) en Cappadocia, Siria (esta región hoy en día se conoce como Asia Menor). A menos que otros monumentos de menor antigüedad salgan a la luz con evidencias de guitarras con suaves curvaturas y soportes de madera en la tapa armónica, se puede sustentar que el instrumento, que requería de cierto grado de destreza en su construcción, murió en Egipto y guitarra 5 cuerdasAsia antes de la aparición de la Grecia Clásica, de tal manera este instrumento tuvo que evolucionar necesariamente de uno nuevo como la cíthara de los griegos en Asia Menor. Que la evolución haya ocurrido durante el Imperio Bizantino o en Siria es razonable y se adecua a las tradiciones de los griegos y su devoción hacia la cíthara, lo cual los llevó a adaptar el mástil y hacer nuevas mejoras al instrumento, en vez de adoptar el rebab, el tanbur o el barbiton de los persas y árabes. De hecho, parece que esto es lo que ha acontecido en realidad. No obstante, en el siglo XIV, en una enumeración de instrumentos musicales realizada por el Archipreste de Hita, una guitarra morisca es mencionada y desfavorable a nuestro supuesto se la compara con la guitarra latina; pero, los árabes de hoy en día siguen tocando un instrumento cuyo nombre es kuitra (que en el Norte de África sería guithara), pero tiene un fondo bombeado, su caja tiene la forma de media pera y con un mástil bastante largo; las cuerdas son tocadas por púas o plectros. El instrumento árabe por lo tanto, pertenece a otra familia, y admitirlo como el ancestro de la guitarra española sería una hipótesis tan engañosa como aquella que asevera que la guitarra deriva del laúd. Otros instrumentos eran el rebec y el gittern, precursora de la guitarra, un enorme instrumento hecho a partir de un bloque de madera sólida.

Los instrumentos de cuerda provistos de teclado aparecen inicialmente en la primera mitad del siglo XV, quizá como desarrollo de un instrumento misterioso, el checker, del que no se conserva ningún ejemplar, por lo que solo lo conocemos a través de ilustraciones.

También existía un primitivo clavicordio, denominado monocordio (quizá inventado por Pitágoras), y un antiguo clavicémbalo, un instrumento alargado, a partir del cual evolucionaron la espineta y el virginal, ambos de tamaño más pequeño.

Para el siglo XVI el laúd, la guitarra, la viola y el violín, se habían hecho muy populares a medida que se difundía el gusto por la música cromática.  Carlos IX, rey de Francia entre 1.560 y 1.574, ordenó la construcción de treinta y ocho instrumentos a Andrea Amati, el famoso fabricante de Cremona, y especificó que doce debían ser violines grandes, doce violines pequeños, seis violas y ocho bajos.

Entre los instrumentos de viento, el órgano se había utilizado desde la época de los romanos, si bien desde el siglo X en adelante había pasado a ser instrumento exclusivo de la Iglesia.

En este campo la importación más significativa de Oriente fue la bombarda, que deriva de la surna persa, un instrumento de doble lengüeta con agujeros para los dedos y pabellón amplio.  El oboe moderno probablemente fue inventado a mediados del siglo XVII por un miembro de la familia Hotteterre, y se introdujo en la corte francesa.  Se consideraba un complemento de los violes, aunque también contribuía al continuo.

Entre las diversas formas musicales surgidas desde el siglo XI podemos destacar el madrigal, la sonata, las formas corales, el concierto, el oratorio y la ópera.

Con la maduración del madrigal, el liderazgo musical pasó de los flamencos a los italianos, y en particular a Roma y Venecia, si bien no se debe olvidar la contribución de los franceses al crear la chanson, conocida en otros lugares como canzon francese.  La chanson era una forma despreocupada y alegre, que con frecuencia proponía “cancioncillas de amor” sentimentales y nostálgicas, según las palabras de Alfred Einstein, en las que la voz pretendía imitar el canto de las aves, y  partir de ella surgiría finalmente la sonata.

Los principales exponentes del madrigal y de la chanson/sonata fueron Giovanni Pierluigi da Palestrina (1.525-1.594) y Orlando di Lasso (1.532-1.594).  En Roma, Palestrina fue  maestro di capella de la iglesia de San Pedro desde 1.571. Compuso noventa y cuatro misas y ciento cuarenta madrigales.  Fundamentalmente fue un compositor religioso.

Lasso, por su parte, fue un maestro del madrigal y del motete, que celebró en sus obras el amor en esta vida y esta tierra.  La búsqueda del estilo y la excelencia instrumental condujo en su momento a la aparición del virtuoso, particularmente en los teclados y las maderas.  En ello también observamos un proceso similar al que tuvo lugar en la pintura: el surgimiento del músico como artista respetado por derecho propio.

Simone Molinaro, Intavolatura di liuto, Libro Primo (1599)

      Canzone Francese a quattro di Thomas Crequillon

Al evolucionar, la canzon francese se dividió en dos tipos: la sonata para instrumentos de viento y la canzona para los de cuerda.  Mientras la primera daría lugar al concierto (y más tarde a la sinfonía), la segunda evolucionaría en la sonata de cámara.

Los humanistas que en Florencia dieron origen a la ópera estaban convencidos de que la primera función de la música era intensificar el impacto emocional de la palabra hablada.  Inicialmente, el nuevo discurso musical se denominó recitativo: el texto se recitaba o declamaba sobre un fondo musical compuesto principalmente por una serie de acordes con disonancias ocasionales con que producir efectos dramáticos.  No obstante, desde el principio existió una estructura armónica, lo que se denomina música “vertical” en oposición a la meramente “horizontal”.

El primer gran compositor de óperas fue Claudio Monteverde (1.567-1.643).  Su Orfeo, escrito para violas y violines y estrenado en Mantua en 1.607, supuso un significativo avance respecto de las óperas presentadas antes en Florencia.  Aunque Monteverde poseía un don original para la armonía que le permitió introducir también algunas disonancias andaces, la principal característica de su música es s gran calidad expresiva, como por ejemplo, Ariadna, o su famoso Lamento de Ariadna, la primera aria o perística que se convirtió en canción popular y fue “tatareada y silbada por toda Italia”

Retrato de Claudio Monteverde                         Claudio Monteverdi compuso dos madrigales titulados Zefiro torna, uno compuesto para cinco voces sobre un soneto de Petrarca y publicado en su Sexto libro de madrigales.

De aquel fenómeno musical surgieron grandes teatros de ópera en toda Europa, si bien hasta 1.637 estos fueron lugares privados, dominio exclusivo de la nobleza.  Sólo después de esa fecha encontramos, de nuevo en Venecia, asistentes a la ópera que pagan por su asistencia a las salas.  En el siglo XVII la ciudad contaba con dieciséis teatros de ópera, cuatro de los cuales abrían todas las noches.

Dejaré aquí esta pequeña reserva que se ocupa de la música en varias vertientes y que ha sido una variante para exponer otra parte (otro rumor), del saber que forma el conocimiento de la Humanidad que adquirió con el paso del tiempo, al observar el comportamiento de la natiraleza, sus sonidos y sus colores, el rumor del agua cantarina y el rugir del viento en las tormentas, las olas del mar al romper contra las muurallas del puerto, todo aquello, encendió en la mente de nuestros antepasados aquellas ideas que, más tarde, transformaron en lo que hoy conocemos por la músuca que alcanzó, unas cotas de perfección inimagibales.

 

emilio silvera

¡La Física! Los Caminos de la Naturaleza.

Einstein se preguntaba a menudo si Dios tuvo alguna elección al crear el universo. Según los teóricos de supercuerdas, una vez que exigimos una unificación de la teoría cuántica y la relatividad general, Dios no tenía elección. La autoconsistencia por sí sola, afirman ellos, debe haber obligado a Dios a crear el universo como lo hizo.

Escuchar a E. Wittin hablar sobre Física, puede ser un viaje alucinante que nos lleve hacia el futuro que está por llegar. Él es el autor de la Teoría M de cuerdas en la que ha unificado todas las versiones de supersimetría, supergravedad, cuerda heterótica, supercuerdas y demás. Se avanza sin descanso pero, seguimos sin poder verificar de forma experimental. Se dice que esta teoría esta adelantada a su tiempo.

Aunque el perfeccionamiento matemático introducido por la teoría de cuerdas ha alcanzado alturas de vértigo y ha sorprendido a los matemáticos, los críticos de la teoría aún la señalan como su punto más débil. Cualquier teoría, afirman, debe ser verificable. Puesto que ninguna teoría definida a la energía de Planck de 1019 miles de millones de eV es verificable, ¡la teoría de supercuerdas no es realmente una teoría!

Con esa simple fçormula, Planck no dijo la energía que se necesitaba para verificar la teoría de cuerdad, es decir 1019 GeV, y, desgraciadamente, esa energía, de momento, no es de este mundo.

¡Es todo tan complejo! La topología nos dará algunas respuestas y, seguramente, las funcionaes modulares de Ramunujan también podría tener el derecho a voto en esto de la teoría de cuerdas.

El principal problema es teórico más que experimental. Si fuéramos suficientemente inteligentes, podríamos resolver exactamente la teoría y encontrar la verdadera solución no perturbativa de la teoría. Sin embargo, esto no nos excusa de encontrar algún medio por el que verificar experimentalmente la teoría; debemos esperar señales de la décima dimensión.

¿La décima dimensión?

“¡Qué extraño sería que la teoría final se descubriera durante nuestra vida! El descubrimiento de las leyes finales de la naturaleza marcará una discontinuidad en la historia del intelecto humano, la más abrupta que haya ocurrido desde el comienzo de la ciencia moderna en el siglo XVII. ¿Podemos imaginar ahora como sería?”

Steven Weinberg

¿Es la belleza un principio físico?

Ni en este monstruo de la Ingenieria y la técnica actual podríamos alcanzar las enertgía de Planck. Queda muy lejos de la posibilidad humana y, no sabemos si, alguna inteligencia extraterrestre la habrá podido conseguir. Estamos hablando de las fuerzas de la creación.

Aunque la teoría de supercuerdas nos da una formulación convincente de la teoría del universo (de todo lo que existe, incluyendo el espacio, el tiempo y la materia), el problema fundamental es que un test experimental de la teoría está más allá de nuestra tecnología actual. De hecho, la teoría predice que la unificación de todas las fuerzas ocurre a la energía de Planck, de 1019 miles de millones de electronvoltios (eV), que es alrededor de mil billones de veces mayor que las energías actualmente disponibles en nuestros aceleradores de partículas.

David Gross, uno de los autores de la versión de la cuerda heterótica que se desarrolla en 26 dimensiones. Incorporada más tarde, por Witten a la Teoría M, compendio de todas las anteriores.

El físico David Gross (el del cuarteto de cuerdas de Princeton), al comentar el coste de generar esta energía fantástica, dice: “No hay suficiente dinero en las tesorerías de todos los países del mundo juntos. Es verdaderamente astronómica“.

Esto resulta decepcionante, porque significa que la verificación experimental, el motor que hace progresar la física, ya no es posible en esta generación actual de máquinas o con cualquier generación de máquinas en un futuro previsible. Esto significa, a su vez, que la teoría decadimensional no es una teoría en el sentido usual, porque es inverificable dado el actual estado tecnológico de nuestro planeta. Nos quedamos entonces con la pregunta: ¿Es la belleza, por sí misma, un principio físico que pueda sustituir la falta de verificación experimental?

El concepto de belleza es dispar, no todos aprecian la belleza de la misma manera, y, asimilar la belleza a un principio físico de la Naturaleza me parece banal, ya que, esa belleza, esté donde esté, es, también, Naturaleza.

Para agitar más aún la controversia, Glashow escribió incluso un poema que termina así:

“La Teoría de Todo, si uno no se arredra,

Podría ser algo más que un caleidoscopio de cuerdas.

Aunque algunas cabezas se hayan vuelto viejas y escleróticas,

No hay que confiar sólo en las cosas heteróticas,

Seguid nuestro consejo y no cedáis la partida:

El libro no está acabado, la última palabra no es conocida”.

Glasgow ha jurado (sin éxito) mantener estas teorías fuera de Harvard, donde él enseña. Pero admite que a menudo siente que es superado en su deseo y la teoría de supercuerdas se cuela por todas las rendijas de la universidad y, además, sus puntos de vista no son compartidos por otros Nobel como Murray Gell-Mann y Steven Weinberg que se decantan en el sentido de que la teoría de supercuerdas proporciona nuestra única fuente actual de candidatos para una teoría final con enormes señales reales de autenticidad. ¿Por qué sino de su interior surgen las ecuaciones de Einstein de la relatividad general y el número mágico 24 de Ramanujan y sus funciones modulares, que al ser generalizadas se convierten en 8 y a las que la relatividad añade 2, para finalmente exigir 10 dimensiones? Los físicos no creen en casualidades pero sí en causalidades; si algo ocurre es debido a lo que existió, al suceso anterior que dio lugar al suceso presente, y que dará lugar al suceso futuro.

El matemático indio más extraño que podía pasarse el día sin levantar la cabeza escribiendo teoremas que ni los mayores matemáticos del momento sabían descifrar. Sus funciones modulares encierran mensajes que están aún por ser descubiertos. ¿Qué nos dirán?

Fue una verdadera pena que los políticos de EEUU dieran al traste con el proyecto SSC (Supercolisionador Superconductor) por su enorme coste de más de 11 mil millones de dólares para construirlo en las afueras de Dallas, Texas, con una circunferencia de 85 Km y rodeado de enormes bobinas magnéticas donde los físicos habrían podido verificar de manera indirecta la teoría decadimensional, además de haber encontrado partículas exóticas tales como la misteriosa partícula de Higgs predicha por el Modelo Estándar. Es la partícula de Higgs la que genera la ruptura de simetría y es por lo tanto el origen de la masa de los quarks. Por consiguiente, la anulación de este proyecto del supercolisionador de partículas nos ha privado de encontrar el “origen de la masa”. Todos los objetos que tienen peso deben su masa a la partícula de Higgs. Incluso, había una posibilidad de que el SSC encontrara partículas exóticas más allá del Modelo Estándar, como “axiones”, que podrían haber ayudado a explicar la materia oscura. También el gravitón, la partícula mediadora en la gravedad, está pendiente de ser encontrada.

Bueno, es posible que aquella decepción sea compensada con el LHC que ahora trabajará a 8 TeV y, posiblemente, para el 2.013, habrá encontrado el Bosón de Higgs que cambiaría el Modelo Estándar de la Física de partículas y…otras cosas.

En aquellos momentos se podían leer comentarios como este:

“Puesto que el supercolisionador no se construirá nunca, y por lo tanto nunca detectará partículas que sean resonancias de baja energía o vibraciones de la supercuerda, otra posibilidad consiste en medir la energía de rayos cósmicos, que son partículas subatómicas altamente energéticas cuyo origen es aún desconocido, pero que debe estar en las profundidades del espacio exterior más allá de nuestra galaxia. Por ejemplo, aunque nadie sabe de dónde vienen, los rayos cósmicos tienen energías mucho mayores que cualquier cosa encontrada en nuestros laboratorios de pruebas.”

Los rayos cósmicos son impredecibles en cuanto a su energía aleatoria. Hace ya aproximadamente un siglo que fueron descubiertos por un padre jesuita de nombre Theodor Wolf en lo alto de la Torre Eiffel en París. Desde entonces, el conocimiento adquirido de estos rayos es bastante aceptable; se buscan y miden mediante el envio de contadores de radiación en cohetes e incluso en satélites a gran altura alrededor del planeta Tierra para minimizar agentes interceptores como los efectos atmosféricos que contaminan las señales. Cuando los rayos energéticos, altamente energéticos, inciden en la atmósfera, rompen los átomos que encuentran a su paso y los fragmentos que se forman caen a tierra donde son detectados por aparatos colocados al efecto en la superficie.

Hercules X-1

El detector de Utah, a unos 140 Km al suroeste de Salt Lake City, es lo suficientemente sensible como para detectar la procedencia, el origen de los rayos cósmicos más energéticos. Hasta el momento, Cygnus X-3 y Hércules X-1 han sido identificados como poderosos emisores de rayos cósmicos. Probablemente son grandes estrellas de neutrones, o incluso agujeros negros en rotación engullendo a sus estrellas vecinas que, inocentes, han osado traspasar el horizonte de sucesos. Cuando el material de la estrella traspasa ese punto de no regreso, crea un gran vórtice de energía y escupe cantidades gigantescas de radiación (por ejemplo, protones) al espacio exterior.

Muchas son las fuentes detectadas de rayos cósmicos a lo largo del Universo. Los rayos cósmicos son partículas que llegan desde el espacio y bombardean constantemente la Tierra desde todas direcciones. La mayoría de estas partículas son protones o núcleos de átomos. Algunas de ellas son más energéticas que cualquier otra partícula observada en la naturaleza. Los rayos cósmicos ultraenergéticos viajan a una velocidad cercana a la de la luz y tienen cientos de millones de veces más energía que las partículas producidas en el acelerador más potente construido por el ser humano.

Hasta la fecha, el rayo cósmico más energético detectado tenía una energía de 1020 electrón voltios. Esta cifra supone una increíble energía diez millones de veces mayor de la que se habría producido en el SSC o ahora el LHC. Dentro de este siglo, seguramente, será difícil alcanzar con nuestras máquinas, energías aproximadas. Aunque esta fantástica energía es todavía cien millones de veces menor que las energías necesarias para sondear la décima dimensión, se espera que energías producidas en el interior profundo de los agujeros negros en nuestra galaxia se acercaran a la energía de Planck. Con grandes naves espaciales en orbita deberíamos ser capaces (seremos) de sondear en lo más profundo de estas estructuras gigantescas de fuentes energéticas que, abundantemente, están repartidas a lo largo y ancho del universo.

Los rayos cósmicos están presentes por todo el Universo allí donde se producen sucesos de grandes energías, como radiogalaxias, explosiones supernovas, e incluso, en colisiones de estrellas de neutrones.

Según una teoría favorita, la mayor fuente de energía dentro de nuestra galaxia (mucho más allá de cualquier cosa imaginable), está en el mismo corazón de la Vía Láctea, en el centro, a 30.000 años luz de nuestro Sistema Solar, y puede constar de millones de agujeros negros.

En física nada se puede descartar, la inaccesibilidad de hoy a la energía de Planck se puede suplir por descubrimientos inesperados que, poco a poco, nos lleve cada vez más cerca de ella, hasta que finalmente tengamos el conocimiento y la tecnología necesarias para poder alcanzarla.

Sabemos exactamente de qué están compuestas las estrellas del cielo que, en las que por cierto, exista una gran variedad de elementos, no todas están hechas de la misma materia dependiendo a qué generación puedan pertenecer.

No olvidemos que en el siglo XIX, algunos científicos declararon que la composición de las estrellas estaría siempre fuera del alcance del experimento, y que la única manera que tendríamos de conocerlas sería la de mirar al cielo y verlas allí, inalcanzables como puntos de luz brillantes y lejanos en la oscuridad del vacío del cosmos. Sin embargo, podemos decir hoy, a comienzos del siglo XXI, año 2.008, que no sólo podemos saber la composición de las estrellas, sino también como nacen y mueren, las distancias que los separan de nosotros y un sin fin de datos más.

Particularmente creo que el ser humano es capaz de realizar todo aquello en lo que piensa dentro de unos límites racionales. Podremos, en un futuro no muy lejano, alargar de manera considerable la media de vida. Podremos colonizar otros planetas y explotar recurso mineros en las lunas de nuestro Sistema Solar; los turistas irán al planeta Marte o a las lunas Ganímedes o Europa. Los transportes de hoy serán reliquias del pasado y nos trasladaremos mediante sistemas de transportes más limpios, rápidos y exentos de colisiones. Tendremos computadoras de cifrado cuántico que harán más seguras las comunicaciones y el intercambio de datos será realmente el de la velocidad de c, así en todos los campos del saber humano.

La mente humana, conectada al Universo del que forma parte, evoluciona sin cesar y, llegado el momento, podría tener una gran cantidad de respuestas que, desde luego, necesitamos conocer para sobrevivir en este complejo y vasto Cosmos.

Estamos inmersos en un avance exponencial, imparable.

Otro ejemplo de una idea “inverificable” la tenemos en la existencia del átomo. En el siglo XIX, la hipótesis atómica se reveló como el paso decisivo en la comprensión de las leyes de la química y la termodinámica. Sin embargo, muchos físicos se negaban a creer que los átomos existieran realmente, los aceptaban como un concepto o herramienta matemática para operar en su trabajo que, por accidente, daba la descripción correcta del mundo. Hoy somos todavía incapaces de tomar imágenes directas del átomo debido al principio de incertidumbre de Heisemberg, aunque ahora existen métodos indirectos. En 1.905, Einstein proporcionó la evidencia más convincente, aunque indirecta, de la existencia de átomos cuando demostró que el movimiento browniano (es decir, el movimiento aleatorio de partículas de polvo suspendidas en un líquido) puede ser explicado como colisiones aleatorias entre las partículas y los átomos del líquido.

Albert Einstein, había demostrado la existencia de los átomos. Esto lo hizo gracias al siguiente problema: ¿por qué los granos de polen “saltan” en el agua?. Einstein llegó a la conclusión de que esto sólo podía ser posible si los átomos existían, y esto se comprobó por las exactísimas predicciones que se lograban con los cálculos de Einstein sobre este extraño movimiento: el movimiento Browniano.

Por analogía, podríamos esperar la confirmación experimental de la física de la décima dimensión utilizando métodos indirectos que aún ni se han inventado o descubierto. En lugar de fotografiar el objeto que deseamos, quizá nos conformaríamos, de momento, con fotografiar la “sombra” del mismo.

emilio silvera

Enigmas que persisten

Lo que me preocupa no es simplemente comunicar al lector lo que tengo que decir, sino, por encima de todo, transmitirle las razones, subterfugios y afortunadas casualidades que me condujeron a mis descubrimientos. Cuando Cristóbal Colón, Magallanes y los portugueses relatan como se perdieron más de una vez en sus viajes, no sólo debemos perdonarles, sino agradecerles que nos hayan dejado su narración, porque sin ella nos hubiéramos perdido lo más fundamental e interesante. Así que espero que no me culpe si, movido por idéntica consideración hacia el lector, sigo el mismo método.

Johannes Kepler

Así comienza el Capítulo XI del Libro Los Enigmas del Cosmos de Vicente Aupí, quien nos cuenta aquella vieja historia del planeta X que comienza de esta manera:

Varias décadas después del descubrimiento de Urano, obra de William Herschel en 1781, la Academia de Ciencias de Paris decidió revisar las posiciones exactas de los planetas. Alexis Bouvard, el científico encargado de hacer los cálculos, no tuvo problemas con Júpiter y Saturno, pero halló en Urano extrañas anomalías que daba a entender que el planeta no se movía en las posiciones que le correspondían de acuerdo con las leyes gravitatorias. Fue en ese momento, recien entrado el siglo XIX, cuando se forjaron los grandes enigmas que envuelven los confines del Sistema Solar cuya resolución sigue pendiente en la actualidad.

El hallazgo de Urano por parte de Herschel supuso la frontera cronológica que abrió una era científica de más de dos siglos en busca de los extraños y supuestos objetos que presumiblemente habitan las regiones remotas del dominio del Sol, cuya luz y calor no llegan hasta allí más que en una ínfima proporción.

  Las naves ‘Voyager’ surcan un océano magnético

‘Burbujas’ en los confines del Sistema Solar

 

Recreación artística de las 'burbujas' magnéticas (en rojo). | NASA.

Recreación artística de las ‘burbujas’ magnéticas (en rojo). | NASA.

  • Las sondas gemelas de la NASA ‘Voyager’ fueron lanzadas en 1977
  • Son las naves que más lejos han llegado en la exploración del Sistema Sol

El primer episodio del extraordinario abanico de exploraciones iniciadas desde entonces (a comienzos del siglo XIX) lo protagonizaron el francés Urbain Jean Joseph Le Verrier y el inglés John Couch Adams. Los dos calcularon con acierto, aunque de manera independiente, la posición de Neptuno, el octavo planeta en orden de distancia al Sol, que gracias a ambos fue localizado en 1846 desde el Observatorio de Berlín por Johann Galle. Las propias anomálias observadas en Urano propiciaron deducir cómo era el nuevo planeta y en qué parte del cielo debía ser buscado, por lo que Le Verrier y Adams sólo tuvieron que recurrir a su inteligencia para predecir la posición de Neptuno.

Todo aquello despertó el ánimo astronómico para la búsqueda de nuevos mundos. De la misma manera que Urano mostró anomalías en sus movimientos, pronto se comprobó que el problema también afectaba a Neptuno, de forma que se dio por hecho que tenía que haber algún planeta más allá de él que influía gravitatoriamente en su órbita. Y así comenzó, en la segunda mitad del siglo XIX, la búsqueda de un mundo transneptuniano que explicara las alteraciones sobre Urano y Neptuno, una búsqueda que se creyó terminada en 1930 con el descubrimiento de Plutón, pero que en realidad, no se ha terminado ni en la actualidad, puesto que Plutón sólo tiene un diámetro de 2300 km y, por tanto, su masa no es suficiente para causar las supuestas alteraciones gravitatorias sobre planetas que le superan en tamaño.

Pero otras muchas cosas extrañas están presentes en el abismno del Sistema Solar, en sus confines perduran misterios que no hemos sabido desvelar y, se sigue investigando para conocer nuestra propia casa, antes de que, un día lejano aún en el futuro, podamos sumergirnos en los abismos del Cosmos.

Han aparecido “Cordones” magnéticos que nos pueden llegar a afectar. Aunque los mapas del cordón (ver abajo) parecen mostrar un cuerpo luminoso, el cordón en sí no emite luz. En cambio, se hace notar a través de partículas llamadas “átomos neutrales energéticos” (energetic neutral atoms o ENAs, en idioma inglés), los cuales son en su mayoría átomos de hidrógeno comunes y corrientes. El cordón emite estas partículas, que son recogidas por la sonda IBEX en órbita alrededor de la Tierra.

ver imagen

Arriba: Comparación de las observaciones llevadas a cabo por la sonda IBEX (izquierda) con un modelo de reflexión que incluye un campo magnético tridimensional (derecha). Son hechos reales y no pensamientos salidos de una calenturienta imaginación. Nuestro Sistema Solar nos enconde cosas.

Buscando pistas sobre el tema, en www.paleoastronáutica.com La tercera Vía, encuentro algún dato (más o menos relacionado) que pongo a continuación:

En 1.976, el escritor e investigador Zecharia Sitchin proponía una hipótesis revolucionaria en su libro “El Duodécimo Planeta. En él exponía, como los sumerios, primera civilización conocida de la antigua Mesopotamia, hacían referencia a un gran planeta  conocido con el nombre de “Nibiru”  (planeta del cruce), bautizado posteriormente por los babilonios con el nombre de su principal deidad, Marduk.
En su obra, Sitchin argumenta el conocimiento de los antiguos pueblos de Mesopotamia de la existencia de doce planetas o cuerpos celestes principales, que conformaban también los doce dioses principales de sus panteones. A los nueve planetas comúnmente aceptados en la actualidad, Mercurio, Venus, La Tierra, Marte, Júpiter, Saturno, Urano, Neptuno y Plutón, añadían hasta formar el número de doce, al propio Sol, la Luna y el planeta principal de sus dioses “Nibiru – Marduk”.

Fue este último nuevo planeta, el que según siempre su cosmogonía, puso el orden existente actual en nuestro Sistema Solar. Con una gigantesca órbita elíptica en torno a el Sol, penetró en el Sistema Solar, creando grandes perturbaciones en los planetas, y tras una gran colisión, creó la Tierra al desgajar un antiguo planeta que orbitaba alrededor del Sol, cuyo nombre era Tiamat, en la actual posición del cinturón de asteroides  existente entre Marte y Júpiter, y que diferencia a los planetas interiores de los exteriores. Del mismo modo liberó a uno de sus satélites, “Kingu”, que tras la colisión quedó atrapado en la órbita del nuevo planeta creado, La Tierra, pasando a ser desplazados ambos a su posición actual, siendo “Kingu” desde entonces nuestra conocida Luna.

Es de destacar que dentro del cinturón de asteroides se encuentra el mayor de los asteroides conocidos del Sistema Solar, Ceres, con un diámetro de 930 kilómetros, su masa equivale a una cuarta parte del total de las decenas de miles de asteroides que conforman el cinturón, y donde los científicos apuntan la existencia de abundante agua, un 25% del total de la masa de Ceres, unos 200 millones de kilómetros cúbicos, frente a unos 1.400 millones de kilómetros cúbicos estimados para la Tierra. Del mismo modo, la mitología sumeria hablaba del desaparecido planeta Tiamat, como un planeta acuoso. ¿Es quizá Ceres una clara evidencia del choque planetario entre Nibiru y Tiamat y que terminó por configurar nuestro planeta Tierra?

Ésta hipótesis explica algunos de los misterios que la ciencia aún no ha terminado de aclarar, tales como las cavidades oceánicas sobre la Tierra, la devastación observada sobre la Luna, las órbitas invertidas de los cometas y el fenómeno enigmático de Plutón.  El nuevo orden creado por la irrupción del duodécimo planeta sería la causa de la enigmática excentricidad de Plutón, que tiene la órbita más extensa y elíptica de todos los planetas conocidos del Sistema Solar, por lo que también es el único planeta que atraviesa la órbita de otro planeta, Neptuno. Mientras el resto orbitan casi dentro del mismo plano, Plutón se encuentra desviado diecisiete grados. El tamaño de Plutón, que como decíamos anteriormente fue recientemente desposeído del “título de planeta”, sería una señal inequívoca que en su momento fue victima de las perturbaciones que le hicieron ser expulsado de la órbita de Saturno al paso de “Nibiru”, del que era un simple satélite mas,  hasta ocupar su posición actual.

La gran colisión con Tiamat, a la vez que aclara la existencia del cinturón de asteroides, aclararía también el fenómeno de los cometas, que no obedecen a ninguna de las reglas normales de desplazamiento del resto del cosmos. Mientras que como explicábamos antes, las órbitas de los planetas son casi circulares y discurren en el mismo plano, excepto Plutón, la de los cometas son alargadas y en muchos casos muy pronunciadas, con periodos que abarcan de los cientos a los miles de años. Además,  mientras la totalidad de los planetas orbitan en dirección contraria a las agujas del reloj, muchos de los cometas se mueven en dirección inversa.

Sitchin llega a la conclusión de que la órbita del planeta “X” o Nibiru alcanza los 3.600 años y que, millones de años después de los cataclismos que configuraron el actual Sistema Solar y que aportaron “la chispa de la vida” a nuestro planeta Tierra, continuó orbitando en torno al Sol, repitiendo una y otra vez en su paso más próximo a la Tierra, es decir, el antiguo emplazamiento del desaparecido Tiamat (actual cinturón de asteroides). Y fue precisamente desde Nibiru donde llegó a la Tierra una antigua civilización que la colonizó, mucho antes de que el hombre moderno apareciese, porque fueron ellos quienes a través de la modificación genética, quienes impulsaron evolutivamente a los antiguos homínidos pre-humanos. Ellos fueron los dioses de la antigüedad, quienes crearon al hombre “a su imagen y semejanza”.

Pero, ¿es posible que un planeta como Nibiru, tan lejano al Sol, pueda tan siquiera albergar un mínimo de vida?

Hace más de 33 años que iniciaron su aventura espacial. Tras su largo viaje, las naves gemelas ‘Voyager’ de la NASA están alcanzando los confines del Sistema Solar. Allí, acaban de descubrir un fenómeno que ha dejado boquiabiertos a los científicos y que acaba de ser publicado en la revista ‘Astrophysique’: una zona de turbulencias llena de ‘burbujas’ magnéticas.

‘Voyager 1′ es la nave que más lejos ha llegado, pues ha logrado situarse a unos 17.000 millones de kilómetros del Sol. Los vehículos, desarrollados en California, en el Laboratorio de Propulsión a Chorro de la NASA (JPL, por sus siglas en inglés), son las naves que más tiempo han permanecido en el espacio

A pesar de que cada vez disponemos de más información sobre el Sistema Solar, éste sigue sorprendiendo a los científicos. Prueba de ello es el último gran hallazgo de las naves gemelas. Los científicos encargados de la misión han revelado que las naves han enviado información de lo más sorprendente… y burbujeante.

Una sorpresa efervescente

Las naves han detectado la presencia de burbujas, confirmando que nuestro Sistema Solar está, nunca mejor dicho, en constante ebullición. Utilizando un nuevo modelo informático para analizar los datos transmitidos por las sondas los investigadores han calculado que el campo magnético solar mediría unos 160 millones de kilómetros de longitud. Algunas de las burbujas tienen una anchura similar a la distancia entre la Tierra y el Sol, por lo que harían falta semanas para atravesar una de ellas.

Archivo:Voyager.jpg

Voyager 1

‘Voyager 1′ penetró la ‘zona burbujeante’ en 2007 y ‘Voyager 2′ lo logró aproximadamente un año después. Al principio, los investigadores tuvieron dificultades para entender qué era lo que las naves mostraban. Ahora, creen haber resuelto parte de sus dudas.

Entendiendo la estructura del campo magnético solar, los astrónomos pretenden explicar cómo los rayos cósmicos galácticos penetran en nuestro Sistema Solar y cómo el Sol interactúa con el resto de nuestra galaxia, la Vía Láctea.

“El campo magnético del Sol se extiende a lo largo del Sistema Solar y se retuerce y contrae porque el sol gira”, explica Merav Opher, investigador de la Universidad George Mason. Opher hace una bonita metáfora, comparándolo con la falda de una bailarina. Concluye que “muy lejos del Sol, donde ahora están las naves ‘Voyager’, los pliegues de la falda se juntan”.

Como la falda de una bailarina

Cuando un campo magnético se dobla de tal manera, pueden suceder cosas muy interesantes, ya que las líneas de fuerza magnética se cruzan y vuelven a conectar. Los pliegues de la falda se reorganizan por sí mismos, a veces de forma explosiva y así nacen las burbujas magnéticas.

“Nunca pensamos que podríamos encontrar esta espuma en uno de los rincones más lejanos del Sistema Solar, pero ahí está!”, señala entusiasmado el físico Jim Drake, colega de Opher, de la Universidad de Maryland.

El Sistema Solar sigue sorprendiéndonos, y los nuevos descubrimientos incluso ponen en entredicho una teoría de los años 50 que proponía un escenario muy distinto.

Inesperados intrusos

Los científicos aún deben evaluar las implicaciones de este nuevo hallazgo y desentrañar los misterios de esta zona del Sistema Solar. “Esto no es más que el principio, presiento que nos esperan más sorpresas”, concluye Opher.

Voyager 1 y Voyager 2 fueron lanzadas al espacio en 1977. Han sobrevolado Júpiter, Saturno, Urano y Neptuno. Los abundantes datos recopilados por los nueve instrumentos que llevan a bordo cada una de ellas han convertido su misión científica del Sistema Solar en la más exitosa de toda la historia espacial.

Recreación del área estudiada por las 'Voyager' antes y después del hallazgo. | NASA la nueva y la antigua visión | NASA

El Planeta X, Hercóbulus, El 12º Planeta, Nibiru, son diferentes nombres que existen desde antiguo para designar a un extraño y destructor cuerpo celeste, que forma parte del Sistema Solar vecino de Tylo, pero que sin embargo su órbita tan elíptica y tan larga le lleva a cruzarse con nuestro Sistema Solar cada 3660 años.

El paso del planeta X, cruzándose por dentro de nuestro Sistema Solar, crearía unos efectos devastadores en La Tierra, encendiendo volcanes, terremotos, tsunamis, lluvias de fuego, etc… pues tendría que acercarse a unos 14 millones de millas de La Tierra, que astronómicamente se puede considerar como una distancia peligrosamente próxima.

La órbita elíptica de Nibiru, un planeta rojizo, más grande que Júpiter, le lleva a atravesar nuestro sistema solar, causando desequilibrios apocalípticos en la Tierra.

Hercóbulus tiene un tamaño bastante grande, entre 2 y 5 veces mayor más que Júpiter, con lo que la fuerza de este planeta gigante altera electromagnéticamente y gravitacionalmente, a todos los niveles, a nuestro planeta; su polo norte ejerce una gran infuencia magnética al acercarse al polo norte de La Tierra, momento en el que ambos cuerpos se repelen magnéticamente y se produce una gran sacudida geo-magnética que cambia los polos en La Tierra.

Esto explicaría que la civilización humana transcurre y evoluciona en el tiempo mediante periodos cíclicos, de aproximadamente cada 4 milenios, siendo una de las visitas indeseables de Nibiru la causante de la desaparición del continente de la Atlántida.

Se calcula que el paso de Nibiru cerca de La Tierra, hacia el año 2012, podría ocasionar la muerte de 2/3 de la población mundial. (Ya tenemos aquí “hecha realidad” la predicción maya). ¡qué gente!

El Planeta X se acerca a La Tierra

El máximo secreto sobre el Planeta X, “Ajenjo”, ha sido ordenado en todos los gobiernos del mundo siguiendo las directrices del Vaticano. Dicen que “para no causar el pánico”.

Este asunto está clasificado en la comunidad de países occidentales de la Nato-Otan como “Cosmic Top Secret”, es decir, un secreto al más alto nivel. En el Vaticano, el caso “Hercobulus” está clasificado como “Secretum Omega” con nivel 1, que es el máximo nivel de secreto, es decir, igualmente el mayor nivel de encubrimiento hacia la población civil mundial.

De todos modos, muchos astrónomos conocen perfectamente acerca de la realidad del Planeta X, puesto que se deduce científicamente que las irregularidades orbitales de Urano, Neptuno y Plutón, solamente se explican satisfactoriamente mediante la órbita del 12º planeta, Nibiru.

Supuestamente, Observatorios de todo el mundo como el de Neuchatel en Francia ya han fotografiado y hacen seguimiento del planeta X, en aproximación a La Tierra. Pero como es habitual, una cortina de silencio gubernamental cae sobre las direcciones de los observatorios astronómicos.

El encubrimiento se articula mediante mentiras gigantescas como “El cambio climático”, que se dice que es causado por la contaminación industrial, cuando en realidad podría explicarlo la llegada de Hercóbulus. A medida que el Planeta X se acerque, los desequilibrios en la Tierra serían mayores.

Otra idea sospechosa, similar a la anterior, es la supuesta conversión de Júpiter en un Sol. Ahora les ha dado por decir que Júpiter se va a poner a arder como una tea, y que se convertirá en un segundo sol, cuyo proceso sería uno de los causantes de los desequilibrios geo-climáticos que están teniendo lugar en La Tierra. Un proceso que nunca podría ir tan rápido.

En fin amigos, que cualquier hallazgo nuevo desata la imaginación de muchos y surgen historias que, no pocas veces, aunque no estemos seguros de ello, tienen una semilla de realidad que, no sabemos ni podemos explicar como floreció pero, sin embargo, debemos estar ojo avisor…¡por si acaso!

emilio silvera

Esos puntitos brillantes del cielo

LAS ESTRELLAS:

Que por cierto, son algo más, mucho más, que simples puntitos luminosos que brillan en la oscuridad de la noche. Una estrella es una gran bola de gas luminoso que, en alguna etapa de su vida, produce energía por la fusión nuclear del hidrógeno para formar helio. El término estrella por tanto, no sólo incluye estrellas como nuestro Sol, que están en la actualidad quemando hidrógeno, sino también protoestrellas, aún no lo suficientemente calientes como para que dicha combustión haya comenzado, y varios tipos de objetos evolucionados como estrellas gigantes y supergigantes, que están quemando otros combustibles nucleares, o las enanas blancas y las estrellas nucleares, que están formadas por combustible nuclear gastado.

Estrellas masivas que expulsan gases, ya que, cuando la masa es muy grande, su propia radiación las puede destruir y, de esta manera, descongestionan la tensión y evitan un final anticipado. Debajo teneis una estrella supermasiva que ha expulsado gases formando una nebulosa para evitar su muerte. Estaba congestionada y, sólo la expulsión de material la puede aliviar y conseguir que siga brillando como estrella evitando explotar como supernova.

La región de formación estelar S106

 

La masa máxima de una estrella es de unas 120 masas solares, por encima de la cual sería destruida por su propia radiación. La masa mínima es de 0,08 masas solares; por debajo de ella, los objetos no serían lo suficientemente calientes en sus núcleos como para que comience la combustión del hidrógeno, y se convertirían en enanas marrones.

La luminosidad de las estrellas varían desde alrededor de medio millón la luminosidad del Sol para las más calientes hasta menos de una milésima de la del Sol para enanas más débiles. Las estrellas más abundantes y lóngevas del universo son las enanas rojas que, más pequeñas que nuestro Sol y a menor temperatura, fusionan el hidrógeno en oxígeno a velocidades más lentas y, algunas, tienen edades próximas a las del Universo. Por el contrario, las estrellas gigantes y supergigantes, tienen vidas cortas, su voracidad consume hidrógeno a tal velocidad que, sus vidas, sólo consiguen unos pocos cientos de millones de años: Eta Carinae, Btelgeuse y muchas otras.

Un ejemplo de estrellas con fuertes vientos estelares son las estrellas de la clase de Wolf-Rayet,  tipo espectral O, muy calientes. La intensa presión radiactiva propaga el envoltorio de hidrógeno y genera una pérdida importante de masa. El envoltorio muy caliente de una estrella Wolf-Rayet produce un espectro de emisión. La diversidad de las velocidades de las capas sondeadas dan líneas muy largas debido al efecto Doppler-Fizeau. Abajo, en la imagen vemos una Nebulosa que rodea a la estrella WR124 en la constelación de Sagittarius. Las estrellas Wolf-Rayet son estrellas masivas, muy calientes y evolucionadas casi al final de sus vidas. Llegadas a ese punto, sufren una intensa pérdida de material debido a los fuertes vientos estelares que generan. La imagen es de la  NASA (Hubble)

WR124

 

Aunque las estrellas más prominentes visibles a simple vista son más luminosas que el Sol, la mayoría de las estrellas son en realidad más débiles que éste y, por tanto, imperceptibles a simple vista. Las estrellas brillan como resultado de la conversión de masa en energía por medio de reacciones nucleares, siendo las más importantes las que involucran al hidrógeno.

Por cada kilogramo de hidrógeno quemado de esta forma, se convierte en energía aproximadamente siete gramos de masa. De acuerdo con la famosa ecuación de Einstein E=mc2, los siete gramos equivalen a una energía de 6,3 x 1014 Julios.

Las reacciones nucleares no sólo aportan el calor y la luz de las estrellas, sino que también producen elementos más pesados que el hidrógeno y el helio. Estos elementos pesados han sido distribuidos por todo el Universo mediante explosiones de supernovas o por medio de Nebulosas planetarias y vientos estelares.

http://traslaeradeplanck.files.wordpress.com/2011/01/mosaiccintorio_martinez.jpg

Arriba teneis estrellas nuevas en la Nebulosa de Orión, uno de los lugares más escitantes para los investigadores.  Ingentes turbulencias de los vientos solares que producen las estrellas masivas y que modelan el entorno de gas y polvo. Las estrellas pueden clasificarse de muchas maneras:

  1. Mediante la etapa evolutiva, en presecuencia principal, secuencia principal, gigante, supergigante, enana blanca o estrella de neutrones.
  2. A partir de sus espectros, que indica su temperatura superficial conocida como clasificación de Morgan-Keenan.
  3. En Población I, II y III, que engloban estrellas con abundancias progresivamente menores de elementos pesados.

EVOLUCIÓN ESTELAR

 

SIIHaOIII_sqrt_L_ps.jpg" alt="" border="0" />

La conocida Nebulosa del Cangrejo es un resto de supernova de tipo plerión, resultante de la explosión de una supernova que fué vista por los chinos en el año 1054, fue visible por el día durante 22 meses. Situada a una distancia de aproximadamente 6.300 años luz en la constelación de Tauro. Sus filamentos de plasma son misteriosos para los astrofísicos que le han dedicado mucho tiempo al estudio de sus cambios de fases.

Como nos dice el título de más arriba (evolución estelar), está referido a la serie de cambios que sufren las estrellas durante sus vidas, cuya escala de tiempo depende fuertemente de sus masas y también en cierta medida, de su composición inicial. El progreso de una estrella durante su evolución puede ser seguido en un gráfico denominado diagrama de Hertzsprung-Russell (HR).

Los astrónomos y Astrofísicos, hacen tomas de estos objetos del cielo en distintas fases de radiación para poder dilucidar lo que en ellos se encierra, y, de esta manera, pueden observarlos en imágines de lus visible, de rayos X, en el Ultravioleta o en radiación gamma, Toda esta variedad le da más riqueza al estudio que, en distintos estadios pueden descubrir más elmentos que en uno.

Una estrella nace cuando se colapsa una extensa nube de gas por su propia gravedad (sería largo explicar aquí todo el proceso de rozamiento, ionización de las partículas y moléculas de la nube, hasta llegar a formarse el núcleo central). Una estrella brilla por primera vez porque la energía potencial gravitatoria perdida en este colapso se libera en forma de calor y luz.

Finalmente, la temperatura en el centro de la protoestrella se hace lo suficientemente alta como para hacer entrar en ignición una serie de reacciones nucleares que involucran deuterio (un isótopo del hidrógeno), siendo durante algún tiempo la energía de esta reacción suficiente para evitar un colapso mayor.

Una vez que el deuterio se ha agotado, el colapso continúa, y la estrella es clasificada como un objeto presecuencia principal, siguiendo una trayectoria característica en el diagrama  HR. Para una estrella como nuestro Sol, esta fase dura varios millones de años. Finalmente, el núcleo de la estrella se vuelve lo suficientemente caliente como para iniciar las reacciones nucleares que convierten el hidrógeno en Helio, uniéndose la estrella a la secuencia principal en el diagrama HR.

Las estrellas desarrollan temibles energías. Ningún planeta podrá albergar vida si está situado cerca de una estrella. Por eso hablamos de zona habitable. Muy cerca el calor abrasador y, muy lejos el frío insoportable por seres como nosotros. La distancia ideal es la que permite que en el planeta esté presente el agua íquida corriente y lo preserve una atmósfera adecuada.

Esta fase de combustión del hidrógeno durará entre unos pocos millones de años, para las estrellas más masivas,  una decena de miles de millones de años para estrellas como el Sol, y algunos miles de millones más de la edad actual del Universo para estrellas poco masivas, como las enanas rojas.

Archivo:RedDwarfNASA.jpg

 

Estas pequeñas enanas,  que ocupan el tercio inferior del Diagrama de Hertzsprung-Russell, queman su combustible de hidrógeno con tanta mesura que pueden durar mucho más que la edad actual del Universo. En el Otro extremo de la escala, en la cima del Diagrama, están las estrellas gigantes de unas 100 – 120 veces la masa del Sol (si fuesen mucho más grandes, estallarían apenas empezacen a calentarse, su propia radiación las destruiría) Estas inmensas estrellas derrochan el combustible nuclear pródigamente, y se quedan sin hidrógeno en un tiempo relativamente corto para las edades de las estrellas; una estrella diez veces más masiva que el Sol dura menos de 100 millones de años.

Una vez que el hidrógeno del núcleo se ha agotado, el núcleo se contrae bajo su propia gravedad (la que su propio peso genera) hasta que, en estrellas de más de 0,4 masas solares se vuelve lo suficientemente caliente como para iniciar reacciones nucleares que transforman helio en carbono (He + He =  Be. Be + He = Carbono).

La evolución posterior depende de la masa de la estrella. En estrellas de masa similar a la del Sol y mayor, mientras procede la combustión del helio, puede continuar la combustión del hidrógeno en una capa exterior al núcleo. En esta fase post-secuencia principal la estrella es más fría, más grande y más brillante de lo que lo era en la secuencia principal, y se clasifica como una gigante o, para las estrellas más masivas, una supergigante. Una vez que el helio del núcleo se ha agotado, el proceso de contracción del núcleo, seguido del comienzo de un nuevo conjunto de reacciones nucleares, puede comenzar nuevamente, repitiéndose varias veces.

Así pues, las gigantes más masivas y las supergigantes pueden desarrollar una estructura en capas, quemándose el combustible más pesado en el centro, mientras las capas superiores contiene combustibles más ligeros del ciclo de combustión anteriores. A través de estos procesos de las estrellas se hacen mayores y más brillantes.

Finalmente, sin embargo, bien la contracción del núcleo deja de producir una temperatura lo suficientemente alta como para que se produzcan más reacciones nucleares o bien, el las supergigantes, se llega a un punto en el que el núcleo está constituido por hierro, que no puede ser utilizado como combustible nuclear. El núcleo al colapsarse se convierte en una estrella de Neutrones o posiblemente en un Agujero Negro, mientras que las capas exteriores son eyectadas explosivamente en una explosión de supernova del tipo II.

Archivo:Keplers supernova.jpg

                                                     Remanente de la supernova de Kepler, SN 1604.

Las supernovas de tipo II son el resultado de la imposibilidad de producir energía una vez que la estrella ha alcanzado el equilibrio estadístico nuclear con un núcleo denso de hierro y níquel. Estos elementos ya no pueden fusionarse para dar más energía, sino que requieren energía para fusionarse en elementos más pesados. La barrera de potencial de sus núcleos es demasiado fuerte para que la fusión sea rentable por lo que ese núcleo estelar inerte deja de sostenerse a sí mismo y a las capas que están por encima de él. La desestabilización definitiva de la estrella ocurre cuando la masa del núcleo de hierro alcanza el límite de Chandrasekhar, lo que normalmente toma apenas unos días.  Es en ese momento cuando su peso vence a la presión que aportan los electrones degenerados del núcleo y éste colapsa. El núcleo llega a calentarse hasta los 3.000 millones de grados, momento en el que la estrella emite fotones de tan alta energía que hasta son capaces de desintegrar los átomos de hierro en partícula alfa y neutrones en un proceso llamado fotodesintegración; estas partículas son, a su vez, destruidas por otros fotones, generándose así una avalancha de neutrones en el centro de la estrella.

En las estrellas menos masivas la evolución procede de manera bastante diferente, en parte porque sus núcleos son lo suficientemente densos como para que sean importantes los efectos de degeneración.

Cuando el helio entra en ignición en un núcleo degenerado lo hace explosivamente en un flash del helio, haciendo que el núcleo se expanda. Después, con la estrella en la rama horizontal del diagrama HR, el helio continúa quemándose de forma no explosiva en el núcleo, mientras que el hidrógeno se quema en una capa circundante.  Una vez que el Helio se ha agotado en el núcleo, continúa quemándose en una capa durante la fase de la rama gigante asintótica.

Archivo:NGC6543.jpg

Ahí podemos ver una hermosa Nebulosa planetaria. Tal como podría ser el día de mañana nuestro Sol. En el centro, la Enana Blanca resultante, brilla con fuerza y emite miríadas de radiación ultravioleta que inunda el lugar ionizando el gas circundante. En unos cien años, la Nebulosa se irá diluyendo y sólo quedará la enana blanca, un objeto denso y frío, un cadáver estelar.

Los detalles de la fase evolutiva posteriores son inciertos. Sin embargo, se piensa que las capas externas de las gigantes rojas son expulsadas para formar una Nebulosa planetaria, dejando al núcleo de la estrella expuesto, constituyendo una enana blanca. Así pues, el punto final de la evolución estelar, tanto en las estrellas masivas como en las poco masivas es que una parte de la estrella es dispersada en el espacio interestelar, dejando un remanente colapsado de combustible nuclear agotado.

Dependiendo de la masa inicial, lo que nos queda será: una enana blanca en estrellas como nuestro Sol que al quedar a merced de la Gravedad se contrae hasta el punto en que, la degeneración de los electrones la frena. Si la estrella original es mayor que nuestro Sol, entonces la implosión sólo es frenada cuando se unen electrones y protones para formar neutrones y llegado a un punto límite, estos se degeneran y son capaces de frenar la contracción de la estrella de neutrones como la que arriba podeis ver (mucho más densa que la enena blanca). Finalmente, si la estrella es muy masiva, la implosión de la estrella, su compresión es ilimitada, sigue y sigue y ni la degeneración de los neutrones puede frenarla, continúa contrayendose hasta convertirse en un agujero negro, tan denso, que ni la luz puede huir de su enorme fuerza gravitatoria.

Este espectáculo sí que sería digno de poder ser copntemplado. TRAS ANALIZAR 17’500 candidatos, los astrónomos Todd Boroson y Tod Lauer localizaron en un Quásar a 4.000 millones de años luz dos agujeros negros supermasivos muy prósimos entre si. Orbitan uno alrededor del otro cada cien años. ¿Se querrán casar? El Agujero Negro resultante será descomunal, Un monstruo del Cosmos.

Así, se crea una singularidad alrededor de la cual aparece un disco de acreción que es denominado horizonte de sucesos y que marca los límites de seguridad para cualquier objeto que se pueda acercar al agujero, y, si dicho límite es traspasado, será engullido sin remedio.

emilio silvera

¡El Universo y la vida!

La vida (a partir de su primer paso, del primer individuo de cada especie) viene de la vida. Ha surgido en el Universo de manera expontánea y, el Azar, bajo ciertas circunstancias muy especiales que estaban presentes en lugares privilegiados del Universo, dio lugar al surgir de la vida tal como la conocemos y, posiblemente, de muchas más formas desconocidas para nosotros. Y, todo eso amigos, es Entropía Negativa. Ahora, Las características de un ser vivo son siempre una recombinación de la información genética heredada.

CONSECUENCIA LOGICA: Las variaciones dentro de una misma especie son el resultado de una gran cantidad de información genética presente ya en sus antepasados y, como consecuencia de la lógica evolución, de la aparición espontánea de nueva información genética…

Aquí, en todo su esplendor, tenemos un trozo de Universo que, nos está hablando de la creación. Esas estrellas brillantes, azuladas y supermasivas que radían en el ultravioleta ionizando toda la región circundante, es un signo, inequívoco de que la vida está cerca. Elementos sencillos se transformaran en otros más complejos y, apareceran aminoácidos y la química-biológica que hacer, mucho más tarde, que sea posible la aparición de la vida en algún mundo perdido en las profundidades de una Galaxia que, como la nuestra, tendrá otras “Tierras” y otros “Seres”.

Cuántas veces se preguntó la Humanidad: ¿Hay vida en el Universo, además de la que existe en la Tierra? Las leyes de la Física, aplicables a toda la materia y la energía, tienen sin duda un papel fundamental en la comprensión del Universo y por ello la Astrofísica ha tenido un desarrollo espectacular en los últimos tiempos a pesar de la escasez de materia como la que conocemos.

Por otro lado, como el Universo es muy grande, las densidades medias son muy bajas y la materia se encuentra normalmente en estructuras muy simples, en forma de átomos y partículas individuales. La composición química del Universo y sus procesos son por ello también importantes para comprender su evolución, dando pie al uso más o menos extendido de astroquímica. Sin embargo, las moléculas complejas son relativamente raras y los organismos vivos muchísimo más. La parte Biológica del Universo que conocemos se reduce a nuestro propio planeta por lo que parece excesivo poder hablar de Astrobiología. Por qué tenemos que preocuparnos por una parte tan ínfima del Universo. Ciertamente porque los seres humanos pertenecemos a esta extraña componente y, ya que no podemos reproducir en el laboratorio el paso de la química a la biología, es en el contexto del Universo (el gran Laboratorio) y su evolución en el que podemos analizar los límites y las condiciones necesarias para que emerja la vida en cualquier sitio.

Fotos de nebulosas

En las Nebulosas nacen las estrellas, en sus hornos nucleares se producen las transiciones de fases necesarias para crear los elementos complejos necesarios para la vida. Si alrededor de las nuevas estrellas surgen nuevos mundos, ¿por qué tras miles de millones de años de evolución no puede surgir la vida en ellos, si como existe la posibilidad, están situados en la zona habitable? Las leyes del Universo son las mismas en todas partes y, todas las regiones del Cosmos, por muy alejadas que estén, están sometidas a ellas. Si en el planeta Tierra está presente el agua corriente, una atmósfera y la vida, ¿Por qué sería diferente en otros planetas similares que a millones pululan por nuestro Universo?

La Astrobiología es una ciencia que ha surgido en la frontera entre varias disciplinas clásicas: la Astronomía, la Biología, la Física, la Química o la Geología. Su objetivo final es comprender cómo surgió la vida en nuestro Universo, cómo se distribuye y cuál es su evolución primitiva, es decir, cómo pudo establecerse en su entorno.

En otras palabras, trata de comprender el papel de la componente biológica del Universo, conectando la astrofísica y la astroquímica con la biología. Intenta para ello comprende el origen de la vida. : El paso de los procesos químicos prebióticos a los mecanismos bioquímicos y a la biología propiamente dicha.

Naturalmente, en Astrobiología nos planteamos preguntas fundamentales, como la propia definición de lo que entendemos como Vida, cómo y cuándo pudo surgir en la Tierra, su existencia actual o en el pasado en otros lugares o si es un hecho fortuito o una consecuencia de las leyes de la Física. Algunas de estas cuestiones se las viene formulando la humanidad desde el principio de los tiempos, pero ahora por primera vez en la historia, los avances de las ciencias biológicas y de la exploración mediante tecnología espacial, es posible atacarlas desde un punto de vista puramente científico. Para ello, la Astrobiología centra su atención en estudiar cuáles son los procesos físicos, químicos y biológicos involucrados en la aparición de la vida y su adaptabilidad, todo ello en el contexto de la evolución y estructuración, o auto-organización, del Universo.

NGC3031 (M81) - Bode's Galaxy

Muchos son los que postulan que, las galaxias espirales son autogeneradoras a través de las explosiones supernovas y, siembran el espacio interestelar de la semilla creadora de la vida, además, este proceso regenerativo crea entropía negativa  tratando de luchar contra el deterioro de la galaxia como sistema cerrado que de esta forma se mantiene y perdura. Nuevas y energéticas estrellas azuladas pueblan las regiones galácticas que se llenan de promesas futuras de nuevos mundos y nuevas formas de vida.

Como cualquier otra ciencia, la Astrobiología está sujeta a la utilización del método científico y por tanto a la observación y experimentación junto con la discusión y confrontación abierta de las ideas, el intercambio de datos y el sometimiento de los resultados al arbitraje científico. La clave de la metodología de esta nueva ciencia está en la explotación de las sinergias que se encuentran en las fronteras entre las disciplinas básicas mencionadas anteriormente, una región poco definida, cuyos límites se fijan más por la terminología que por criterios epistemológicos.

Un aspecto importante de la investigación en el campo de la Astrobiología es la herramienta fundamental que representa el concepto de complejidad. La vida es un proceso de emergencia del orden a partir del caos que puede entenderse en medios no aislados y, por tanto libres de la restricción de la segunda ley de la termodinámica, como un proceso complejo. En este sentido, la emergencia de patrones y regularidades en el Universo, ligados a procesos no lineales, y el papel de la auto-organización representan aspectos esenciales para comprender el fenómeno de la vida. Transiciones de estado, intercambios de información, comportamientos fuera de equilibrio, cambios de fase, eventos puntuales, estructuras autorreplicantes, o el propio crecimiento de la complejidad, cobran así pleno sentido en Astrobiología.

Muchos han sido, a lo largo de la historia de la Humanidad, los que visionaron el futuro que nos espera: “Yo puedo imaginar un infinito número de mundos parecidos a la Tierra, con un jardín del Edén en cada uno”. Lo afirmaba Giordano Brunoa finales del siglo XVI, antes de ser quemado por orden de la Inquisición Romana. Y, sí, muchas veces nos hicimos esa pregunta…

¿Habrá vida en otros mundos?

Planetas inimaginables ¿que formas de vida acogerán? La pregunta que se plantea encima de la imagen de arriba tiene una fácil contestación: SÍ, hay otras formas de vida en el Universo, en planetas parecidos o iguales que la Tierra. Si no fuese así, la lógica y la estadística dejarían de tener sentido.

Un problema básico de esta ciencia, ya mencionado al principio, es la cantidad de datos disponibles, de sujetos de estudio. No conocemos más vida que la existente en la Tierra y ésta nos sirve de referencia para cualquier paso en la búsqueda de otras posibilidades. La astrobiología trata por ello de analizar la vida más primitiva que conocemos en nuestro planeta así como su comportamiento en los ambientes más extremos que encontremos para estudiar los límites de su supervivencia y adaptabilidad. Por otro lado, busca y analiza las condiciones necesarias para la aparición de entornos favorables a la vida, o habitables, en el Universo  mediante la aplicación de métodos astrofísicos y de astronomía planetaria. Naturalmente, si identificáramos sitios en nuestro sistema solar con condiciones de habitabilidad sería crucial la búsqueda de marcadores biológicos que nos indiquen la posible existencia de vida presente o pasada más allá de la distribución de la vida en el Universo o, en caso negativo, acotaríamos aún más los límites de la vida en él.

Titán más allá de los Anillos

Titán, más allá de los anillos. Ahí podríamos encontrar lo que con tanto afán buscamos: otras formas de vida que, de una vez por todas, nos ofrezca la certeza de que no estamos solos en tan vasto Universo y, dada la conformación y caracterísiticas de ese pequeño mundo, no podríamos extrañarnos de que, la vida, incluso pudiera estar sabasada en otro elemento distinto del Carbono.

Diferentes condiciones ambientales pueden haber dado lugar a la vida e incluso permitido la supervivencia de algunos organismos vivos generados de forma casual, como experimento de la naturaleza. La Astrobiología trata de elucidar el papel de la evolución del Universo, y especialmente de cuerpos planetarios, en la aparición de la vida. En esta búsqueda de ambientes favorables para la vida, y su caracterización, en el sistema solar, la exploración espacial se muestra como una componente esencial de la Astrobiología. La experimentación en el laboratorio y la simulación mediante ordenadores o en cámaras para reproducir ambientes distintos son una herramienta que ha de ser complementada por la exploración directa a través de la observación astronómica, ligada al estudio de planetas extrasolares, o mediante la investigación in situ de mundos similares en cierta forma al nuestro, como el planeta Marte o algunos satélites de los planetas gigantes Júpiter y Saturno, como Europa, Encelado o el de arriba, Titán.

http://www.beugungsbild.de/huygens/povray/huygens_30km.jpg

Hoy, después de un viaje de siete años a través del sistema solar abordo de la nave Cassini, la sonda Huygens de la ESA ha pudo con éxito a través de la atmósfera de Titán (la mayor luna de Saturno) tomar tierra a salvo en su superficie para poder enviarnos datos e imágines que nos han dejado con la boca abierta por el asombro de lo que allí hay y, de lo que pueda estar presente…¿Vida microbiana?

La componente instrumental y espacial convierte a la Astrobiología en un ejemplo excelente de la conexión entre ciencia y tecnología. Los objetivos científicos de la Astrobiología, hemos visto, que requieren un tratamiento trans-disciplinar, conectando áreas como la física y la astronomía con la química y la biología. Esta metodología permite explotar sinergias y transferir conocimiento de unos campos a otros para beneficio del avance científico. Pero además, la Astrobiología está íntimamente ligada a la exploración espacial que requiere el desarrollo de instrumentación avanzada. Se necesitan tecnologías específicas como la robótica o los biosensores habilitadas para su empleo en condiciones espaciales y entornos hostiles muy diferentes al del laboratorio. Naturalmente la Astrobiología emplea estos desarrollos también para transferir conocimiento y tecnologías a otros campos de investigación científica y en particular, cuando es posible, incluso al sector productivo.

Pero repasemos, para avanzar, cuáles son las áreas científicas propias de la Astrobiología. Como se ha dicho, es una ciencia interdisciplinar para el estudio del origen, evolución y distribución de la vida en el Universo. Para ello requiere una comprensión completa e integrada de fenómenos cósmicos, planetarios y biológicos. La astrobiología incluye la búsqueda y la caracterización de ambientes habitables en nuestro sistema solar y otros planetas alrededor de estrellas más alejadas, la búsqueda y análisis de evidencias de química prebiótica o trazas de vida larvada o extinguida en cuerpos del sistema solar como Marte o en lunas de planetas gigantes como Júpiter y Saturno. Asimismo se ocupa de investigaciones sobre los orígenes y evolución de la vida primitiva en la Tierra analizando el comportamiento de micro organismos en ambientes extremos.

Anhidrobiosis “vida sin agua”

 Hidratación durante 3 h. ¿qué no habrá por ahí fuera? Otros como los Acidófilos: Se desarrollan en ambientes de alta acidez, como el Picrophilus, los organismos de la cuenca del Río Tinto,  en Huelva o la arquea que habita en una mina californiana llamada Iron Mountain, que crece en PH negativo. Los Organismos radiófilo o radiorresistente es aquél capaz de sobrevivir y prosperar en ecosistemas con niveles muy altos de radiaciones ionizantes. Los Halófilosque se Se desarrollan en ambientes hipersalinos, como las del género Halobacterium, que vicven en entornos como el Mar Muerto. Los Termófilos: Se desarrollan en ambientes a temperaturas superiores a 45 °C, algunos de ellos, los Hipertermófilos tienen su temperatura òptima de crecimiento por encima de los 80 °C., como el  Pyrococcos furiosus, donde las chimenes termales submarinas son testigos de ese asombroso hecho. Otros, como los Psicrófilos, que  se desarrollan en ambientes de temperatura muy fría, como la Polaromanas vacuaolata. También tenemos los tasrdígrados, que se deshidratan para quedar como muertos durante cientos de años en condiciones de criptobiosis y pueden resistir en el espacio. Otros viven sin oxígeno, los hay que habitan a muchos metros bajo la superficie, o, algunos que existen con un bajo índice de humedad. En fin, la gama es amplia y nos muestra una enorme lista de protagonistas que, em medios imposible pueden vivir sin el menor problema. Y, si eso es así (que lom es), ?qué problema puede existir para que exista vida en otros planetas?

Los seres vivos surgen por todo el Universo y en las más extremas condiciones. Simplemente con observar lo que aquí tenemos nos podemos hacer una idea de lo que encontraremos por ahí fuera. Creo (aunque pudiera haber otras) que la vida en el Universo estará basada, como la nuestra, en el Carbono. El Carbono es el material más idóneo para ello por sus características especiales.

Desde el punto de vista más astronómico, la Astrobiología estudia la evolución química del Universo, su contenido molecular en regiones de formación estelar, la formación y evolución de discos proto-planetarios y estrellas, incluyendo la formación de sistemas planetarios y la caracterización de planetas extrasolares. En este campo en particular se han producido avances recientes muy importantes con la obtención de imágenes directas de planetas extrasolares y la identificación de algunos de ellos como puntos aislados de su estrella central gracias a técnicas de interferometría.

Nube molecular Barnard 68

Inmensas Nubes moleculares habitan en las galaxias y, dentro de ellas, al calor de las estrellas se producen transiciones de fase que nos traen la química-biológica para que la vida sea posible.

La caracterización de atmósferas de planetas extrasolares con tránsitos han permitido detectar CO₂ en la atmósfera de otros mundos y se ha descubierto el planeta más parecido a la Tierra por su tamaño y suelo rocoso aunque con un período demasiado corto para ser habitable. El lanzamiento de la misión Kepler de la NASA nos permite abrigar esperanzas de encontrar finalmente un planeta “hermano” del nuestro en la zona de habitabilidad de otra estrella.

El campo de la Astronomía planetaria, la Astrobiología estudia la evolución y caracterización de ambientes habitables en el sistema solar con el fin de elucidar los procesos planetarios fundamentales para producir cuerpos habitables.

Esto incluye el análisis de ambientes extremos y análogos al de Marte en nuestro planeta, como resulta ser la cuenca del Río Tinto en Huelva, así como la exploración de otros cuerpos del sistema solar, Marte en particular. Y, a propósito de Marte, recuerdo la emoción que sentí cuando la NASA detectó un foco de CH4 en el planeta. Al igual que los eucariotas, muchas bacterias respiran oxígeno. Pero otras bacterias utilizan para la respiración nitrato disuelto (NO3) en lugar de Oxígeno, y aún otras usan iones sulfato (SO42-) u óxidos metálicos de hierro o manganeso. Unos pocos procariotas pueden incluso utilizar CO2, que hacen reaccionar con ácido acético en un proceso que genera gas natural, que es el gas metano CH4 detectado en Marte. Dado que el planeta no muestra actividad volcánica, la fuente de dicho metano, ¿por qué no? podría ser bacteriana.

Estructura celular de una bacteria, típica célula procariota. El metabolismo de los procariotas es enormemente variado y resisten condiciones ambientales sorprendentes por lo extremas en parámetros como la temperatura y la acidez, entre otros,

El descubrimiento en Marte de agua en forma de hielo así como las claras evidencias de la existencia de agua líquida en su superficie en el pasado, proporcionadas por la observación de modificaciones de la componente mineralógica atribuidas al agua líquida en el subsuelo. Hoy por hoy, se considera que la presencia de agua líquida es una condición necesaria, aunque no suficiente, para la aparición de la vida ya que proporciona el caldo de cultivo para que las moléculas prebióticas se transformen en microorganismos biológicos.

En estas investigaciones el estudio del satélite Titán de Saturno mediante la sonda europea Huygens ha marcado un hito importante al acercarnos a un entorno prebiótico donde el metano ejerce un papel dominante.

En este sentido la posibilidad de explorar el satélite Europa, alrededor de Júpiter, es un claro objetivo de la Astrobiología dado que la espesa corteza de hielo que lo cubre puede esconder una gran masa de agua líquida.

Finalmente, la Astrobiología también contempla una serie de actividades más próximas al laboratorio en el que se analiza la evolución molecular, desde la química prebiótica, pasando por la adaptación molecular, hasta los mecanismos bioquímicos de interacción y adaptación al entorno. En este campo son muy importantes los estudios centrados en los límites de la biología, como la virología, y herramientas para la comprensión de los mecanismos de transmisión de información, de supervivencia y adaptabilidad, como las cuasi-especies. Entre los últimos avances de la química prebiótica de interés para la Astrobiología se encuentra el análisis de la quiralidad, una preferencia de la química de los organismos vivos por una simetría específica que nos puede acercar al proceso de su formación durante el crecimiento de la complejidad y la jerarquización de los procesos. Naturalmente, los mecanismos de transferencia de información genética resultan críticos para comprender la adaptabilidad molecular y son otro objetivo prioritario de la Astrobiología.

Está claro que la historia científica de la creación de la vida puede resultar una narración apasionante que, correctamente explicada en unión de los conocimientos que hoy poseemos del Universo, puede conseguir que comprendamos la inevitabilidad de la vida, no sólo ya en el planeta Tierra (único lugar -de momento-) en el que sabemos que está presente, sino por todos los confines del inmenso Universo. La diversidad biológica que podríamos contemplar de poder observar lo que por ahí fuera existe, nos llevaría más allá de un simple asombro.

Pero, ¿es realmente cierto que la ignorancia supera al conocimiento como camino más directo hacia el asombro? Bueno, lo que sí sabemos que es cierto es el hecho de que, cuanto más sabemos de las cosas, menos propensos somos al asombro. Y, siendo mucho lo que desconocemos de la historia de la vida y también de la del Universo, podemos decir que sabemos lo suficiente para “saber” que no estamos solos.

Algún día (espero que no demasiado lejano en el tiempo), encontraremos la prueba irrefutable de la existencia de la vida fuera de la Tierra. Espero que lo que hallemos no difiera exageradamente de lo que aquí existe y de lo que existió, seguramente, en esos otros lugares, el recorrido de la vida habrá sido muy similar al nuestro, y, la mayor diversidad de la vida será microbiana, esas formas primarias de vida que reconocemos como los verdaderos diminutosm arquitectos de los ecosistemas terrestres. Aquí en la Tierra, la historia completa de la vida abarca unos 4.000 millones de años, desde los extraños mundos de los océanos sulfurosos que se extendían bajo una atmósfera asfixiante, pasando por bacterias que respiraban hierro, hasta llegar por fin a nuestro familiar mundo de oxígeno y ozono, de valles boscosos, de animales que nadan, corren o vuelan. Ni Sheherazade podría haber imaginado un cuento más fascinante.

Io. Sulfuric, acid oceans.

Hace poco NASA publicó esta foto de una de las lunas de Júpiter. Es volcánica, y genera océanos de lava y azufre. ¿Quién sabe lo que ahí pueda estar presente? Desde luego yo no puedo afirmar ni negar nada. Sin embargo, según lo descubierto aquí en la Tierra, mejor dejar la respuesta para más adelante.

Hemos alcanzado un nivel de desarrollo intelectual muy aceptable y, puesto que somos grandes animales, se nos puede perdonar que tengamos una visión del mundo que tiende a celebrar lo nuestro, pero la realidad es que nuestra perspectiva es errónea. Tenemos un concepto de nosotros mismos que, habiendo sido elaborado en nuestro cerebro tiende a ser tan irreal que, incluso llegamos a creernos especiales, y, la verdad es que, lo que tenemos de especial queda reducido al ámbito familiar, social y poco más. En el contexto del Universo, ¿que somos?

Creer que en un Universo “infinito” sólo existen unos seres que habitan un minúsculo objeto redondo, un grano de tierra de una simple Galaxia de entre cien millones…Parece, al menos, pretencioso. Dejemos que la Astrobiología nos indique el camino a seguir, que nuestros ingenios espaciales nos abran el camino y, cuando llegue el momento, partamos a conocer a nuestros hermanos.

La Fuente:

Obtenida en el Volumen 23, número 3 de 2009 de la Revista Española de Física, donde se publicó un magnifico trabajo de  D. Álvaro Giménez,  del Centro de Astrobiología INTA-CSIC. También tiene su parte aquí Andrew H. Knoll, reconocido paleontólogo que, en su libro La vida en un planeta joven, nos ofrece una apasionante narración sobre la vida, y, finalmente, lo poco que por mi parte he podido aportar.

emilio silvera

¿Las Mil y Una Noches?… Y, muchas más cosas

No es ningún secreto que la obra más famosa de la denominada literatura árabe, Alf Laylah wa-Laylah (Las mil y una noches), era en realidad una antigua obra persa.  Hazar Afsana ( un millar de cuentos), que contenía distintos relatos, muchos de los cuales eran de origen Indio.  Con el paso del tiempo, se hicieron adiciones a esta obra, no sólo a partir de fuentes árabes, sino también griegas, hebreas, turcas y egipcias.  La obra que hemos leído (casi) todos, en realidad, es un compendio de historias y cuentos de distintas nacionalidades, aunque la ambientación que conocemos, es totalmente árabe.

Además de instituciones de carácter académico como la Casa de la Sabiduría, el  Islam desarrolló los hospitales tal como los conocemos hoy en nuestros días.  El primero y más elaborado, fue construido en el siglo VIII bajo al-Rashid (el Califa de Las Mil y una noches),  pero la idea se difundió con rapidez.  Los hospitales musulmanes de la Edad Media que existían en Bagdad, El Cairo o Damasco, por ejemplo, eran bastante complejos para la época.  Tenían salas separadas para hombres y mujeres, salas especiales dedicadas a las enfermedades internas, los desordenes oftálmicos, los padecimientos ortopédicos, las enfermedades mentales y contaban con casa de aislamiento para casos contagiosos.

       Las bibliotecas científicas islámicas tuvieron una enorme influencia en el desarrollo y evolución de la civilización humana hasta que aparecieron con su imagen actual, sin embargo la biblioteca más conocida y famosa de este tipo sin duda fue la Biblioteca “Dar Al Hikmah” (La Casa de la Sabiduría), en Bagdad, que desempeñó el papel más trascendente para el conocimiento en la tierra, sin caer en la más mínima exageración. La Casa de la Sabiduría constituye uno de los tesoros científicos producidos por el pensamiento musulmán en la antigüedad, que también dio lugar a otras muchas bibliotecas científicas en diferentes lugares del Estado islámico, y cuya importante función ha olvidado la gente, a pesar de que ejercieron en aquella época un papel similar al de una universidad científica internacional. Allí acudía todo tipo de alumnos, sin importar su género ni su religión, desde Oriente hasta Occidente, con el fin de estudiar las diferentes disciplinas científicas, en numerosos idiomas. Su luz estuvo iluminando y guiando a la humanidad durante cerca de cinco siglos, hasta que los tártaros la destruyeron.

El Islam, en este campo, también estaba muy avanzado, e incluso tenían clínicas y dispensarios ambulantes y hospitales militares para los ejércitos.  Allí, en aquel ambiente sanitario, surgió la idea de farmacia o apotema, donde los farmaceutas, tenían que aprobar un examen, antes de preparar y recetar medicamentos.

Los conocimientos árabes llegaron hasta Europa a través de España al ser Conquistada por el Islam

La obra de Ibn al-Baytar Al-Jami’fi al-Tibb (Colección de dietas y medicamentos simples) tenía más de un millar de entradas basadas en plantas que el autor había recopilado alrededor de la costa mediterránea.  La noción de sanidad pública también se debe a los árabes que, visitaban las prisiones para detectar y evitar enfermedades contagiosas.

Grandes médicos islámicos como Al-Razi, conocido en occidente por su nombre latino, Rhazes, nació en la ciudad persa de Rayy y en su juventud fue alquimista, después de lo cual se convirtió en erudito en distintas materias.  Escribió cerca de doscientos libros, y aunque la mitad de su obra está centrada en la medicina, también se ocupó de temas teológicos, matemáticos y astronómicos. ¡Todo un personaje! Fue el primer médico Jefe del gran hospital de Bagdad.  Se dice que para elegir el sitio de ubicación del hospital, primero colgó tiras de carne en distintos lugares de la ciudad, y, finalmente eligió aquel donde la carne era menos putrefacta.

La gran obra de al-Razi fue el AL-Hawi (El libro exhaustivo), una enciclopedia de veintitrés volúmenes de conocimientos médicos griegos, árabes, preislámicos, indios e incluso chinos.

El otro gran médico musulmán fue Ibn Sina, a quien conocemos mejor por su nombre latinizado, Avicena.  Al igual que al-Razi, Avicena escribio doscientos libros, destacando la obra más famosa AL-Qanun (El canon) muy documentado e importante tratado.

Alejandría, en el año 641, había caído en manos de los musulmanes que, durante muchos años había sido la ciudad capital-mundial de los estudios matemáticos, médicos y filósofos, y allí los musulmanes encontraron una ingente cantidad de libros y manuscritos griegos sobre estos temas.  Posteriormente, entre el profesorado de la Casa de la Sabiduría encontramos a un astrónomo y matemático cuyo nombre, como el de Euclides, se convertiría en palabra de uso cotidiano en todo el mundo culto: Muhammad ibn-Musa aL-khwarizmi.

Muhammad ibn Musa al-Khwarizmi

La fama de al-khwarizmi descansa en dos libros, uno muchísimo más original que el otro.  El volumen menos original se basa en el Sindhind, que es el nombre árabe del Brahmaghuta Siddhanta, el tratado de Brahmagupta que había llegado hasta la corte de al-Mansur y en el que se describen varios problemas aritméticos así comos los numerales indios.  El trabajo de AL-khwarizmi se conoce hoy en una única copia, una traducción latina de un original árabe actualmente perdido.

El título latino de esta obra es de numero indorum (sobre el arte de contar indio), este trabajo es el responsable de la falsa impresión de que nuestro sistema numérico es de origen árabe.

al-khwarizmi no afirmó ser original en aquel sentido, sin embargo, la nueva notación terminaría siendo conocida como la de al-khwarizmi o, de forma corrupta, algorismi, lo que al final daría lugar a la palabra “algoritmo”, que define una forma particular de calculo.

Pero al-khwarizmi también es conocido como el “padre del álgebra” y, ciertamente, su Hisab aL-jabr wa’L mugabalah contiene más de ochocientos ejemplos y, se cree que tiene su origen en complejas leyes islámicas relativas a la herencia:

¡La forma en  que evolucionaron los números!

En el al-jabr, aL-khwarizmi introduce la idea de representar una cantidad desconocida por un símbolo, como la x, y dedica seis capítulos a resolver los seis tipos de ecuaciones que conforman las tres clases de cantidades: raíces, cuadrados y números.

El al-jabr de al-khwarizmi ha sido considerado tradicionalmente como la primera obra de Algebra.  Sin embargo, un manuscrito hallado en Turquía a finales del pasado siglo XX pone en duda tal mérito.  Se titula Necesidades lógicas en las ecuaciones mixtas, el texto se ocupa más o menos de los mismos temas y resuelve algunas de las ecuaciones exactamente de la misma manera.  Por tanto, parece que un manuscrito se basó en otro, aunque nadie sabe cuál fue el primero.

En las ciencias químicas, la personalidad árabe más destacada fue Jabir ibn-Hayyan, conocido en Occidente como Geber, y quien vivió en aL-kufah en la segunda mitad del siglo VIII.

Como todos en la época, él también estaba obsesionado con la alquimia y, en particular, por la posibilidad de convertir los metales en oro (algo que Jabir pensaba podía conseguir mediante una misteriosa sustancia aún no descubierta, a la que llamó, el aliksir, de donde proviene la palabra “elixir”).  Los alquimistas también creían que su disciplina era la “ciencia del equilibrio” y que era posible producir metales preciosos mediante la observación (y mejoramiento) de los métodos de la naturaleza mediante la experimentación y, es legitimo considerar a Jabir uno de los fundadores de la química.

Paralelamente a esto, aL-Razi ofreció una clasificación sistemática de los productos de la naturaleza.  Dividió las sustancias minerales en espíritus (mercurio, sal amoníaco), sustancias (oro, cobre, hierro), piedras (hermatites, óxido de hierro, vidrio, malaquita), vitriolos (alumbre), Góraxes y sales.  A estas sustancias “naturales” añadió las “artificiales”:  el cardenillo, el cinabrio, la soda cáustica, las aleaciones.  aL-Razi también creía en lo que podríamos denominar investigación de laboratorio y desempeñó un importante papel en la separación de la química propiamente dicha de la alquimia.

¡Son tantas las cosas que podemos recordar de tiempos pasados!

Si podeis, os recomiendo la lectura del libro “Ideas” de Peter Watson, en él podreis encontrar relatos que, como el que arriba habeis leído, os llevará al pasado y os contará maravillas, muchas veces olvidadas y que, en realidad, forjaron la senda para que nosotros pudiéramos llegar hasta aquí.

emilio silvera