Se ha creado una cuenta Twitter que publica las entradas de este blog, para acceder a ella pulsa en Cuenta Twitter asociada a Amicorum Concilium
Para publicar en tu cuenta twitter una referencia a una entrada de este blog, pulsa en boton twitter (t) que hay al final de cada entrada.

martes, 20 de noviembre de 2012

La sorprendente acción a distancia de la gravedad

Este artículo tiene cierta relación con otro recientemente publicado en este blog titulado "El incomprensible comportamiento de los átomos y sus partículas" en el sentido de que incita a reflexionar sobre cómo nuestra experiencia condiciona nuestro entendimiento sobre diferentes aspectos del mundo en que vivimos.

En el citado artículo se transmitía el mensaje de que la dificultad para entender el comportamiento del mundo microscópico se debía a que las personas normales no tenemos experiencias directas de ese mundo sino sólo lo que nos cuentan los especialistas a la vista de los resultados de sus complicados experimentos.

En este artículo vamos a ver otro caso en el que nuestra experiencia condiciona nuestro entendimiento pero ahora en el sentido opuesto, porque damos por entendido algo tan difícil de comprender como es la acción a distancia de la gravedad.

Pocos fenómenos están mas presentes que la gravedad en nuestras vidas. Desde que aprendemos a echar los primeros pasos establecemos una lucha permanente con la gravedad para mantenernos erguidos, lo que ocurre es que nuestro cerebro nos hace guardar el equilibrio de forma tan automática que sólo nos sorprendemos si alguien tropieza y cae. 


Estamos tan acostumbrados a que los objetos que no están sujetos caigan hacia abajo que aceptamos ese hecho como la cosa mas natural del mundo y no reflexionamos sobre cómo la fuerza de la gravedad puede actuar a distancia para tirar del objeto hacia abajo. Tuvo que llegar un genio de la talla de Isaac Newton para preguntarse seriamente por qué ocurría esto.

Newton, una de las mayores inteligencias de la historia, se dio cuenta de que una cosa es describir la ecuaciones de la gravitación y otra comprender la auténtica naturaleza de la gravedad. En una carta dirigida al obispo y erudito Richard Bentley  escribió: «...que un cuerpo pueda actuar sobre otro a distancia, a través del vacío y sin ninguna otra mediación, y que su acción y fuerza puedan pasar de uno al otro, es para mí un absurdo tan grande que creo que nunca estará de acuerdo con ello ningún hombre que sea intelectualmente competente en materia filosófica.»

Aún sin comprender como una fuerza se podía transmitir a distancia, en 1687 Newton enunció verbal y matemáticamente las leyes de la gravitación universal por las que se rigen tanto los movimientos de los objetos en la gravedad terrestre como los movimientos de los astros y con ello reunió en una sola teoría la descripción de la mecánica terrestre y la celeste.


Una explicación
Hubo que esperar hasta 1916 para que otro genio de talla comparable, Albert Einstein, publicara su Teoría General de la Relatividad y diera una respuesta al problema que preocupaba a Newton. La explicación de Einstein de como la fuerza de la gravedad se transmite a distancia no puede ser mas sorprendente: la fuerza de la gravedad no existe, los efectos que achacamos a la fuerza de la gravedad no son mas que las consecuencias de una deformación del espacio. 
Después de concebir esta idea, Einstein, con ayuda de relevantes matemáticos de la época, dedicó varios años de intenso esfuerzo a plasmarla en las nuevas ecuaciones de la gravitación universal.  Las ecuaciones son complicadas pero en plan de divulgación se pueden expresar coloquialmente en estas dos sencillas frases:
  • La masa le dice al espacio como debe curvarse.
  • El espacio le dice a la masa como debe moverse.

¿Cómo se deforma el espacio?
Imaginemos una tejido elástico tensado en un plano horizontal como si fuera un mundo de 2 dimensiones. Si le colocamos  encima una esfera pesada, el tejido se deforma y adquiere una forma cóncava. Un ser bidimensional no se daría cuenta de la deformación. Nosotros si al 
observarlo desde nuestro mundo de 3 dimensiones. Lo que dice la Teoría de la Relatividad es que, de forma análoga al tejido elástico del ejemplo anterior, el espacio tridimensional en que vivimos se curva sobre un espacio de 4 dimensiones. Nosotros no podemos percibir esa deformación y difícilmente imaginar que es un mundo de 4 dimensiones. En la figura se trata de representar esa deformación dibujando como quedaría una estructura cúbica regular al colocar la masa.


¿Cómo es el movimiento sobre un espacio deformado?


Cuando no actúan fuerzas sobre un cuerpo en movimiento, este sigue la trayectoria que requiere la mínima distancia a recorrer que es la que se conoce cómo línea geodésica.

En el ejemplo anterior, si antes de colocarle la esfera pesada tiramos sobre el tejido tensado una bolita ligera podremos observar que ésta se mueve en línea recta. Fig (a). 

Sin embargo si tiramos la bolita después de haber colocado la esfera pesada observaremos que la bolita sigue una trayectoria curva debido a la deformación del tejido implica que la línea geodésica tiene ahora esa forma. Fig (b).



La Relatividad explica que La Tierra, planetas y demás astros del sistema solar sigan unas trayectorias elípticas porque son las líneas geodésicas que les corresponden dentro de ese cuenco que es el espacio del sistema solar curvado por el Sol, sin que ninguna fuerza obligue a los astros a seguir sus curvadas trayectorias.

¿Una locura?
No, porque si se acepta que el espacio se deforma por el sólo hecho de contener masas (galaxias, estrellas, planetas, etc) la explicación de los efectos gravitatorios es completamente racional y las nuevas leyes de la gravitación explican todos los fenómenos gravitatorios conocidos y son "casi" idénticas a las que enunció Newton en el siglo XVII.


He puesto "casi" porque en las nuevas leyes aparecen unas pequeñas modificaciones sobre las de Newton que hay que tener en cuenta en casos muy especiales. 
Esas modificaciones permiten, por ejemplo, que las leyes relativistas expliquen con precisión el desplazamiento del perihelio del planeta Mercurio cosa que no se puede explicar con las leyes de Newton.




Cuando se dice que la fuerza de la gravedad no existe no se niega el resultado, se niega el origen. Lo que sentimos como fuerza de la gravedad es una fuerza virtual, algo parecido a la fuerza centrífuga que experimentamos vívidamente cuando estamos dentro de un vehículo que recorre velozmente una trayectoria curvada.

Ondas gravitacionales
Una de las consecuencias que tiene la idea de Einstein es que el espacio se comporta como un tejido elástico en el que la deformación en una zona se transmite a las zonas colindantes. A consecuencia de esto, cuando se producen perturbaciones bruscas en la deformación del espacio debidas a cataclismos cósmicos, la deformación se propaga a la velocidad de la luz por el espacio formando ondas gravitacionales. Estas ondas no se han podido observar aún pero ya se han construido detectores especialmente diseñados para este fin, ya que este aspecto es la última predicción que falta por comprobar de la Teoría de la Relatividad.
Juan Rojas

jueves, 4 de octubre de 2012

El incomprensible comportamiento de los átomos y sus partículas

   En 1871 James C. Maxwell, creador de la teoría electromagnética, expresando el sentir de la época dijo en una clase magistral en la Universidad de Cambridge: "En unos pocos años habremos determinado con una buena aproximación las grandes constantes de la Física. A partir de ahora la única ocupación de los científicos será extender la precisión de las medidas a un nuevo decimal." 

Este sentimiento optimista se basaba en que la mayoría de los fenómenos podían explicarse mediante lo que hoy llamamos la Física Clásica (es decir, la mecánica de Newton, la teoría electromagnética de Maxwell, la termodinámica y la mecánica estadística de Boltzmann). Parecía que sólo quedaban por resolver unos pocos problemas no demasiado importantes. Uno de ellos era la determinación de las propiedades del éter sobre el que se propagaban las ondas electromagnéticas en el espacio. Otro era cómo explicar la radiación del cuerpo negro (el cuerpo que no refleja nada de luz).

Sin embargo, lo que en ese momento parecían pequeños problemas resultaron ser la semilla de las dos ramas de la Física que en el siglo XX le dieron la vuelta a esta ciencia hasta tal punto que se necesitó un replanteamiento radical de los conceptos científicos y filosóficos que existían hasta entonces.

Por un lado, los resultados de los experimentos para determinar cómo se propagaban las ondas electromagnéticas dieron pié a Albert Einstein para formular la Teoría de la Relatividad. 


 Por otro lado, la imposibilidad de explicar por las leyes clásicas como radiaban la energía los cuerpos negros sugirió a Max Planck (en un acto de desesperación y aún sin verle sentido) la idea de que la energía no se intercambia de forma continua sino de forma discreta como múltiplo de una unidad de energía mínima (a la que le llamó cuanto). Sorprendido, comprobó que con esta hipótesis se explicaban con absoluta precisión los resultados experimentales. La idea del cuanto fue el germen de la Mecánica Cuántica y le valió a Planck el Premio Nobel de Física de 1918.


La Mecánica Cuántica se ocupa del fascinante y paradójico mundo del comportamiento de la materia y la radiación en las escalas atómica y subatómica. Trata de describir y explicar las propiedades de las moléculas, los átomos y sus constituyentes: protones, neutrones, electrones, quarks, gluones, etc. 
Esas propiedades incluyen las interacciones de las partículas entre sí y con la radiación electromagnética.

Matemáticamente la Mecánica Cuántica es relativamente fácil de entender (para los matemáticos). Sus ecuaciones predicen los resultados de los experimentos con una precisión admirable pero lo que realmente significan esas ecuaciones es imposible de entender para los profanos y para la mayoría de los expertos. En realidad si nos paramos a pensar y lo analizamos lógicamente no hay ninguna razón para pensar que el comportamiento del mundo atómico y subatómico deba seguir las mismas pautas que el mundo macroscópico que observamos en nuestra experiencia diaria. La Física Clásica se creó sobre infinidad de experimentos del mundo macroscópico y eso era lo que explicaba maravillosamente bien pero no incluía el mundo microscópico que ni siquiera se conocía.

Para anticiparnos a la típica reacción de incredulidad de quién se acerca por primera vez a los principios de esta disciplina vamos a empezar por ver algunas opiniones sobre la Mecánica Cuántica de algunos de los científicos (todos ellos premios Nobel de Física) que más se destacaron en el desarrollo de esta nueva rama de la Ciencia.


Niels Bohr (Nobel 1922): "Quién no se siente impactado por la Mecánica Cuántica es que no la conoce".

Richard Feynman (Nobel 1965): "Pienso que se puede afirmar tranquilamente que nadie entiende la Mecánica Cuántica... No te pongas a repetir, '¿pero cómo puede ser así?' porque te meterás en un callejón sin salida del que nadie ha escapado. Nadie sabe cómo puede ser así".

Erwin Schrödinger (Nobel 1933): "No me gusta (la Mecánica Cuántica) y me disgusta haber tenido que ver con ella".

Albert Einstein, a pesar de haber sido uno de los pilares iniciales de la Teoría Cuántica explicando el efecto fotoeléctrico (por lo que recibió el Nobel en 1921) fue muy crítico con la nueva teoría, decía que la teoría "caía en la fantasmal" y no aceptó su carácter probabilístico. Al final de su vida escribió : "Todos estos cincuenta años de cavilación consciente no me han acercado a la respuesta de la pregunta '¿Qué son los cuantos de luz?' Hoy en día cualquiera puede creer que lo sabe, pero está equivocado".

Paul Dirac (Nobel 1933): "Ni siquiera con palabras podemos explicarla bien".

Werner Heisenberg (Nobel 1932): "Todas las palabras o conceptos que usamos para describir objetos físicos ordinarios como posición, velocidad, color, tamaño, etc., se vuelven indefinidos y problemáticos si tratamos de usarlos aplicados a las partículas elementales".

Stephen Hawking opina que comprender el funcionamiento íntimo de la naturaleza no es lo más importante y que lo que realmente importa es contar con una teoría que nos permita hacer predicciones de lo que va a ocurrir.

El experimento de la doble ranura

Empecemos por describir un experimento del que Richard Feynman dice: “Es absolutamente imposible explicarlo de alguna manera clásica. Su contenido es el corazón de la Mecánica Cuántica. En realidad sólo contiene misterio ...”. Consiste en lanzar partículas, una a una, sobre una barrera que tiene dos rendijas y observar como después de atravesar las rendijas llegan a una pantalla situada detrás. El experimento, que es totalmente repetible, se ha realizado con electrones, protones, neutrones y hasta con moléculas de fullerenos, (compuestas por 60 átomos de carbono con formas de balones de fútbol) y siempre se han obtenido los mismos sorprendentes resultados. Pero en vez de describir textualmente los detalles del experimento vamos a utilizar el siguiente video, que va orientado a un público juvenil, y lo explica de forma muy esquemática y muy clara.




Entrelazamiento cuántico

En otro tipo de experimento se puede comprobar que en determinadas circunstancias dos o mas partículas quedan relacionadas entre si en un estado especial que se ha denominado "estado entrelazado". El entrelazamiento entre partículas constituye un fenómeno cuántico fundamental que no se ajusta a la realidad a la que estamos acostumbrados. Cuando se observan partículas entrelazadas se comprueba que sus propiedades están correlacionadas aunque las partículas estén físicamente separadas. Recientemente un equipo internacional liderado por Anton Zeilinger de la Universidad de Viena ha publicado en Nature un estudio en el que ha comprobado el entrelazamiento cuántico de dos fotones distantes 143 Km, uno en la isla de La Palma y otro la de Tenerife.

Un cambio total

Estos y otros muchos experimentos realizados desde comienzos del siglo XX llevaron a los científicos a la conclusión de que el mundo de los átomos y de las partículas que lo componen no se rigen por los principios del mundo macroscópico sino por otros totalmente nuevos y extraños que poco a poco fueron descubriendo. Además del principio de cuantización de la energía de Planck, antes mencionado, se han descubierto estos otros principios:

Principio de dependencia del observador, por el que es imposible, por razones de principio, efectuar una medición sobre un sistema sin perturbarlo. Si observamos un experimento relacionado con la colisión de una determinada partícula, el resultado obtenido está afectado por el hecho de que lo estamos observando. De acuerdo con la mecánica cuántica, la objetividad no existe. Los detalles de la naturaleza de esta perturbación y la forma en que ella ocurre son todavía asuntos controvertidos.


Principio de dualidad onda-partícula, por el que las partículas se comportan a veces como onda y a veces como partículas, existiendo una relación precisa entre la masa de cuando se comporta como partícula y la frecuencia de vibración de cuando se comporta como onda. (A través de E=mc2 y de E= hv).

Ecuación de onda de Schrödinger. Si desconcertante es el hecho de que la materia se comporte como una onda, más desconcertante aún resulta la explicación de que esa naturaleza ondulatoria de la materia esté asociado a un comportamiento probabilístico. En 1924 Erwin Schrödinger comprobó que si un experimento con una partícula se repetía de forma totalmente idéntica, la partícula se encontraba cada vez en una posición diferente. A raíz de esto desarrolló su famosa ecuación que describe con total precisión las probabilidades de que la partícula se encuentre en cada una de las posiciones del espacio así como su evolución en el tiempo.



Principio de incertidumbre de Heisenberg. En 1927, Werner Heisenberg demostró que la precisión con que se pueden conocer la posición y la velocidad de una partícula son inversamente proporcionales. Es decir si se mide con precisión la posición se obtiene gran error en la velocidad y viceversa. De igual manera demostró hay otras magnitudes que le ocurre lo mismo y que esto es un hecho fundamental de la naturaleza que se da para todas las partículas independientemente de los instrumentos y de los métodos de medición empleados. A consecuencia de esto, en la interpretación actual, el principio de incertidumbre de Heisenberg se expresa diciendo que no es que no seamos capaces de hacer mediciones precisas por problemas de habilidad o de instrumentación sino que realmente las partículas no tienen unos valores concretos para esos pares de variables (posición-velocidad, energía-tiempo, etc). Es decir, no es un problema de conocimiento sino de que en la naturaleza se da realmente esa fluctuación de las propiedades. Además el hecho de que en ese límite aparezca también la constante de Planck demuestra que esa constante es la medida universal de la indeterminación introducida en las leyes naturales por el dualismo de las ondas y los corpúsculos.

Interpretación de Copenhague

Pero una cosa son los principios enumerados, en la que los expertos están de acuerdo y otra cosa es entender las ideas que subyacen en esos principios. Si, las cosas son tan raras que los expertos en estas materias han formulado a lo largo de los años diversas interpretaciones, cada una con sus ventajas y sus inconvenientes. En 1927 Bohr presentó lo que desde entonces se conoce como interpretación de Copenhague que ha sido tradicionalmente considerada por muchos como la forma oficial de interpretar la Mecánica Cuántica. De acuerdo con esa interpretación el resultado de un experimento cuántico es aleatorio y su probabilidad viene definida por la función de onda. En el acto de la observación esa probabilidad difusa se convierte en un resultado concreto que es lo que los expertos llaman "el colapso de la función de onda". Un problema de esta interpretación es que no ofrece ninguna explicación de cómo se produce este colapso. Y otro problema es que de esta interpretación se deduce que la realidad física no existe sino que se crea en el momento de observar.

¿Es la realidad así de complicada?

En su libro "El universo elegante" Brian Greene dice: "Los expertos en mecánica cuántica son expertos porque saben aplicar unos métodos de cálculo con los que pueden predecir resultados experimentales pero sin comprender del todo por qué funcionan estos métodos o qué significan realmente. Ante esta situación caben 2 explicaciones:
  • Una. A nivel microscópico, el universo funciona realmente de una forma tan extraña, que la mente humana, que ha evolucionado para comprender los fenómenos de la vida cotidiana, es incapaz de comprender plenamente lo que en realidad pasa a nivel microscópico.
  • Dos. Los científicos han construido una formulación de la Mecánica Cuántica tan extraordinariamente complicada, que aunque sus ecuaciones sirven para predecir cuantitativamente los resultados experimentales, no nos deja entender la verdadera naturaleza de la realidad. Realidad que si se abordara de otra forma si podría ser entendida.
Pero no sabemos cuál de las dos explicaciones es la más acertada. Tal vez las dos."

Conclusión

Es frecuente criticar la Mecánica Cuántica diciendo que no es determinista, ni causal, ni completa, ni realista, ni local, ni objetiva, etc., pero estas críticas hay que interpretarlas más como una insatisfacción con el comportamiento observado del mundo de los átomos y las partículas, que como objeciones a la propia teoría cuántica por reflejar dicho comportamiento. A pesar de ser contraria a nuestra intuición y prejuicios clásicos es la mejor descripción de esa parte de la Naturaleza que ninguna otra encontrada hasta ahora y es además la teoría mejor comprobada experimentalmente en la historia de la Ciencia. No da razones últimas de por qué la Naturaleza es como parece ser, o de si podría ser de otra forma, pero reproduce correctamente los comportamientos observados. Aunque algunas de sus características desafíen al sentido común, no contiene contradicciones internas, explica todos los resultados experimentales conocidos con una precisión de hasta 20 cifras significativas y ha permitido numerosas predicciones sobre nuevos fenómenos que hasta ahora siempre se han confirmado. Ello no la convierte en un dogma indiscutible, pero tampoco se puede considerar como una mera construcción social o un simple consenso entre quienes se dedican a ella. En cualquier caso no se debe ignorar que un siglo después de su descubrimiento, alrededor del 30% del producto interior bruto de los EEUU depende de inventos (semiconductores, láser, resonancia magnética, superconductividad, etc) basados en la Mecánica Cuántica.
Juan Rojas

sábado, 22 de septiembre de 2012

La extirpación del tiroides, un Nobel de medicina, un veterinario y un rinoceronte


La tiroides es una glándula situada justo debajo de la nuez de Adán y está formada por dos lóbulos en forma de mariposa a ambos lados de la tráquea. En los adultos pesa sólo entre 15 y 30 gramos pero tiene una misión esencial en el control del metabolismo en los animales superiores porque regula la sensibilidad del organismo a otras hormonas.

La glándula tiroides fabrica las hormonas tiroxina y triyodotironina, que contienen yodo, un oligoelemento requerido (en pequeñísimas cantidades) para la mayoría de los organismos vivientes. La tiroxina tiene dos importantes misiones. Por un lado actuando sobre la transcripción genética controla la producción de energía del organismo para mantener la tasa metabólica basal a un nivel normal. Y por otro, durante los años de crecimiento la tiroxina hace que los tejidos se desarrollen en las formas y proporciones adecuadas. 
 
A veces (en un 4% de la población) algunas células del tiroides no responden bien al control de la hipófisis y crecen a un ritmo distinto de las células tiroideas normales formando nódulos. Este problema es más frecuente en las mujeres que en los hombres y se diagnostica a partir de los 35 ó 40 años, ya que esas células atípicas tienen un crecimiento muy lento. Es una enfermedad benigna y es auténticamente excepcional el que pueda degenerar en un Cáncer de Tiroides. Pero muchos especialistas prefieren no arriesgar al paciente a que esta degeneración llegara a producirse y cuando se encuentran muchos nódulos que crecen aconsejan la extirpación del tiroides. La cirugía es delicada porque hay que manipular una zona por donde pasa todo el cableado del cuerpo y hay que realizarla con anestesia general, pero tiene actualmente muy buen pronóstico y (aparte del estético) tiene como único inconveniente que hay que tomar una cápsula diaria que aporte la tiroxina durante el resto de la vida.

Pero esta cirugía no siempre ha sido fácil. A finales del siglo XIX, la extirpación del tiroides era un procedimiento peligroso con tasas de mortalidad extremadamente altas (alrededor del 90%). Esto fue así hasta que el cirujano Emil Theodor Kocher (1841-1917) publicó sus trabajos sobre la fisiología, patología y cirugía de la glándula tiroides por los que recibió el Premio Nobel de Medicina de 1909. Con el importe del premio ayudó a fundar el Instituto Kocher en Berna, escuela de cirugía en la que se formaron grandes cirujanos que mejoraron la técnica de extirpación del tiroides hasta dejar la tasa de mortalidad en un 2 o 3%. Un avance extraordinario pero no evitaba que esa cirugía siguiera considerándose peligrosa.

Independientemente de esto, en 1852 al veterinario londinense, Richard Owen (1804-1892), se le ocurrió disecar un rinoceronte indio que había muerto en el zoológico. Durante el vaciado de los órganos del animal encontró que al lado del tiroides había unas cuantas glándulas, relativamente pequeñas, que eran totalmente desconocidas para la ciencia veterinaria de la época en cualquier tipo de animal. Afortunadamente publicó su hallazgo y 11 años mas tarde Virchow encontró el mismo tipo de glándulas en el hombre. Poco después fueron extensamente analizadas por el estudiante sueco de medicina Ivar Sandström (1852-1889) de Upsala, quien señaló la existencia de dos glándulas a cada lado del cuello cerca del tiroides. Tenían forma y tamaño de lentejas, pesaban unos 30 miligramos y las llamó glándulas paratiroides.

Se identificó la hormona que producían, que como no podía ser de otra forma se llamó hormona paratiroidea, y se averiguó que dicha hormona participa en el control de la homeostasis del calcio y fósforo, así como en la fisiología del hueso.

A partir de ahí en la cirugía de tiroides se cuida muy mucho la conservación de la mayoría de las glándulas paratiroideas. Si alguna de estas glándulas va fuertemente adherida al tiroides no hay problemas en separarla y volverla a colocar en el cuerpo, en el cuello o si fuera necesario en cualquier otro lugar ya que el organismo se encarga de regenerar el tejido vascular necesario para irrigar la glándula de forma que vuelva a funcionar en su nuevo emplazamiento.

Una vez reconocida la importancia de las glándulas paratiroides, en la cirugía se extreman las precauciones para conservar el mayor número de ellas y con ello la tasa de mortalidad ha bajado lo suficiente como para que hoy la extirpación del tiroides se pueda considerar como una intervención de muy bajo riesgo.

Mis agradecimientos al cirujano Dr. Ramón Martín Gómez que con su magistral explicación de esta mañana me ha dado los conocimientos básicos para redactar este artículo.
Juan Rojas

jueves, 20 de septiembre de 2012

Némesis, la estrella de la muerte


Ha habido muchas extinciones en masa en nuestro planeta. Sin duda, la más conocida es la que acabó con los dinosaurios hace 64 millones de años, al final del período Cretácico, en la que el 75% de la vida desapareció. No ha sido ésta la más letal, sino la que hubo al final del Pérmico, hace 250 millones de años, llamada la Gran mortandad, que acabó con el 95% de las especies marinas y el 70% de los vertebrados terrestres. Las demás no están tan documentadas como éstas. En todos los casos, la causa más probable que las originó es la del impacto de un asteroide o cometa sobre la superficie de la Tierra.

A nadie le sorprende que debido a la gran cantidad de meteoritos o similares que vagan por el Sistema Solar, de vez en cuando alguno se acerque lo suficiente como para chocar con la Tierra, causando la extinción. Afortunadamente, el gigante Júpiter, con su gran fuerza gravitatoria, atrae a la mayoría de ellos, actuando como un escudo, salvaguardando a la Tierra del desastre.

Estos pensamientos inducen a creer que los impactos son aleatorios, es decir, debidos al azar, pero en el caso de las extinciones masivas no es así, se producen con una regularidad sorprendente, en concreto, cada 26 millones de años. Si hacemos las cuentas a partir de los dinosaurios y vamos sumando 26, obtenemos:
 -64, -38, -12, 14
es decir, ocurrió hace 12 millones de años, y si se mantiene la periodicidad, dentro de 14 millones volverá a ocurrir.

Como es evidente, de ser cierta esta regularidad, las preguntas son simples: ¿cuál es la causa?, ¿qué hay en el Sistema Solar que nos ataque periódicamente cada 26 millones de años?. La segunda es más sencilla de responder que la primera: nada.

A nivel interno, la deriva continental en la Tierra origina actividades volcánicas que pueden provocar la extinción, pero no con esa regularidad. A nivel externo, los períodos en el Sistema Solar no tienen esa duración, por ejemplo, el cometa Halley nos visita cada 75 años; las lluvias de estrellas de las Perseidas o Leónidas son anuales, producidas al atravesar la Tierra dichas nubes. En todos los casos, los fenómenos que se dan en el Sistema Solar no tienen la duración de 26 millones de años.

Para la primera pregunta, el astrofísico Richard Muller de la universidad de Berkeley ha propuesto como causa de las extinciones la teoría de que nuestro Sol tiene una estrella hermana llamada Némesis (en honor de la diosa griega de la venganza). Cada 26 millones se acerca al Sol y atraviesa la nube de Oort (ésta es un conjunto de cometas y asteroides situada en los límites del Sistema Solar, casi a un año luz de distancia del Sol, conteniendo entre 1 y 100 billones de cometas). El paso de Némesis origina perturbaciones gravitatorias que hace que muchos de estos objetos sean lanzados al interior del Sistema Solar, y por tanto, impacten contra la Tierra, originando el desastre.

Todo esto son hipótesis, pues Némesis no ha sido descubierta, aunque hay mucha gente trabajando en sus búsqueda. Incluso se esperan resultados significativos para el año que viene (2013).

La teoría tiene sus pros y sus contras. A favor, el que las estrellas no suelen estar solas en el Cosmos, pues se encuentran en grupos de dos (binarios) o tres (terciarios). En contra, el hecho de que los científicos están convencidos de que el Sol es una estrella solitaria, y aunque tuviera una hermana, no parece razonable que esté tan alejada.

Se crea en Némesis o no, está claro que la Tierra sufre un ataque exterior cada 26 millones de años. Uno de ellos acabó con los dinosaurios, cambiando el destino de la vida en la Tierra, gracias al cual, nosotros estamos aquí. Si la regularidad se ha observado desde la Gran Mortandad del Pérmico, volverá dentro de 14 millones de años. Si estamos todavía aquí, nuestros descendientes tendrán que buscar la forma de resolverlo.



Pedro González


domingo, 16 de septiembre de 2012

Versión popular para recordar las tres leyes de la termodinámica, según el científico C.P.Snow:
  1. Usted no puede ganar, es decir, usted no puede obtener algo a cambio de nada, porque la materia y la energía se conservan.
  2. Usted ni siquiera puede plantarse, es decir, no puede volver al mismo estado energético, porque siempre hay un incremento en el desorden; la entropía siempre crece.
  3. Usted no puede salirse del juego, ya que el cero absoluto es inalcanzable.
Extraída del libro Hiperespacio de Michio Kaku.

viernes, 14 de septiembre de 2012

He extractado una presentación del capítulo primero del Lehninger, libro canónico de bioquímica.

La he dividido en tres partes. Es información elemental y alguna, no tan elemental. Aver si funciona el enlace :https://docs.google.com/presentation/d/1MSnLHcKWS7bpqxtlgrkLLRVn9nRXA2wDfdRqLuvteyY/edit

El comentarla (y todo lo que queramos) puede ser una excusa perfecta para reunirnos un día de estos.

Saludos
Juan Carlos

lunes, 6 de agosto de 2012

Curiosity, algo más que curiosidad

La NASA acaba de anunciar el feliz aterrizaje en Marte del vehículo todoterreno Curiosity cuyo principal objetivo es averiguar si Marte ha tenido alguna vez las condiciones necesarias para albergar vida (microbiana) y si se han dado las condiciones para conservar pistas de esa hipotética vida. 2.000 millones de euros que prometen dar buenos resultados.

¿Por qué es importante saber si hay o ha habido vida en Marte?

La vida exhibe en La Tierra una extensión, una cantidad y una diversidad impresionante. Mas de 10 millones de especies de seres vivos pueblan nuestro planeta. Desde las profundidades abisales a las cimas de las montañas casi no hay lugar donde la vida no se haya implantado por muy extremas que sean las condiciones ambientales.
Pero a pesar de esta diversidad, cuando se estudia la vida en profundidad se encuentra sorprendentemente que todos los seres vivos de este planeta, desde los más simples organismos conocidos (los virus) hasta los mas complejos (primates), compartimos de tal forma los elementos constitutivos y las estructuras vitales que no admiten dudas las ideas de un origen común y de una evolución. Probablemente estas son las ideas mas importantes que ha concebido el ser humano. La idea del origen común se basa en los tres hechos siguientes:

Primero, toda la vida en La Tierra se construye sobre unos pocos elementos químicos y sobre un compuesto. El elemento base es el carbono, que entra a formar parte de todas las moléculas orgánicas de la vida y el compuesto es el agua. Junto con el carbono, otros tres elementos; hidrógeno, oxígeno y nitrógeno constituyen el 96% de todos los seres vivos. De los restantes 90 elementos que existen en la naturaleza, otros dos, el fósforo y el azufre tienen un papel muy relevante porque entran a formar parte de los ácidos nucleicos que almacenan la información genética. Finalmente otros elementos, el sodio, potasio, cloro, hierro, etc. intervienen en pequeñísimas cantidades en algunas moléculas imprescindibles en los procesos vitales.

Segundo, la forma de reproducirse todos los organismos conocidos se rigen por los mismos patrones. Las mismas cuatro bases nitrogenadas, los mismos veinte aminoácidos y lo que es más sorprendente, el mismo código genético, es decir la misma correspondencia entre las ternas de bases del ADN y los aminoácidos cuyas cadenas constituyen las proteínas que es de lo que están hechos todos los seres vivos.

Tercero, todos los seres pluricelulares se sirven de los mismos genes básicos para transmitir a sus descendencias sus tamaños, formas y estructuras corporales. Cuando la vida empezó hace 3.500 millones de años todos los seres eran unicelulares y por tanto la información genética sólo debía contener las instrucciones de como construir células. Pero hace 540 millones de años (en el Cámbrico) la vida en La Tierra dio un paso cualitativo importante; aparecieron los seres pluricelulares por asociación de seres unicelulares. Para ello la maquinaria genética (el ADN) debió incorporar instrucciones de la morfología del individuo y de como las células de las distintas partes del organismo debían especializarse mientras el organismo se desarrolla en las tres dimensiones del espacio y a lo largo del tiempo de su vida. Estas instrucciones contenidas en 9 genes, denominados genes homeóticos y también "complejo Hox", surgieron una vez y se han mantenido en todos los seres que de allí hemos evolucionado.

Sólo un modelo
Esta uniformidad hace que podamos conocer muy bien lo que es la vida en La Tierra, pero al disponer de un solo modelo, no podamos conocer que es la vida en su concepción más general y cómo podría ser la vida en otros planetas de características muy diferentes al nuestro. Marte no es demasiado diferente de nuestro planeta pero es el lugar con posibilidades de vida que tenemos mas cerca y es muy lógico empezar a buscar allí, porque encontrar un segundo modelo de vida clarificaría mucho las cuestiones que sobre este asunto tenemos planteadas.

La mayoría de los científicos piensan que, por cálculo de probabilidades, es muy posible que la vida se haya dado en innumerables lugares del Universo y se hacen preguntas parecidas a las siguientes:
  • ¿Es la que conocemos en La Tierra la única forma posible de vida?
  • ¿Cómo de versátiles son los principios vitales que conocemos para desarrollarse en otros astros diferentes?
  • ¿Cuales son los mecanismos esenciales de la vida y cuales podrían ser eliminados o reemplazados?
  • ¿Puede existir vida basada en otro elemento diferente del carbono?
  • ¿Puede existir vida basada en otro compuesto que no sea el agua?
  • ¿Puede existir vida no basada en una evolución?
  • ¿Puede existir vida no basada en lo que conocemos por ADN y por genes?
  • ¿Puede existir vida basada en otro código genético?
Juan

martes, 24 de julio de 2012

El Modelo Estándar y la predicción de nuevas partículas


En cierta ocasión un periodista le pregunto a Einstein: "¿me puede usted explicar la relatividad?", Einstein, a estilo gallego le respondió con otra pregunta : "¿me puede usted explicar como se fríe un huevo?".
El periodista mirándolo extrañado le contestó "pues si, si que puedo...", y antes de que siguiera hablando Einstein le dijo: "pues hágalo, pero imaginando que yo no sé lo que es un huevo, ni una sartén, ni el aceite, ni el fuego".


Bueno, pues con el bosón de Higgs pasaría lo mismo. Es totalmente imposible que un profano comprenda lo que es porque ni siquiera los expertos en la materia lo comprenden. El bosón de Higgs como la mayoría de los conceptos de la Mecánica Cuántica son incomprensibles,  muchos científicos (entre ellos el mismísimo Einstein) lo han expresado así. La razón es que esta parte de la Física trata de fenómenos que no se dan en nuestro mundo habitual y se manejan por reglas (o principios) que se contradicen con las reglas del mundo macroscópico que conocemos y en consecuencia nuestro cerebro las rechaza como absurdas. 

Al final del artículo incluyo un video que hace un intento de explicar que es el bosón de Higgs aunque yo personalmente creo que queda lejos de lograrlo. Por eso, antes de tratar de  entender su esencia vamos a tratar de entender que tipo de cosa es, por qué es importante y cómo de difícil es buscarlo.


A principios del siglo XX Rutherford y Bohr establecieron experimentalmente que los "indivisibles" átomos estaban realmente constituidos por un núcleo formado por protones y neutrones y una corteza formada por electrones. En aquella época se pensaba que estas tres partículas eran los constituyentes últimos de la materia.

Cuando se empezaron a estudiar en detalle estas partículas se encontró que se comportaban de una forma extrañísima que no encajaba en nada de lo que se conocía hasta entonces. Basándose en infinidad de experimentos cada vez mas refinados se fueron extrayendo los "incomprensibles" principios de comportamiento con los que se desgajó la parte de la Física que se conoce como Mecánica Cuántica.

Hacia 1960 experimentando con aceleradores de partículas se llegó a la conclusión de que los electrones si eran partículas elementales pero los protones y neutrones no lo eran. Estos estaban constituidos por otras partículas mas elementales a las que se les denominó quarks.

También se llegó a la conclusión de que sobre la materia así constituida actuaban 4 fuerzas elementales (la gravedad, el electromagnetismo y dos tipos de fuerzas nucleares).


Los sucesivos estudios con aceleradores cada vez mas potentes descubrieron otras muchas partículas. Lo más esencial fue que había 12 tipos de partículas constituyentes de la materia (6 tipos de quarks y 6 tipos de electrones) y que además había otro tipo de partículas totalmente diferentes a las que se les denominó bosones que servían para transmitir las 4 fuerzas elementales entre las 12 partículas constituyentes antes citadas.


Como explicación de todo esto y dentro de la Mecánica Cuántica surgió un modelo teórico denominado Modelo Estándar de la Física de Partículas que clasificaba las partículas encontradas, predecía con total exactitud (estadística) lo que iba a ocurrir en los experimentos y de forma análoga a lo que ocurrió en el siglo XIX con la Tabla Periódica de los Elementos, (ver el artículo sobre este asunto en este Blog) sirvió para predecir la existencia de partículas que todavía no se habían encontrado.

El descubrimiento experimental de varios bosones y varios quarks con las precisas propiedades predichas, reforzó la confianza en la validez del Modelo Estándar. Sin embargo durante 48 años no se ha podido confirmar  la predicción hecha en 1964 por Peter Higgs (y otros) sobre la existencia de un bosón que era indispensable para dar el espaldarazo definitivo a este modelo teórico. Encontrar esta partícula (a la que se denominó bosón de Higgs) se consideraba imprescindible porque era la que explicaba la evidencia experimental de que la mayoría de las partículas tienen masa. Era el ser o no ser del Modelo Estándar y del conocimiento en profundidad de como era la materia que constituye el Universo.

La importancia que la comunidad científica ha concedido a aclarar este asunto se puede comprobar viendo los medios que se han puesto para llegar a una conclusión. Durante 40 años, el CERN (Laboratorio Europeo de Investigación Nuclear) se ha gastado 6.000 millones de euros en el diseño y construcción del mayor "microscopio" del mundo, el LHC (Gran Colisionador de Hadrones) cuyo primer objetivo es averiguar si existe o no el bosón Higgs.
El LHC consiste en un túnel de 27 km excavado a 100 metros de profundidad, donde a unas temperaturas próximas al cero absoluto y en un vacío casi total se hacen colisionar frontalmente dos haces de partículas que viajan (casi) a la velocidad de la luz provocando 600 millones de colisiones por segundo (50 billones por día).


¿Por qué tantas colisiones?

Porque los modelos teóricos predicen que se producirá un bosón de Higgs por cada billón de colisiones. Es decir, por termino medio hay que analizar un billón de colisiones para encontrar entre ellas la colisión que ha producido el bosón.


Detector
Cuatro gigantescos detectores (los más grandes y con mejores prestaciones jamás construidos) distribuidos a lo largo del túnel analizan continuamente esas colisiones generando en un año un volumen de datos equivalente a 100.000 DVDs. Los datos así recogidos se envían mediante fibra óptica a más de 140 centros en 33 países dónde más de 7.000 científicos de todo el mundo se dedican a analizarlos y sacar conclusiones.

Y todo este gigantesco montaje para encontrar algo sumamente pequeño pero que tiene una importancia fundamental para validar la teoría del Modelo Estándar y en resumen para entender de que está hecho el Universo.

Para hacernos idea de la escala tan diminuta pensemos en lo siguiente. En el artículo sobre los átomos se decía: Si una ameba, animal unicelular de apenas un milímetro y que es difícilmente visible a simple vista la ampliáramos hasta el tamaño del planeta Tierra, el virus de la gripe porcina (uno de los más pequeños) tendría el tamaño de la Giralda, una molécula de glucosa sería como una ballena y un átomo de hidrógeno, el átomo más simple que existe, tendría el tamaño de una naranja.

Pues bien, imaginemos ahora que hacemos una ampliación muchísimo mayor, de forma que: Si lo que ampliamos hasta el tamaño del planeta Tierra no es la ameba sino un átomo de hidrógeno, los protones y neutrones tendrían el tamaño del parque del Retiro de Madrid, los quarks y electrones serían como las sombrillas de los kioscos, el bosón de Higgs sería como un plato de postre y un neutrino sería como una minúscula bacteria de escherichia coli.

Cuando se asimilan las escalas de estas comparaciones surge inevitablemente una sorprendente conclusión:  "La materia está casi vacía". Y efectivamente así es. A pesar de que percibimos la mayoría de las cosas como densas y continuas, todo lo que nos rodea está compuesto por agregaciones de minúsculas partículas separadas por inmensos (relativamente hablando) espacios vacíos. Esto nos ayuda a entender el hecho comprobado de que la mayoría de los neutrinos atraviesan La Tierra sin tropezar con ninguna otra partícula.

La comunidad científica internacional y todos los que nos interesamos por el conocimiento tenemos motivos para estar contentos con el anuncio que el pasado 4 de Julio emitió el CERN acerca de haber encontrado una nueva partícula, de tipo bosón, que tiene una altísima probabilidad de ser el largamente buscado bosón de Higgs. Un importantísimo paso del saber humano.
Juan Rojas
Para terminar, incluyo a continuación un video de YouTube que trata de explicar lo que es el bosón de Higgs en 3 minutos:



lunes, 23 de julio de 2012

La Tabla Periódica y la predicción de nuevos elementos

Desde la Antigüedad el hombre se ha preguntado de que está hecho el mundo y todos los animales y cosas que contiene. Los sabios griegos (Demócrito, Leucipo, etc. más filósofos que científicos) pensaron que dividiendo sucesivamente cualquier cosa material se debería llegar a algo muy pequeño que fuera ya indivisible y que sería el constituyente básico de la materia. Sin quebrarse mucho la cabeza, a ese hipotético  constituyente básico le llamaron átomo ("indivisible" en griego).

El átomo continuó durante siglos siendo un concepto filosófico hasta que a finales del siglo XVIII (Lavoisier) y principios del XIX (Dalton), por experimentación, llegaron a la conclusión que, aunque eran incapaces de verlos, los átomos realmente existían y midiendo algunas de sus propiedades dedujeron que los átomos de las distintas sustancias elementales o "elementos" eran todos iguales entre si pero diferentes de unos elementos a otros. Desde entonces quedó establecido que para las sustancias elementales, los átomos eran las partes más pequeñas de esas sustancias que conservaban sus propiedades.

En la vida diaria utilizamos algunas sustancias elementales (azufre, cobre, plata, oro, plomo, mercurio, etc.), sin embargo la inmensa mayoría de las sustancias que nos rodean son o bien sustancias compuestas (el agua, la sal, el azúcar, la cal, el amoniaco, etc) o bien mezclas de sustancias compuestas (rocas, tierras, petróleo, cementos, etc.). Los seres vivos y todos los alimentos y materiales que de ellos se extraen son caso aparte; son mezclas de infinidad de sustancias compuestas complejamente estructuradas.

En el siglo XIX se conocían ya unos 60 elementos de los 90 que existen en la naturaleza. Al estudiarlos en su conjunto al ruso Mendeléyev y a otros científicos se les ocurrió la idea de agruparlos según sus propiedades químicas en diversas tablas. Además para facilitar la comunicación entre los distintos idiomas a los elementos se le asignaron nombres estándares consistentes en una o dos letras derivadas de sus nombres latinos. Por ejemplo: azufre S, cobre Cu, plata Ag, oro Au, etc.

La versión final conocida como Tabla Periódica de los Elementos demostró que esa organización revelaba realmente propiedades fundamentales de la constitución de los átomos y dio pié a la teoría atómica y a entender que, a pesar de su nombre, los átomos si eran divisibles. Además los huecos que aparecían en la Tabla Periódica original permitieron predecir la existencia de elementos que deberían existir pero que todavía no se conocían en aquella fecha. Este fue el caso del galio, germanio, tecnecio, etc. a los cuales se les pudo predecir incluso sus propiedades.


Una de las dificultades que a menudo se presentan para entender el mundo microscópico es tener una idea aproximada de los tamaños de las cosas que no somos capaces de percibir por nuestros sentidos. El siguiente ejercicio mental puede ayudarnos en esa tarea. 


Si una ameba, animal unicelular de apenas un milímetro que es difícilmente visible a simple vista la ampliáramos hasta el tamaño del planeta Tierra, el virus de la gripe porcina (uno de los más pequeños) tendría el tamaño de la Giralda, una molécula de glucosa sería como una ballena y un átomo de hidrógeno, el átomo más simple que existe, tendría el tamaño de una naranja.

Juan Rojas

sábado, 7 de julio de 2012

Receta para un Universo


Hágase una explosión masiva a la temperatura mas alta que pueda ser concebida para crear ingentes cantidades de polvo de estrellas. Cocínese a fuego lento durante una eternidad en un fondo de microondas cósmicas. Déjense enfriar los ingredientes y sírvase con cultivos de diminutos organismos 13.700 millones de años mas tarde.


A los interesados en la Cosmología les recomiendo echar un vistazo a la siguiente página del CERN:
http://public.web.cern.ch/public/en/Science/Recipe-en.html
Juan

  

Hemos observado una nueva partícula


Joe Incandela, portavoz del experimento CMS del LHC, en su comparecencia del 4 de Julio ha dicho: “Hemos observado una nueva partícula. Tenemos indicios muy fuertes de que hay algo, pero sus propiedades están aún por determinar en detalle. Está claro que se desintegra en dos fotones, lo que indica que se trata de un bosón (espín entero). Por tanto es un descubrimiento importante, el más importante en física de partículas en las últimas décadas. Podría ser el bosón de Higgs, pero algunas de sus propiedades no coinciden con las esperadas según el modelo estándar. Por tanto, podría ser nuestra primera puerta hacia nuevas leyes físicas más allá del modelo estándar. Pero por ahora todo es muy preliminar. Aún así, todo esto es muy emocionante.”

lunes, 14 de mayo de 2012


Hola,

Aquí dejo invitaciones a próximas conferencias de la Real Academia Sevillana de Ciencias.


Saludos.
Jesús Pinto

domingo, 29 de abril de 2012

El hallazgo de vida extraterrestre es estadísticamente improbable.

Hola,

Hace unos días Juan planteó una pregunta por correo (¿Nos convendría salir del euro?) que no se qué respuestas habrá provocado, pero me temo que ninguna que nos lleve a una solución.

Y hoy me encuentro con esta noticia sobre la que también pueden tenerse diversas opiniones y que tampoco nos llevará a ninguna solución. A pesar de ello me encantaría conocer vuestra opinión:


El hallazgo de vida extraterrestre es estadísticamente improbable

El análisis de las evidencias científicas actuales contrarresta el entusiasmo generado por los últimos descubrimientos sobre exoplanetas

Los últimos descubrimientos de planetas similares a la Tierra, en cuanto a tamaño y cercanía a una estrella, han avivado las expectativas de científicos y del público general de encontrar vida extraterrestre. Sin embargo, estas esperanzas podrían estar más basadas en el optimismo y el anhelo que en las evidencias científicas, sugiere un reciente análisis estadístico realizado por científicos de la Universidad de Princeton, en Estados Unidos. Según los investigadores, sus resultados revelan que la aparición de la vida en la Tierra no sería extrapolable, en términos probabilísticos, a otros planetas. Por Yaiza Martínez. 

http://www.tendencias21.net/El-hallazgo-de-vida-extraterrestre-es-estadisticamente-improbable_a11388.html 




Yo creo también que la probabilidad de hallar vida extraterrestre es infinitesimal; no digo la posibilidad de su existencia, sino de que tengamos constancia de ella.

Me recuerda el comentario de alguien sobre los discos que las naves Voyagers llevan como mensaje de la Tierra: Es muy improbable que "alguien" llegue a encontrarlos y, desde luego, nosotros nunca llegaríamos a saberlo.

Un abrazo.

jueves, 29 de marzo de 2012

Teoría y Experimentación

La teoría y la experimentación son métodos científicos complementarios para hacer ciencia. Unas veces es la teoría la que sugiere el experimento y otras veces son los experimentos los que sugieren la teoría que los explica.
Einstein desarrolló la teoría general de la relatividad sentado en su despacho, con papel y lápiz y sin hacer ningún experimento, sólo elucubrando sobre principios muy generales. Su teoría tuvo que esperar varios años antes de que se obtuvieran los primeros resultados experimentales.
Por el contrario, la mecánica cuántica siguió el camino opuesto. Fueron los experimentos los que forzaron la creación de la teoría. La razón es bien sencilla; la mecánica cuántica es tan antiintuitiva que ningún científico en su sano juicio hubiera inventado esta teoría si no se hubiera visto forzado por los datos experimentales. Pero a pesar de ir aparentemente contra toda lógica, a la hora de explicar los fenómenos observados, se ha convertido en la teoría más exitosa de la historia de la ciencia.
Juan

miércoles, 11 de enero de 2012

Las asimétricas variaciones del orto y del ocaso

Todo el mundo sabe por experiencia que el número de horas de sol que tienen los días cambia a lo largo del año aumentando en primavera para llegar a un máximo en verano y disminuyendo durante el otoño para llegar a un mínimo en invierno. Lo que ya no es tan conocido es que esas variaciones de la duración del día y la noche a lo largo del año se traducen en adelantos y retrasos asimétricos de las horas de la salida y de la puesta del sol. Momentos a los que se les denomina orto y ocaso.

Si consultamos las tablas de salida y puesta de Sol de Sevilla, podemos observar que durante los 12 primeros días de Diciembre los días se acortan un total de 9 minutos por retrasos del orto sin apenas variación de la hora del ocaso. Por el contrario, durante las primeras dos semanas de Enero los días se alargan un total de 12 minutos por retrasos del ocaso sin apenas adelanto del orto.

Tal como parece dictarnos la intuición, los adelantos y retrasos del orto y del ocaso son simétricos respecto al momento en el que el Sol alcanza el punto más alto sobre el horizonte (el mediodía verdadero), lo que ocurre es que ese momento no se produce exactamente a las 12:00 de cada día (el mediodía civil), sino que se adelanta o se retrasa varios minutos a lo largo del año desplazando en la misma cuantía los momentos del orto y del ocaso.
Experimentalmente se comprueba que si en un determinado punto del globo terrestre se fotografía la posición que ocupa el Sol en el horizonte exactamente a la misma hora de cada día, encontraremos que la posición es diferente cada día del año. No solamente cambia la altura sobre el horizonte con el transcurso de las estaciones sino que también cambia la posición este-oeste. Superponiendo todas las fotos de un año se obtiene una figura en forma de ocho inclinado que los astrónomos llaman Analema.
Este comportamiento se debe a que la duración del día solar verdadero va variando a lo largo del año de modo que a veces dura más y otras menos que el día solar medio (o día solar a secas), que dura por definición 24 horas de 60 minutos (o exactamente 86,400 segundos).

Esta aparente anomalía se explica por las leyes del movimiento de los planetas que Johannes Kepler enunció en 1609. La primera ley nos habla de la geometría de la órbita y nos dice que la trayectoria de la Tierra alrededor del Sol no es una circunferencia sino una elipse. La curvatura de la elipse es variable por lo que el ángulo que debe girar la Tierra para dar una vuelta completa sobre sí misma hasta quedar en la misma posición respecto al Sol también es variable.

Pero esto no es todo. La segunda ley se refiere al aspecto cinemático y establece que los planetas se mueven en sus orbitas elípticas con velocidad areolar constante (en la figura A/t), es decir, la trayectoria barre áreas iguales en tiempos iguales. Esto quiere decir que el tramo de orbita que recorre la Tierra cada día no es constante, sino que es mayor cuando está mas cerca del Sol (en Enero) que cuando está más lejos (en Julio).

La combinación de estas dos circunstancias hace que el ángulo que tiene que girar la Tierra para que un determinado meridiano vuelva a estar alineado con el Sol varíe a lo largo del año y por lo tanto también varíe la duración el día solar verdadero. Porque en medio de tanta variación, lo único que si se mantiene constante es la velocidad angular con la que el planeta gira sobre si mismo.
Juan Rojas