Se ha creado una cuenta Twitter que publica las entradas de este blog, para acceder a ella pulsa en Cuenta Twitter asociada a Amicorum Concilium
Para publicar en tu cuenta twitter una referencia a una entrada de este blog, pulsa en boton twitter (t) que hay al final de cada entrada.

jueves, 29 de diciembre de 2011

Magnetismo natural

El magnetismo, lo mismo que la electricidad y la masa son propiedades que posee naturalmente toda materia. En el interior de los átomos tanto el giro de cada electrón sobre sí mismo (spin) como el movimiento de los electrones alrededor del núcleo producen un pequeñísimo campo magnético que hacen que los átomos se comporten como diminutos imanes.

Pero la forma en la que estas propiedades elementales trascienden al mundo macroscópico es diferente en cada caso. La masa tiene siempre un efecto acumulativo, es decir, la masa de un cuerpo es la suma de las masas de todos sus átomos. A la electricidad le pasa lo contrario, la carga eléctrica de un cuerpo es normalmente nula porque la carga negativa de los electrones se neutraliza exactamente con la carga positiva de los protones.

El magnetismo presenta un comportamiento que varía de unos materiales a otros. La mayoría de los materiales no presentan macroscópicamente propiedades magnéticas porque la resultante del magnetismo de sus átomos se anula de forma natural. Sin embargo los materiales que contienen hierro, cobalto o níquel si pueden ofrecer propiedades magnéticas porque sus imanes atómicos pueden orientarse y dar una resultante apreciable a nivel macroscópico. A los materiales que presentan esta propiedad se les denomina ferromagnéticos.
Juan Rojas

miércoles, 28 de diciembre de 2011

Perihelio y solsticio

Perihelio y solsticio son dos cosas absolutamente independientes. La errónea creencia de que coinciden proviene de la forma en que usualmente se dibuja la órbita de la Tierra. La órbita es elíptica, con el Sol en uno de los focos, el perihelio es el punto de la órbita terrestre más cercano al Sol, es decir, más próximo al foco de la elipse que ocupa el Sol, ocurre el 3 de Enero y es también el punto de su órbita en que la Tierra se desplaza a la máxima velocidad. El punto opuesto al perihelio es el afelio que es cuando la Tierra está mas lejos del Sol y ocurre el 4 de Julio.


El solsticio ocurre en la fecha en la que el Sol al mediodía se ve en la posición más alejada o más cercana al ecuador. Sucede dos veces por año, una entre el 21 y el 22 de Junio y otra entre el 21 y el 22 de Diciembre. En junio es cuando el Sol del mediodía se ve mas alejado del ecuador en el hemisferio norte y mas próximo en el hemisferio sur, circunstancia que recibe el nombre de solsticio de verano y solsticio de invierno respectivamente. En diciembre se invierte la situación en los dos hemisferios. Los puntos intermedios entre los dos solsticios son los equinocios de primavera y de otoño.

La circunstancia de que la Tierra se encuentre en el perihelio o en el afelio no tiene prácticamente ninguna influencia en el clima terrestre porque la órbita es una elipse de muy baja excentricidad, casi una circunferencia, en el perihelio el Sol está a 149 millones de kilómetros y en el afelio está a 152. Lo que si es determinante en el clima de la Tierra es el hecho de que el eje de rotación no sea perpendicular al plano de su órbita sino que forma un ángulo de 23 grados y 27 minutos. Esta circunstancia es la causante de las estaciones.
Si la Tierra se trasladara con su eje de rotación perpendicular al plano de su órbita, existiría el perihelio pero no se producirían los solsticios ni existirían las estaciones. En estas hipotéticas circunstancias, el Sol, visto desde la Tierra, se observaría siempre en el plano del ecuador y sus rayos caerían siempre verticales al mediodía sobre el ecuador terrestre.
Juan Rojas

viernes, 23 de diciembre de 2011

Lentes gravitatorias

El movimiento de un planeta alrededor de una estrella se puede explicar de dos formas diferentes, según la Teoría Clásica de Newton y según la Teoría de la Relatividad de Einstein. La explicación clásica es que la estrella ejerce una fuerza atractiva que tira del planeta y le obliga a seguir una trayectoria elíptica.

La explicación relativista es bastante diferente y se puede enunciar con estas dos reglas: a) La presencia de una masa curva al espacio-tiempo y b) Los cuerpos se mueven por el espacio-tiempo siguiendo las líneas geodésicas (una línea geodésica se define como la línea de mínima longitud que une dos puntos en una superficie dada). En lenguaje mas coloquial las dos reglas anteriores se expresarían así: "La materia le dice al espacio-tiempo cómo debe curvarse. El espacio-tiempo le dice a la materia cómo debe moverse".
La ventaja de la explicación relativista es que sirve también para explicar la propagación de las ondas electromagnéticas, cuyo movimiento también se altera por la presencia de las masas.


Para comprobar su teoría, Einstein propuso que durante un eclipse solar se observaran las estrellas alineadas con el borde del disco solar y se midieran los cambios de posición aparentes que se producirían por la desviación de la luz provocada por la masa del Sol. Dos equipos de astrónomos confirmaron por primera vez las predicciones cuantitativas de Einstein en el eclipse del 29 de Mayo de 1919 y desde entonces este tipo de comprobación se ha repetido muchas veces.

En 1979 se observó una consecuencia muy interesante de este mismo fenómeno, un cuasar muy lejano se veía dos veces debido a que los rayos de luz provenientes del cuasar pasaban en su recorrido muy cerca de una galaxia plana y eran desviados por un lado y por otro hacia nuestra posición. A esto es lo que se ha llamado el efecto de lente gravitatoria.

Recientemente, el telescopio Hubble ha obtenido una fotografía mucho más espectacular. Debido a una casual casi perfecta alineación, una luminosa galaxia roja de simetría casi circular (vista desde nuestra posición) actúa como lente gravitatoria de otra galaxia azul mucho mas lejana. El resultado es que la galaxia azul se ve como un anillo casi perfecto alrededor de la galaxia que actúa como lente.
Juan Rojas

martes, 13 de diciembre de 2011

Casi hallazgo del bosón de Higgs

El bosón de Higgs es una partícula predicha hace 40 años por Peter Higgs y que todavía no se ha encontrado. Es la última que falta por encontrar para dar por bueno el Modelo Estándar. Pero no es una partícula más, podríamos decir que es una de las más (si no la más) importante, porque es la que explica la masa de todas las demás. Si no existiera, el Modelo Estándar de la Física de Partículas quedaría bastante devaluado porque no se ha descrito ninguna explicación alternativa de por qué las partículas tienen masa y por qué tienen la que tienen.
Esta partícula tiene tanto interés para la Ciencia que se ha diseñado y construido el mayor y mas complejo laboratorio jamás hecho por el hombre para encontrarla. Bueno para encontrarla o para demostrar que no existe, porque ambas cosas tendrían un enorme valor para la Ciencia. Y este es el objetivo número uno declarado para el LHC (Gran Colisionador de Hadrones) de Ginebra.
Pues bien, en una presentación celebrada hoy en el auditorio principal del CERN, que se ha divulgado por Internet en todo el mundo, los científicos que han trabajado con el ATLAS y el CMS (dos de los cuatro grandes detectores con que cuenta el LHC) han declarado que después de estudiar billones de colisiones a lo largo de varios meses, han llegado a la conclusión de que es muy probable que en media docena de esas colisiones se hayan generado bosones de Higgs.
Desgraciadamente el número de casos detectados es tan reducido que los resultados no son estadísticamente significativos y que por tanto todavía no se puede afirmar sin ningún genero de dudas que la partícula existe. La importancia de los resultados obtenidos está en que, si realmente lo observado eran bosones de Higgs, se podría afirmar que la masa de la partícula estaría comprendida entre 119 y 126 Gigaelectronvoltios.
Juan Rojas

lunes, 17 de octubre de 2011

En memoria de Dennis Ritchie

El pasado 12 de octubre moría Dennis Ritchie, uno de los más grandes programadores, creador del lenguaje C y junto con otros, del sistema operativo Unix.

He leído varias veces su libro El lenguaje de programación C, escrito junto con otro de los grandes, Brian W. Kernighan, auténtica biblia del programador, en donde de modo claro, breve y elegante, se exponen muchos ejemplos para facilitar la comprensión del lenguaje y de la programación en general. El estilo del texto ha influído en toda una generación, en la cual me incluyo.

Lo que pretendo en estas notas es recordarlo comentando una de sus aportaciones al sistema Unix. En este sistema, a cada archivo ordinario hay asociados una serie de permisos, agrupados en tres bloques de tres cada uno, en total, 9 bits. Cada uno de los tres bits significa lo siguiente:

  • Bit 1º, permiso de lectura. Si es 1, el archivo se puede leer, en caso contrario, es decir, si vale 0, el archivo no se puede leer.
  • Bit 2º, permiso de escritura. Si es 1, el archivo se puede modificar, en caso contrario, no.
  • Bit 3º, permiso de ejecución. Si es 1, el archivo se puede ejecutar, en caso contrario, no.

El bloque primero son los permisos del usuario, el bloque segundo los del grupo y el bloque tercero, los de los demás. Lo habitual es que un archivo ordinario, no programa, sea de la forma: rw- r-- r--. El guión - indica que el bit vale 0. El primer bloque rw- son los del usuario, el cual puede leer y modificar el archivo, pero no ejecutarlo. El segundo bloque r-- es el grupo del usuario, los cuales pueden leer el archivo pero no modificarlo ni ejecutarlo, y por último, el tercer bloque, el de los demás, r--, con idénticas posibilidades al grupo.

Hay un usuario en el sistema, de nombre root, al que todas estas cosas no le afectan. Puede leer, modificar y borrar cualquier archivo, independientemente de los permisos que tenga asignados. Es una especie de Gran hermano, cuya misión es el mantenimiento del sistema. El poder de root es enorme, razón por la cual, su responsabilidad también lo es, ya que puede inutilizar el sistema con una mala gestión. Sin embargo, un usuario normal, puede originar un destrozo en su espacio, pero no en el resto.

Vista la introducción, vayamos al grano. En el archivo /etc/shadow se encuentran las contraseñas encriptadas de los usuarios (en el Unix original, se encontraban en /etc/passwd). Es un archivo de texto normal y corriente, con la información organizada en columnas. Su propietario es root, y como es evidente, nadie, salvo él puede modificar su contenido. En efecto, lo listamos:

pedro@servidor2:~> ls -al /etc/shadow

-rw-r----- 1 root shadow 665 oct 7 13:39 /etc/shadow
Esto origina un problema: ¿qué ocurre si un determinado usuario quiere modificar su contraseña?. La solución es, aparentemente trivial, en concreto, mediante el programa passwd se le pide al usuario que escriba la vieja contraseña, con lo cual nos aseguramos que el auténtico dueño no se ha ido a tomar un café, y el compañero de la mesa de al lado, le quiere gastar una broma. Después la nueva un par de veces para evitar errores al teclear y finalmente se sustituye la antigua entrada en /etc/shadow por la nueva. Y aquí está el problema, ya que esto obliga a modificar el archivo, es decir, a escribir en él, lo cual el sistema no lo permite debido a la restricción de escritura antes comentada.

En conclusión, si quiero cambiar mi contraseña, no puedo, ya que eso implica modificar un archivo sobre el cual no tengo permiso.

Dennis Ritchie solucionó el problema (hasta patentó la idea) creando un bit adicional a cualquier programa, de forma que si está activado, cualquier usuario que ejecute dicho programa adquiere momentáneamente los derechos del propietario del programa, en este caso root, y sólo mientras el programa se mantiene en ejecución. Como el propietario del programa passwd es root, cualquier persona que quiera cambiar su contraseña mediante el programa anterior, se convierte en root, con lo cual puede modificar el contenido del archivo y lograr su propósito.

Como es evidente, esto origina un grave peligro, ya que si el programa no funciona bien, puede dañar al sistema, razón por la cual, este tipo de programas deben estar muy depurados para evitar conflictos.

Por último, veamos un listado de dos programas, el primero es el familiar grep y el segundo passwd, donde observamos la diferencia entre uno y otro:

 pedro@servidor2:~> ls -al /bin/grep
-rwxr-xr-x 1 root root 130664 feb 18 2011 /bin/grep

pedro@servidor2:~> ls -al /usr/bin/passwd
-rwsr-xr-x 1 root shadow 81856 feb 19 2011 /usr/bin/passwd

En grep, el tercer bit comenzando por la izquierda es x, mientras que en passwd, este mismo bit es s, lo cual nos indica lo explicado anteriormente.

Pedro González


Conferencia en El Ateneo

viernes, 7 de octubre de 2011

Las matemáticas (y la ciencia) que es ¿creación o descubrimiento?

Acabo de leer el libro "La poesía de los números. El rol de la belleza en matemáticas" de Antonio J. Durán, y me ha gustado mucho por lo que os recomiendo que por 10€ lo pidáis en cualquier quiosco de prensa, pues salió el pasado día 18 de Septiembre en la colección "el mundo es matemática" que publica semanalmente ELPAIS todos los domingos.

Hoy os voy a exponer un tema: Las matemáticas (y la ciencia) que es ¿creación o descubrimiento?

Este tema lo trata el libro en la pág. 26, del que saco el siguiente extracto:

".. quizás son mayoría los que sostienen que el termino "creadores" no debería aplicarse a los científicos en general, y a los matemáticos en particular. Por ejemplo, Fernando Savater en el libro Las preguntas de la vida en la pág. 236 escribe: "Decimos que es creador quien fabrica algo que sin él nunca hubiera llegado a ser, el que trae algo al mundo - grande o pequeño - que sin él nunca hubiera podría haber existido precisamente de ese modo y no de otro más o menos parecido". Así, Fleming no "inventó" la penicilina sino que la "descubrió" ..."

"En el hecho científico hay, sin embargo, dos planos: uno es lo descubierto - ya sea un teorema, una ley universal -  y otro es la forma en que se hace o se justifica el descubrimiento. Sin duda, por "lo descubierto" parece más apropiado calificar al científico de "descubridor". Pero ocurre a veces que cabe aplicarle a un científico la calificación de "creador" por la forma en que hizo o justificó su descubrimiento".

Otro día os hablare sobre la ciencia y la belleza: En la revista Physics World se hizo una encuesta sobre cual consideraban el experimento más bello de la física de todos los tiempos, entendiendo por bello aquel que para su demostración exigiera el menor número de elementos posibles y produjera a su vez resultados sorprendentes.

Emilio Jiménez

¿Ha llegado nuestro cerebro al límite de su posible desarrollo?

El número de Septiembre de Investigación y Ciencia contiene el artículo “Física de la inteligencia” de Douglas Fox en el que dice:
Puede que la evolución haya desarrollado nuestro cerebro hasta el límite permitido por las leyes de la física.
Para justificar esta hipótesis el autor argumenta:
Al doblar el espesor de un axón, el gasto energético se duplica, pero la velocidad de los impulsos aumenta solo en un 40 por ciento. Al final, al incrementar el tamaño del cerebro, el volumen de la materia blanca (los axones) crece más deprisa que el de la materia gris (el soma de las neuronas, que contiene el núcleo de la célula). Dicho de otro modo, cuanto mas grande es un cerebro, mayor es la fracción de su volumen dedicada al cableado y menor la encargada de calcular. Ello surgiere que, a la larga, un cerebro demasiado grande sería inviable.
Juan Rojas

jueves, 6 de octubre de 2011

El agua de los océanos proviene de cometas del cinturón de Kuiper

El cinturón de Kuiper es una región del sistema solar situada a una distancia entre 30 y 50 veces la distancia Tierra-Sol, donde orbitan cuerpos celestes de variados tamaños constituidos en gran parte por compuestos volátiles (principalmente metano, amoniaco y agua) congelados. Por choques e interacciones entre ellos, algunos cuerpos adquieren órbitas elípticas y se acercan al sol cortando las órbitas de los demás planetas. Al aproximarse al Sol los componentes volátiles se evaporan y forman un halo característico. Son los cometas.

La Tierra se formó por impactos de asteroides y cometas hace 4.500 millones de años y en su origen fue una bola incandescente que se enfrió poco a poco. Durante esa fase caliente el agua adquirida quedó siempre en la atmósfera en forma gaseosa y en su mayoría escapó de la gravedad del planeta. Por esa razón, el agua de nuestros océanos debe provenir de impactos posteriores a la fase caliente.

Hasta ahora se habían hecho estudios detallados de la composición de 5 cometas, pero ninguno proveniente del cinturón de Kuiper sino de la Nube de Oort, una región 10.000 veces mas lejana. Los análisis revelaban que la proporción de agua pesada era el doble de la proporción encontrada en los océanos terrestres. En la molécula de agua pesada uno de los átomos de hidrógeno se ha sustituido por un átomo de su isótopo deuterio (que es más pesado).

De estos análisis se deducía que el agua terrestre no podía provenir en su totalidad de cometas de la Nube de Oort y que la máxima contribución de estos cometas debía ser de alrededor del 10%. Además se suponía que, por su mayor proximidad al Sol, la proporción de agua pesada en los cometas del cinturón de Kuiper debía ser todavía mayor por lo que se descartaba a estos cometas como origen del agua terrestre. La suposición se basa en la observación de que los cuerpos mas densos están mas cerca del sol que los menos densos. Con estos datos, el origen de los océanos terrestres era un misterio.

Pero recientemente, el telescopio orbital Herschel (de la NASA) ha hecho, por fin, un análisis detallado del vapor de agua del cometa Hartley 2, proveniente del cinturón de Kuiper y los científicos se han llevado la sorpresa de que, contra todo pronóstico, el agua de ese cometa tiene la misma "firma química" que el agua que tenemos en La Tierra. Encontraron que la proporción de agua pesada era idéntica a la proporción que tiene el agua de nuestro planeta, abriendo así las puertas a la comprensión del origen de nuestros océanos.

Más información sobre este tema se puede conseguir en la siguiente página de la NASA:
http://www.nasa.gov/mission_pages/herschel/news/herschel20111005.html

Juan Rojas

lunes, 6 de junio de 2011

El Multiverso en el programa Redes (de TV2)

En el programa "En busca de otros universos" de la seie REDES que acaban de emitir en TV2, insisten en la explicación de que existen tantos universos paralelos como para que se puedan dar todas las alternativas posibles a todas las cosas que pueden ser de formas diferentes.

Este es el enlace a dicho programa en la página de RTVE http://www.rtve.es/television/20110603/busca-otros-universos/436660.shtml

Concretamente alguien del programa que se toma un refresco en una taza blanca dice que debe haber otro universo en el que alguien como él se toma el refresco en una taza negra. Este tipo de recurso es muy usado por los que tratan de explicar el multiverso, para transmitir la idea de que deben existir tantos universos qu es posible afirmar que todo lo que puede ocurrir, ocurre en alguno de los universos.

El problema fundamental que actualmente se aborda en cosmología es que al parecer, los valores de los parámetros que se dan en nuestro universo están tan extraordinariamente ajustados para la existencia de nuestra vida que una de dos:
  • O bien la combinación de parámetros ha sido elegida por una inteligencia superior para que nuestro universo sea como es y podamos existir.
  • O bien existe una (casi) infinitud de universos paralelos donde al azar se dan todos las combinaciones de parámetros posibles, de forma que en algunos de esos universos se dan las (improbables) combinaciones que permiten nuestra existencia. (Evidentemente vivimos en uno de esos pocos  universos).
Personalmente ambas alternativas me parecen realmente "increibles" pero si tengo que elegir (igual que la mayoría de los científicos) me quedo con la segunda, que al menos tiene cabida en una mente racional.

Juan Rojas

miércoles, 18 de mayo de 2011

Disco de las Voyagers

Todos sabemos, creo, que las naves Voyagers, que ya están saliendo de los confines de nuestro sistema solar, llevan un disco con mensajes, fotos y músicas por si acaso alguna vez alguien las encontrara (cosa harto improbable); frecuentemente me he preguntado qué fotos se habían elegido como testimonio de la humanidad. He encontrado este vídeo que satisface mi curiosidad. Y quizá la tuya:

http://www.youtube.com/watch?v=J4QjqXT5lbY

Y aquí una historia un poco más detallada (y sentimental):
http://oceanoestelar.blogspot.com/2011/05/un-amor-para-toda-la-eternidad.html

Saludos.

domingo, 13 de marzo de 2011

¿ Qué es Twitter ?

Twitter (palabra inglesa que significa gorjear, trinar o parlotear) es una aplicación web gratuita que permite a sus usuarios intercambiar mensajes cortos de texto (denominados tweets) de modo que la transmisión no la decide quién genera el mensaje sino quién desea recibirlos y que funciona en una forma que comparte las características de la mensajería instantánea, del correo electrónico, de los blogs y de las redes sociales:
  • Se parece a la mensajería instantánea en que se utilizan mensajes cortos (limitados a 140 caracteres) que se transmiten casi instantáneamente.
  • Se parece al correo electrónico en que no es necesario estar conectados simultáneamente, sino que la aplicación guarda los mensajes (los publicados y los recibidos) en orden cronológico para que cada usuario los lea cuando quiera.
  • Se parece a los blogs en que los mensajes no se envían sino que se publican a ciegas.
  • Se parece a las redes sociales en que cada usuario decide de quién quiere recibir mensajes y para ello se "suscribe" a los mensajes emitidos por los usuarios de su interés. Esto es lo que en la terminología Twitter se llama "seguir" a otros usuarios.
Twitter se puede usar:
  • Para una conversación de grupo (cuando cada miembro del grupo sigue a todos los demás).
  • Para mantenerse informado de las noticias o avisos emitidos por usuarios de interés general. Cuando muchos usuarios siguen a uno concreto.
  • Para divulgar avisos, artículos, noticias, imágenes, vídeos, etc. Dado que los mensajes permitidos son realmente cortos (140 caracteres) es muy frecuente que los mensajes consistan en un título muy breve y un enlace al sitio que contiene la información que se quiere divulgar.
Para empezar a utilizar Twitter hay que hacer lo siguiente:
  • Ir al sitio Twitter: http://twitter.com/
  • Crear una cuenta, en la que se define un nombre de usuario, una contraseña y una dirección de correo electrónico.
  • Activar la cuenta, a través de un enlace recibido por correo electrónico.
  • Especificar los usuarios a los que se quiere seguir.
A partir de ese momento, cada vez que se quiera usar Twitter hay que:
  • Ir al sitio Twitter: http://twitter.com/
  • Acceder a la cuenta, utilizando el usuario y la contraseña elegidos.
  • Leer los mensajes recibidos.
  • Escribir los mensajes que se quieran publicar.
En la última versión de Twitter, los mensajes se pueden publicar no solamente desde su página en Twitter, sino que también se puede hacer vía SMS desde un teléfono móvil, desde programas de mensajería instantánea y desde muchas otras páginas o blogs. De la misma forma, cada usuario puede decidir cómo quiere recibir los mensajes, bien en su página Twitter, por vía mensajería instantánea, por SMS, por RSS y bien por correo electrónico.
Información adicional

Juan Rojas

martes, 8 de marzo de 2011

Conferencia del Dr. José Lopez Barneo

IV CICLO DE CONFERENCIAS MAGISTRALES

Darwin, Wallace, y las interacciones ecológicas como pilares de la biodiversidad

La conferencia del profesor D. Pedro Jordano de ayer trató sobre ecología y co-evolución de las interacciones planta-animal, especialmente en lo referente a la dispersión de las semillas y a la polinización. Fue una charla muy interesante por la calidad y cantidad de información que nos transmitió durante la hora que duró su exposición.
Nos contó que estudia desde hace años el bosque Mediterráneo de España y más recientemente el bosque tropical de Mata Atlántica de Brasil.
Nos dijo que sus trabajos se basan en detallados estudios de campo de los procesos ecológicos. Empezó explicando la co-evolución entre una planta y un animal citando el ejemplo que hace 150 años ya daba Darwin en la estrecha interrelación entre la profundidad a la que se encontraba el néctar en el fondo del cáliz de una flor y la longitud de la trompa del insecto que la polinizaba. Pasó después a explicar que en la naturaleza las cosas son mas complicadas porque las relaciones de dependencia entre animales y plantas no suelen ser uno a uno sino que se dan entre un amplio conjunto de plantas con un amplio conjunto de animales de modo que los ecosistemas se rigen por una red de relaciones.
En la parte central de su charla explicó con detalle cómo los modelos teóricos de redes que sirven para describir casos aparentemente tan diferentes como las redes de carreteras, las conexiones de vuelos y las comunicaciones sirven también para describir las interacciones planta-animal de un ecosistema complejo de modo que con las mismas técnicas matemáticas de la teoría de redes se pueden analizar la robustez y la estabilidad de los ecosistemas y se pueden extraer conclusiones para preservar la biodiversidad.
Finalmente también mencionó la utilización de técnicas de genética molecular para obtener medidas cuantitativas de las distancias de dispersión de ciertas plantas y su relación con los animales que dispersan sus semillas.
Al terminar respondió a unas cuantas preguntas de los asistentes.
Juan Rojas

jueves, 3 de marzo de 2011

miércoles, 23 de febrero de 2011

¿Por qué nuestro universo es como es?

Podemos imaginarnos universos alternativos con leyes físicas diferentes al universo en que vivimos en los que ocurrirían fenómenos muy diferentes a los que estamos observando. Cuando reflexionamos sobre este asunto podemos preguntarnos:
  • ¿pueden existir otros universos con leyes físicas diferentes?,
  • ¿existen realmente?,
  • ¿por qué nuestro Universo es como es?,
  • ¿por qué la carga del electrón es la que es?,
  • ¿por qué la velocidad de la luz vale lo que vale?,
  • ¿por qué el protón pesa lo que pesa?
El comportamiento de nuestro universo depende de los valores de estos parámetros y de otros muchos. La formación de núcleos atómicos después del Big Bang, la formación de estrellas, la evolución de las galaxias, la aparición de la química compleja o de la misma vida dependen de los valores de esos parámetros. En general, los valores de muchos de ellos no se puede deducir a partir de otros parámetros o, por lo menos, no sabemos cómo.
Actualmente muchos científicos están investigando para tratar de encontrar las leyes físicas mas generales posibles, de modo que no haga falta introducir desde fuera de la teoría los valores medidos de ciertos parámetros fundamentales, sino que esos valores sean los que son porque no les queda otro remedio que ser así debido a alguna razón más fundamental.
Mientras no se consiga esto, no tendremos una verdadera Física Teórica, sino simplemente una física descriptiva. La situación actual es, por ejemplo, que debemos aceptar la carga o masa que hemos medido para el electrón pero sin entender la razón de ello.
Somos conscientes de que la vida, tal y como la conocemos es muy sensible a cambios en estos parámetros fundamentales. Un primer requisito de la vida sería la existencia de planetas alrededor de estrellas y estos no podrían existir con otras combinaciones de parámetros. Por ejemplo:
  • La proporción entre la fuerza nuclear fuerte y la fuerza electromagnética es alrededor de 100. Con esta proporción en el núcleo atómico la fuerza nuclear fuerte vence a la repulsión electrostática de los protones permitiendo la existencia de núcleos estables. Si esta proporción fuese algo menor de 100 no existirían los átomos.
  • Si la masa del electrón fuese mayor, se unirían electrones y protones para formar neutrones. Si ocurriera esto, no se podrían formar átomos de hidrogeno ni ninguno de los demás átomos mas pesados que se obtienen por fusión de los más ligeros.
  • Si la fuerza de la gravedad fuese menor de lo que es, los átomos de hidrógeno y helio primordiales producidos poco después del Big Bang no se aglutinarían para formar estrellas y galaxias.
Y aunque pudiera haber planetas parecidos al nuestro, la existencia de la vida tiene requerimientos adicionales:
  • Si la fuerza de la gravedad fuese mayor de lo que es, el núcleo de las estrellas sería mas caliente, con lo que las reacciones nucleares serían mas rápidas y la vida de las estrellas mas corta. En esta situación la vida hubiera tenido menos tiempo para evolucionar y sería mucho más improbable.
Desde Copérnico sabemos que no deberíamos considerar nuestro planeta como un lugar especial y por generalización tampoco deberíamos considerar especial a nuestro universo. Pero lo que hemos descubierto en los últimos años es precisamente lo contrario. Las características de nuestro universo parecen constituir un auténtico milagro. Existía una remotísima probabilidad de que se combinaran al azar los valores de una serie de parámetros cosmológicos para que en algún lugar del universo se dieran las condiciones de la vida. Y nuestra existencia demuestra que ese milagro se ha producido ya que la vida existe al menos en un lugar de este universo.
¿Cómo explicar esta situación desde un punto de vista estrictamente científico?
Una solución a este dilema es no dar una importancia especial a la presencia de la vida. La vida ha surgido por una extraordinaria casualidad y punto. De la misma forma que la persona a la que le ha tocado el premio máximo de la lotería no debería quebrarse la cabeza buscando las razones por las que ha tenido esa suerte.
La otra solución es pensar que existe un multiverso compuesto por una infinidad de universos en los que se dan todo tipo de combinaciones de valores de los parámetros fundamentales que definen el comportamiento de cada uno de ellos. La inmensa mayoría estarían deshabitados y sólo unos pocos permitirían la existencia de vida. La ley de los grandes números nos dice que siempre será posible la existencia del universo donde se dé la combinación apropiada de los parámetros compatibles con la vida. De la misma manera que las coincidencias ambientales de nuestro sistema solar fueron convertidas en irrelevantes al darnos cuenta de que existen miles de millones de sistemas planetarios (principio antrópico débil), los ajustes finos de las parámetros del universo pueden ser explicados por la existencia de miles de millones de universos (principio antrópico fuerte).
Esta segunda explicación parece científicamente más fuerte y es además la solución favorita de los teóricos de cuerdas, pues en esa teoría se acepta la existencia de una tremenda cantidad de estados de vacío distintos que podrían dar pié al desarrollo de universos diferentes en cada uno de ellos. Sin embargo, los críticos con la teoría de cuerdas afirman que mientras no haya resultados experimentales y no se pueda entrar en contacto con esos otros universos no se puede hacer ciencia sobre ellos.
Juan Rojas


Cómo el universo se creó de la nada según Stephen Hawking

En el capítulo 8 de su libro El gran diseño, Stephen Hawking dice lo siguiente:
Cualquier conjunto de leyes que describa un universo como el nuestro tendrá el concepto de energía, asociada a la propiedad de que la energía se debe conservar a lo largo del tiempo a través de los distintos estados por los que evolucione el universo.
La energía del espacio vacío será una constante independiente del tiempo y de la posición. Si para expresar la energía de un cierto volumen del universo tomamos como referencia la energía del mismo volumen de espacio vacío, podremos prescindir de esa constante. En otras palabras, asignamos a la energía del vacío el valor cero.
Un requisito que debe satisfacer cualquier ley de la naturaleza es que establezca que la energía de un cuerpo aislado, rodeado por el espacio vacío, sea positiva. Esta energía (positiva) representa el trabajo que ha habido que realizar para ensamblar el cuerpo.
Vamos a analizar la hipótesis contraria de que esa energía fuera negativa. En ese caso, podríamos dotar a esos cuerpos de un movimiento tal, que contrarrestara exactamente su hipotética energía negativa para llegar a tener una energía total nula. Con esto llegaríamos al absurdo de que en cualquier lugar y en cualquier instante, a partir de la energía nula del vacío, se podrían generar espontáneamente cuerpos en movimiento de energía también nula. De la misma forma, esos cuerpos en movimiento también podrían desaparecer espontáneamente. Todo esto significaría que el vacío sería inestable por lo que esta hipótesis, de que los cuerpos aislados rodeados por el espacio vacío tengan energía negativa, debe descartarse.
El hecho de que la energía de un cuerpo aislado deba ser positiva, quiere decir que crear un cuerpo aislado cuesta energía y que por tanto, es imposible que los cuerpos aislados surjan espontáneamente del vacío ya que la energía total del universo debe permanecer constante. En resumen, como los objetos no pueden aparecer en cualquier lugar de la nada, el universo es localmente estable.
Entonces ¿cómo puede ser creado de la nada todo un universo? Podríamos responder que es debido a la gravedad.
Como la gravedad es una fuerza de atracción, la enegía gravitatoria es negativa. Esto se demuestra porque deberíamos efectuar un trabajo para disgregar un sistema ligado gravitatoriamente  como por ejemplo el sistema Tierra-Luna. Podríamos pensar que la energía gravitatoria (que es negativa) pudiera contrarrestar a la energía para crear la materia (que es positiva), y de esa forma podrían darse objetos cuya energía total fuera nula. Pero la realidad no es tan simple como eso.
Por ejemplo, la energía gravitatoria de la Tierra (que es negativa) es menor que una milmillonésima parte de la energía (positiva) que haría falta para crear todas las partículas elementales que constituyen nuestro planeta.
Otro caso; una estrella tiene en valor absoluto mucha más energía gravitatoria (negativa) que la Tierra.  Cuanto más pequeña sea la estrella y más próximos estén entre si sus átomos, más energía gravitatoria tendrá. Podríamos pensar que, al final de su vida cuando esté contrayéndose, la energía gravitatoria de una estrella podría contrarrestarse con la energía (positiva) necesaria para crear de todas sus partículas y llegar así a un objeto aislado de energía nula. Pero los cálculos teóricos y la experiencia demuestra que antes de que ocurra eso la estrella se ha convertido en un agujero negro. Y los agujeros negros también tienen energía positiva.
En resumidas cuentas; los planetas, las estrellas, los agujeros negros y todos los objetos aislado que existen en el universo tienen energía positiva y no pueden aparecer ni desaparecer espontáneamente a partir del vacío, sin embargo, todo un universo si puede.
La razón es la siguiente; la gravedad da forma al espacio y al tiempo de manera que aunque, como se acaba de ver, el espacio-tiempo es localmente estable pero "puede" ser globalmente inestable. Porque a la escala de todo el universo la energía (positiva) necesaria para la creación de todas las partículas "puede" ser contrarrestada exactamente por la energía gravitatoria (negativa) de todos sus componentes. De esta forma no hay restricción para la creación de universos enteros.
Debido a la gravedad el universo puede y será creado de la nada. La creación espontánea es la razón por la cuál existe el universo. No hace falta invocar a Dios para encender las ecuaciones y poner el universo en marcha. Por eso hay algo en lugar de nada, por eso existimos.

jueves, 17 de febrero de 2011

El Principio Antrópico

El físico teórico australiano Brandon Carter (1942), que actualmente trabaja en Francia en el Centre National de la Recherche Scientifique (CNRS), fue quién, en 1973 introdujo el principio antrópico para explicar por qué surgió la vida inteligente en el universo a pesar de que ese hecho parece del todo improbable. Este principio afirma que el universo en el que vivimos (el único que existe) ha de ser el adecuado para el desarrollo de la vida inteligente porque, de otro modo, no existiríamos para observarlo. Una variante de este principio asegura que pueden existir multitud de universos, pero que no deberíamos asombrarnos de vivir justo en el nuestro, ya que es este el que proporciona las condiciones para la existencia de vida inteligente.
El físico, cosmólogo y divulgador científico inglés Stephen W. Hawking (1942), en su libro Historia del tiempo, habla del principio antrópico aplicado al tema del origen y formación del universo y dice textualmente: "vemos el universo en la forma que es, porque nosotros existimos".
Dieter Lüst, profesor de física matemática y teoría de cuerdas en la Universidad Ludwig Maximilian y director del Instituto de Física Max Planck en su artículo ¿Es la teoría de cuerdas una ciencia? (Investigación y Ciencia, septiembre 2010) opina que el principio antrópico representa algo más que una argucia filosófica, ya que en la teoría de cuerdas soluciona dos viejos problemas de la física:
Primero. ¿Por qué las leyes físicas son las que son?
Segundo. ¿Por qué las constantes de la naturaleza parecen estar ajustadas con tanta exactitud para permitir la existencia de vida inteligente?
En ambos casos, el principio antrópico se apoya en la ley de los grandes números: en una muestra suficientemente grande tomada al azar, todo evento posible ha debido ocurrir en algún lugar. De acuerdo con esto, todas las posibles leyes de la naturaleza han cobrado forma en sus respectivos universos; sin embargo, los observadores sólo existen en los (relativamente pocos) universos favorables a la vida.
En el multiverso, el principio antrópico logra explicar el excepcional ajuste fino del que hace gala nuestro universo; es decir, el aparente "milagro" que permite nuestra existencia, a pesar de que una mínima variación de las constantes de la naturaleza habría impedido la aparición de la vida.
El gran número de combinaciones posibles en el multiverso ocasionó necesariamente que en algún universo (el nuestro) se diera la precisa combinación de constantes de la naturaleza que provocó nuestra existencia. Esta es la explicación científica alternativa a la de que nuestro universo es un fenómeno extremadamente raro por estar ajustado al milímetro (por la razón que sea) para que pueda haber vida inteligente.
Hay un considerable número de científicos (no todos) que aceptan la idea de una multitud de universos como algo que en realidad existe y fundamentan su postura en el principio antrópico.
Juan Rojas

La realidad y la percepción


En este mundo traidor,
nada es verdad, ni mentira,
Todo es según el color
del cristal con que se mira.



Poco se imaginaría Don Ramón de Campoamor que su verso iba a relacionarse con importantes ideas físicas que se divulgarían un siglo después por un cosmólogo del prestigio de Stephen Hawking. Pero vayamos por partes, empecemos por una definición. La realidad es todo lo que existe, sea o no perceptible, accesible o entendible por la ciencia, la filosofía o cualquier otro sistema de análisis. Pero aquí nos vamos a ceñir a la realidad física, es decir a la realidad perceptible y entendible por la ciencia.
Lo primero que hay que considerar es que una cosa es la realidad y otra cosa es cómo esa realidad se describe o se representa en distintos medios. Por ejemplo, una cosa es la torre Eiffel y otra cosa es su representación mediante una fotografía digital en la pantalla de un ordenador. Hay una cierta relación entre ambas cosas pero esa relación no pasa de ser una analogía en la que unos pocos millones de puntos de la pantalla iluminados con luces de distintos colores representan a miles de trillones de átomos de hierro y de otros elementos que forman la famosa estructura que hay en París.
Si nos analizamos introspectivamente podemos entender que en nuestro cerebro debe ocurrir lo mismo que en la pantalla, es decir, debe haber una representación de la realidad, una realidad subjetiva "torre Eiffel" a base de conexiones neuronales. Aquí, en vez de puntos de pantalla iluminados tenemos otra forma de representación, millones de neuronas profusamente interconectadas activan en nuestra consciencia el concepto "torre Eiffel" y evocan su característica imagen y los datos que conocemos sobre esa torre, su ubicación, su altura, su diseñador, etc.
Pero la representación neuronal se diferencia de la representación en la pantalla fundamentalmente en dos aspectos. Uno, que la forma de codificar la información (el formato) en la pantalla se conoce en todos sus detalles mientras que la forma en que el cerebro guarda la información nos es totalmente desconocida. Y dos, que una representación en la pantalla es algo que vemos desde fuera mientras que la representación cerebral la vemos desde dentro, desde nuestra consciencia. La consciencia es la propia estructura sináptica de nuestro cerebro, es el sistema de referencia individual desde el que se observa, desde el que se existe y que tiene como misión identificar cada aspecto de la realidad con su estructura neuronal correspondiente. Hasta tal punto esto es así, que si por medios externos nos estimularan las neuronas donde guardamos los recuerdos sobre la torre Eiffel nuestra consciencia nos evocaría inmediatamente los conceptos que conocemos de la torre.
Si con el conocimiento y los medios suficientes analizáramos los cerebros de varios individuos, probablemente encontraríamos grandes diferencias entre como se han conectado las neuronas en cada uno de ellos, aunque todos hubieran hecho la misma visita y recibido idéntica información sobre la torre. Decía Ortega y Gasset que "hay tantas realidades como puntos de vista." Por supuesto, que esas diferencias en las conexiones neuronales se agrandarían enormemente si un individuo hubiera conocido la torre acercándose en un helicóptero, otro cruzando por su base a pié y otro hubiera subido en el ascensor hasta el "sommet". Lo sorprendente de nuestra consciencia es que todas esas percepciones o realidades subjetivas permitirían a esos individuos ser conscientes de que habían captado la misma realidad.
Hasta ahora hemos estado refiriéndonos a una realidad tangible, estática, que podemos observar desde múltiples perspectivas y de la que conocemos su composición y sus más mínimos detalles. Pero, ¿cómo concebimos una realidad que no podemos observar con la misma facilidad? ¿cómo concebimos el centro de la Tierra? ¿cómo concebimos una estrella lejana?.
En estos casos ya no son suficientes nuestros sentidos sino que tenemos valernos de instrumentos que nos permitan percibir esas otras realidades. Además, tenemos que ser conscientes de las alteraciones que esos instrumentos ejercen sobre la realidad, para que nuestra consciencia pueda corregir la información que ha recibido por los sentidos. Como decía Campoamor, ser conscientes del color del cristal con que se mira. Estos instrumentos han sido los que desde Galileo, nos han permitido hacer grandes progresos en la concepción de la realidad del universo, tanto en el aspecto macroscópico de los astros como en el aspecto microscópico de todo lo que nos rodea y de nosotros mismos.
Al principio los instrumentos fueron muy sencillos, simples telescopios o microscopios ópticos que apenas alteraban la percepción de los sentidos. Pero cuando se usaron instrumentos mas complejos la percepción de la realidad cambió radicalmente. Pensemos en el proceso de medir la velocidad con que se aleja una galaxia utilizando un espectrómetro aplicado a un telescopio. El significado de las líneas espectrales obtenidas no es nada evidente para quién no tenga los conocimientos adecuados pero a los especialistas les muestra una realidad tan válida como a quien está observando la torre Eiffel.
La que ocurre es que, la utilización de un instrumento de observación interpuesto entre la realidad y nuestros sentidos implica la necesidad de dotar al observador con una capa adicional de conocimiento que también se interponga en su cerebro y le permita interpretar (decodificar) lo que el instrumento de observación ha codificado. Esta capa adicional de conocimiento es lo que llamamos un modelo o una teoría y aunque funciona a un nivel más complejo actúa de la misma forma que, volviendo a Campoamor, cuando nos ponemos unas gafas de sol azuladas, nuestro cerebro corrige la percepción y hace que no nos sorprendamos de ver azuladas las caras de otras personas. O con otro ejemplo menos poético, cuando conectamos a un ordenador un nuevo dispositivo (hardware) tenemos también que definirle su modelo, cargando el programa (driver) que describe el funcionamiento de ese dispositivo.
La ciencia clásica se rige por los principios del realismo que establece que: a) Las propiedades del mundo están perfectamente definidas y son independientes del observador y b) Las teorías físicas describen las propiedades de diferentes aspectos del mundo real y por esa razón nuestras medidas y percepciones coinciden con la realidad. Por el contrario, los antirealistas sostienen que las teorías no son más que instrumentos útiles pero que no encarnan verdades mas profundas que trasciendan los fenómenos observados.

Hawking, en su libro "El gran diseño" adopta una perspectiva que no se identifica con ninguna de esas dos posturas anteriores y que denomina "Realismo dependiente del modelo" afirmando que no existe una realidad objetiva sino que la realidad depende del modelo elegido. Es decir, hace énfasis en el modelo por encima de la realidad, hasta tal punto que afirma que no tiene sentido preguntarse si un modelo es real o no sino que sólo tiene sentido preguntarse si el modelo concuerda o no con las observaciones. Si hay más de un modelo que concuerden con las observaciones podremos usar el modelo que nos resulte más conveniente en la situación que estamos considerando.

Podríamos replicar a Hawking que en vez de afirmar que "no existe la realidad objetiva", es mas lógico decir que "no hay forma de conocerla". Con este cambio, el resto de su razonamiento sigue teniendo sentido.
Para entender mejor el significado de estas ideas fijémonos en el enfrentamiento que surgió en el siglo XVI sobre el movimiento del Sol y los planetas. Se comparaba el antiguo modelo de Ptolomeo (siglo II), que afirmaba que la Tierra estaba inmóvil en el centro del universo, con el nuevo modelo de Copérnico, que afirmaba que el Sol estaba en reposo y eran los planetas, entre ellos la Tierra, los que giraban alrededor del Sol. Pues bien, con su idea del "Realismo dependiente del modelo", Hawking afirma que no podemos afirmar que el modelo de Ptolomeo sea erróneo y que por tanto, podemos utilizar ambas visiones como modelos del universo, ya que ambas explican correctamente nuestras observaciones del firmamento. La ventaja del sistema de Copérnico es simplemente que las ecuaciones de movimiento son mucho más simples porque utiliza como sistema de referencia el Sol que se halla en reposo.
El realismo dependiente del modelo se aplica no sólo a los modelos científicos sino también a los modelos mentales que nos creamos para interpretar el mundo cotidiano. Porque no hay manera de eliminar nuestra propia influencia de observadores de la percepción que tenemos del mundo, que está creada por nuestro procesamiento sensorial, y por la manera que pensamos y razonamos. Esto quiere decir que, nuestra percepción no es directa sino una especie de lente que es la estructura interpretativa de nuestros cerebros.
Estas ideas están de acuerdo con Kant, que decía que lo que se denomina usualmente "realidad" está "teñido" de subjetividad, y limitado a los medios de observación que el sujeto posee en su época. Esto implica que la realidad no tiene muchas posibilidades de perdurar estable. Si a nivel estadístico observamos todas las ideas que hoy en día consideramos erróneas y que en tiempos pretéritos se dieron por hecho como realidad, podemos deducir que, en tiempos futuros, la humanidad considerará errónea una buena parte de lo que hoy pensamos que es la realidad.
En resumen, la idea central es que no tenemos forma de percibir la realidad nada más que a través de un modelo. Las percepciones de la vida cotidiana se rigen por el modelo que hemos aprendido de forma natural a lo largo de la vida. Las percepciones de objetos mas complejos requieren el aprendizaje de sus correspondientes modelos. El uso de instrumentos requiere conocer los modelos específicos asociados a los mismos. Cualquier teoría física o cualquier imagen del mundo es un modelo (normalmente matemático) asociado a un conjunto de reglas que relacionan los elementos del modelo con las observaciones. Puede haber varias teorías que describan un aspecto del mundo. Una determinada teoría será tanto mejor cuanto más exactamente sea capaz de predecir las observaciones.
Juan Rojas


El fondo Cósmico de Microondas

En 1965 Arno Penzias y Robert Wilson de los laboratorios Bell de Crawford Hill estaban construyendo una antena de alta calidad para usarla en radioastronomía y comunicaciones por satélite. Cuando empezaron a hacer las primeras mediciones se quedaron perplejos por el ruido de microondas que entraba en su antena desde todas las direcciones del cielo. Revisaron minuciosamente el diseño y la construcción de la antena pero fueron incapaces de eliminar esa señal que presentaba las características de un ruido de fondo proveniente de un emisor que estaba a una temperatura de 3,5 grados Kelvin.
Hablaron con Robert Dicke de la Universidad de Princenton que les dijo que la teoría del Big Bang predecía exactamente eso. Efectivamente, en 1948 George Gamow, Ralph Alpher y Robert Hermann habían predicho que de acuerdo con la teoría del Big Bang, teniendo en cuenta la temperatura inicial del universo y lo que se había expandido, la radiación primigenia debería haberse enfriado hasta unos pocos grados Kelvin y que esa radiación debería estar inundando todo el universo. Pero los instrumentos de la época no eran capaces de detectar esa radiación.
Un encuentro entre los grupos de Princeton y Crawford Hill determinó que la señal la antena se debía efectivamente a la radiación de microondas que subsistía en el universo como remanente del Big Bang. Penzias y Wilson recibieron el Premio Nobel de Física de 1978 por este descubrimiento.
Desde entonces la radiación de fondo de microondas se ha medido en infinidad de experimentos y se comprobó que aunque las primeras mediciones indicaban que era isótropa, es decir que era igual en todas las direcciones, cuando se hicieron mediciones mas precisas se comprobó que en realidad había un determinado grado de anisotropía. Las irregularidades observadas eran muy importantes porque mostraban los grumos iniciales de materia que con el tiempo dieron lugar a las galaxias, cúmulos y supercúmulos que hoy estamos observando en el universo.

Por esta razón se han lanzado 3 satélites diseñados específicamente para hacer mediciones lo más precisas posible. Primero fue el COBE de la NASA lanzado en 1989, después fue el WMAP también de la NASA en 2001 y por último el Planck Surveyor de la Agencia Espacial Europea que fue lanzado en 2009.
La gráfica de la radiación del fondo de microondas medida por el COBE se publico en un congreso de astronomía en 1990 y se parecía tanto a la de un cuerpo negro a 3ºK que parecía mas sacada de un libro de texto que ser el resultado de una medición. Los astrónomos presentes en el congreso rompieron en aplausos espontáneamente. Desde entonces, toda la información obtenida ha dado el espaldarazo definitivo a la teoría del Big Bang de forma que la Cosmología ha   pasado de ser una teoría especulativa a una ciencia exacta.
Este fue el tema de una presentación que hice al grupo (antes de que se llamara Amicorum Concilium) el 6 de enero de 2006, a la que asistieron Juan Carlos, Emilio y Jorge (y no recuerdo si alguien más).
 La presentación en formato Power Point puede descargarse desde este enlace.

Juan Rojas

La velocidad de la luz


La luz se propaga en el vacío a la increíble velocidad de 300.000 kilómetros por segundo. Un dato que puede darnos idea de la enorme velocidad de que estamos hablando es que en un segundo la luz sería capaz de dar siete vueltas y media a La Tierra. Otro dato, La Luna se encuentra a 384.000 Kilómetros de La Tierra, por lo que la luz que sale de nuestro satélite tarda poco más de un segundo en llegar a nosotros.
Pero a pesar de la enorme velocidad de la luz, las distancias astronómicas son tan grandes, que se emplean unidades derivadas de la velocidad de la luz para especificar las distancias a los objetos celestes. Es decir, se definen las distancias diciendo el tiempo que tarda la luz en recorrerlas. De esta forma se dice que:
  • La Luna está a 1,26 segundos-luz.
  • El Sol esta a 8,33 minutos-luz.
  • Plutón está a 5,48 horas-luz del Sol.
  • La nave Pioneer-10 (lanzada en 1972) está a 1 dia-luz
  • La estrella más próxima está a 4,3 años-luz
  • El centro de nuestra galaxia está a 30.000 años-luz
  • La galaxia más próxima está a 2.000.000 años-luz
  • El objeto celeste más lejano conocido está a 12.000.000.000 años-luz
Pero si increíble es la magnitud de esa velocidad mucho más increíble es la propiedad fundamental que tiene y que consiste en lo siguiente. Cuando medimos la velocidad de la luz (en el vacío) nos encontramos con que siempre obtenemos el mismo resultado expresado anteriormente, es decir 300.000 Km/s, independientemente del movimiento que tenga quién haga la medición. Es decir, la medición no se verá afectada por el hecho de que, quién está midiendo la velocidad de la luz se esté acercando o alejando del lugar de dónde viene la luz. Y es independiente de la velocidad con que se acerque o se aleje de ese lugar.
Este sorprendente hecho se conoce desde finales del siglo XIX y desde entonces se ha comprobado experimentalmente infinidad de veces, en todas las circunstancias posibles y por multitud de científicos de los más diversos países. Aunque al principio trajo de cabeza a la comunidad científica de la época, hoy es un hecho totalmente aceptado desde que en 1905 Albert Einstein publicara sus primeros trabajos de la Teoría de La Relatividad Especial. Con esto corregía ciertas leyes de la física que se consideraban incuestionables desde 1687 en que las estableció Isaac Newton.
Para explicar más la rareza de esta propiedad de la luz veamos los siguientes ejemplos. Primero vamos a ver que ocurre cuando se miden velocidades de objetos normales con instrumentos también normales. Supongamos que un coche de policía que circula a 80 Km/h se cruza con otro vehículo que circula en dirección contraria a 120 Km/h. Si un poco antes de cruzarse, desde el parabrisas del coche de policía se mide con un radar la velocidad del otro vehículo, la lectura será de 200 Km/h, pues es la suma de las velocidades (80 y 120) de los vehículos que circulan en sentidos contrarios. Por el contrario, si el radar se dirige por la ventana trasera hacia un vehículo que se acerca desde atrás, también a 120 Km/h, la lectura será de 40 Km/h, que es la diferencia de las velocidades (120 y 80) de los dos vehículos que circulan en la misma dirección.
Contrastemos ahora estos resultados con los obtenidos en otra situación en la que se mide la velocidad de la luz desde una nave espacial viaja hacia una estrella. La nave va a la velocidad de 40.000 Km/s y se propone medir, desde la ventana delantera de la nave, la velocidad de la luz que viene de esa estrella. Utilizando el criterio aplicado en él radar de policía, alguien que no supiera la propiedad de la luz, podría presuponer que iba a medir 340.000 Km/s, que es la suma de los 300.000 Km/s a la que viene la luz desde la estrella y los 40.000 Km/s con que la nave se acerca a dicha estrella. Sin embargo, se encontrará con la sorpresa de que la medición dará como resultado 300.000 Km/s. Sin que esto suponga que la medición se ha hecho incorrectamente.
Si se da la vuelta al aparato de medida, y a través de la ventana trasera de la nave se midiera la velocidad de la luz que llega desde una estrella de la que se está alejando, la medición sería de nuevo 300.000 Km/s y no los 260.000 Km/s que podría suponer quién aplicara la regla de la resta (300.000 - 40.000) que se utilizó válidamente en el caso del coche de policía.
Una vez entendida y aceptada como verdadera esta propiedad de la luz, la postura de los científicos es la de enunciarla rigurosamente,  expresarla matemáticamente y extraer conclusiones. Esto es exactamente lo que hizo Albert Einstein cuando en 1905 publicó lo que se conoce como la Teoría de la Relatividad Especial.
En contra de nuestra intuición y de las leyes de la física conocidas hasta ese momento (las leyes de Newton), de esta teoría se deducen cosas tan sorprendentes como que dos observadores que se muevan uno respecto a otro tendrán distintas percepciones de la longitud de los objetos, de la celeridad con que transcurre el tiempo y de la simultaneidad de los sucesos.
Y por último, otra sorprendente conclusión de la Relatividad. No hay nada en la naturaleza que pueda desplazarse a más velocidad que la luz, ni material, ni inmaterial. Ninguna nave, ningún objeto, ninguna partícula, ninguna onda, ninguna información puede viajar a más de 300.000 kilómetros por segundo. Bueno, en realidad la velocidad de la luz en el vacío es exactamente 299.792 kilómetros y 458 metros por segundo, pero es costumbre redondear ese valor a la cifra exacta de 300.000 que es más fácil de recordar y de expresar.
Juan Rojas

Acceso remoto


Estoy descubriendo el programa multiplataforma TEAMVIEWER que es ideal para controlar desde una unica pantalla varios ordenadores aunque estén en localidades diferentes.

Cuando sepa más os lo contaré.

Es un software libre para uso privado

Se puede obtener en www.teamviewer.com

martes, 15 de febrero de 2011

Reunión: Síntesis de proteinas

Los días 7 y 14 de Febrero - en la casa de Jorge -  Juan Carlos Mendoza ha presentado el tema "Sintesis de Proteinas".

El material se puede obtener en pdf (que ocupa menos) o en ppt.