Se ha creado una cuenta Twitter que publica las entradas de este blog, para acceder a ella pulsa en Cuenta Twitter asociada a Amicorum Concilium
Para publicar en tu cuenta twitter una referencia a una entrada de este blog, pulsa en boton twitter (t) que hay al final de cada entrada.

miércoles, 23 de febrero de 2011

¿Por qué nuestro universo es como es?

Podemos imaginarnos universos alternativos con leyes físicas diferentes al universo en que vivimos en los que ocurrirían fenómenos muy diferentes a los que estamos observando. Cuando reflexionamos sobre este asunto podemos preguntarnos:
  • ¿pueden existir otros universos con leyes físicas diferentes?,
  • ¿existen realmente?,
  • ¿por qué nuestro Universo es como es?,
  • ¿por qué la carga del electrón es la que es?,
  • ¿por qué la velocidad de la luz vale lo que vale?,
  • ¿por qué el protón pesa lo que pesa?
El comportamiento de nuestro universo depende de los valores de estos parámetros y de otros muchos. La formación de núcleos atómicos después del Big Bang, la formación de estrellas, la evolución de las galaxias, la aparición de la química compleja o de la misma vida dependen de los valores de esos parámetros. En general, los valores de muchos de ellos no se puede deducir a partir de otros parámetros o, por lo menos, no sabemos cómo.
Actualmente muchos científicos están investigando para tratar de encontrar las leyes físicas mas generales posibles, de modo que no haga falta introducir desde fuera de la teoría los valores medidos de ciertos parámetros fundamentales, sino que esos valores sean los que son porque no les queda otro remedio que ser así debido a alguna razón más fundamental.
Mientras no se consiga esto, no tendremos una verdadera Física Teórica, sino simplemente una física descriptiva. La situación actual es, por ejemplo, que debemos aceptar la carga o masa que hemos medido para el electrón pero sin entender la razón de ello.
Somos conscientes de que la vida, tal y como la conocemos es muy sensible a cambios en estos parámetros fundamentales. Un primer requisito de la vida sería la existencia de planetas alrededor de estrellas y estos no podrían existir con otras combinaciones de parámetros. Por ejemplo:
  • La proporción entre la fuerza nuclear fuerte y la fuerza electromagnética es alrededor de 100. Con esta proporción en el núcleo atómico la fuerza nuclear fuerte vence a la repulsión electrostática de los protones permitiendo la existencia de núcleos estables. Si esta proporción fuese algo menor de 100 no existirían los átomos.
  • Si la masa del electrón fuese mayor, se unirían electrones y protones para formar neutrones. Si ocurriera esto, no se podrían formar átomos de hidrogeno ni ninguno de los demás átomos mas pesados que se obtienen por fusión de los más ligeros.
  • Si la fuerza de la gravedad fuese menor de lo que es, los átomos de hidrógeno y helio primordiales producidos poco después del Big Bang no se aglutinarían para formar estrellas y galaxias.
Y aunque pudiera haber planetas parecidos al nuestro, la existencia de la vida tiene requerimientos adicionales:
  • Si la fuerza de la gravedad fuese mayor de lo que es, el núcleo de las estrellas sería mas caliente, con lo que las reacciones nucleares serían mas rápidas y la vida de las estrellas mas corta. En esta situación la vida hubiera tenido menos tiempo para evolucionar y sería mucho más improbable.
Desde Copérnico sabemos que no deberíamos considerar nuestro planeta como un lugar especial y por generalización tampoco deberíamos considerar especial a nuestro universo. Pero lo que hemos descubierto en los últimos años es precisamente lo contrario. Las características de nuestro universo parecen constituir un auténtico milagro. Existía una remotísima probabilidad de que se combinaran al azar los valores de una serie de parámetros cosmológicos para que en algún lugar del universo se dieran las condiciones de la vida. Y nuestra existencia demuestra que ese milagro se ha producido ya que la vida existe al menos en un lugar de este universo.
¿Cómo explicar esta situación desde un punto de vista estrictamente científico?
Una solución a este dilema es no dar una importancia especial a la presencia de la vida. La vida ha surgido por una extraordinaria casualidad y punto. De la misma forma que la persona a la que le ha tocado el premio máximo de la lotería no debería quebrarse la cabeza buscando las razones por las que ha tenido esa suerte.
La otra solución es pensar que existe un multiverso compuesto por una infinidad de universos en los que se dan todo tipo de combinaciones de valores de los parámetros fundamentales que definen el comportamiento de cada uno de ellos. La inmensa mayoría estarían deshabitados y sólo unos pocos permitirían la existencia de vida. La ley de los grandes números nos dice que siempre será posible la existencia del universo donde se dé la combinación apropiada de los parámetros compatibles con la vida. De la misma manera que las coincidencias ambientales de nuestro sistema solar fueron convertidas en irrelevantes al darnos cuenta de que existen miles de millones de sistemas planetarios (principio antrópico débil), los ajustes finos de las parámetros del universo pueden ser explicados por la existencia de miles de millones de universos (principio antrópico fuerte).
Esta segunda explicación parece científicamente más fuerte y es además la solución favorita de los teóricos de cuerdas, pues en esa teoría se acepta la existencia de una tremenda cantidad de estados de vacío distintos que podrían dar pié al desarrollo de universos diferentes en cada uno de ellos. Sin embargo, los críticos con la teoría de cuerdas afirman que mientras no haya resultados experimentales y no se pueda entrar en contacto con esos otros universos no se puede hacer ciencia sobre ellos.
Juan Rojas


Cómo el universo se creó de la nada según Stephen Hawking

En el capítulo 8 de su libro El gran diseño, Stephen Hawking dice lo siguiente:
Cualquier conjunto de leyes que describa un universo como el nuestro tendrá el concepto de energía, asociada a la propiedad de que la energía se debe conservar a lo largo del tiempo a través de los distintos estados por los que evolucione el universo.
La energía del espacio vacío será una constante independiente del tiempo y de la posición. Si para expresar la energía de un cierto volumen del universo tomamos como referencia la energía del mismo volumen de espacio vacío, podremos prescindir de esa constante. En otras palabras, asignamos a la energía del vacío el valor cero.
Un requisito que debe satisfacer cualquier ley de la naturaleza es que establezca que la energía de un cuerpo aislado, rodeado por el espacio vacío, sea positiva. Esta energía (positiva) representa el trabajo que ha habido que realizar para ensamblar el cuerpo.
Vamos a analizar la hipótesis contraria de que esa energía fuera negativa. En ese caso, podríamos dotar a esos cuerpos de un movimiento tal, que contrarrestara exactamente su hipotética energía negativa para llegar a tener una energía total nula. Con esto llegaríamos al absurdo de que en cualquier lugar y en cualquier instante, a partir de la energía nula del vacío, se podrían generar espontáneamente cuerpos en movimiento de energía también nula. De la misma forma, esos cuerpos en movimiento también podrían desaparecer espontáneamente. Todo esto significaría que el vacío sería inestable por lo que esta hipótesis, de que los cuerpos aislados rodeados por el espacio vacío tengan energía negativa, debe descartarse.
El hecho de que la energía de un cuerpo aislado deba ser positiva, quiere decir que crear un cuerpo aislado cuesta energía y que por tanto, es imposible que los cuerpos aislados surjan espontáneamente del vacío ya que la energía total del universo debe permanecer constante. En resumen, como los objetos no pueden aparecer en cualquier lugar de la nada, el universo es localmente estable.
Entonces ¿cómo puede ser creado de la nada todo un universo? Podríamos responder que es debido a la gravedad.
Como la gravedad es una fuerza de atracción, la enegía gravitatoria es negativa. Esto se demuestra porque deberíamos efectuar un trabajo para disgregar un sistema ligado gravitatoriamente  como por ejemplo el sistema Tierra-Luna. Podríamos pensar que la energía gravitatoria (que es negativa) pudiera contrarrestar a la energía para crear la materia (que es positiva), y de esa forma podrían darse objetos cuya energía total fuera nula. Pero la realidad no es tan simple como eso.
Por ejemplo, la energía gravitatoria de la Tierra (que es negativa) es menor que una milmillonésima parte de la energía (positiva) que haría falta para crear todas las partículas elementales que constituyen nuestro planeta.
Otro caso; una estrella tiene en valor absoluto mucha más energía gravitatoria (negativa) que la Tierra.  Cuanto más pequeña sea la estrella y más próximos estén entre si sus átomos, más energía gravitatoria tendrá. Podríamos pensar que, al final de su vida cuando esté contrayéndose, la energía gravitatoria de una estrella podría contrarrestarse con la energía (positiva) necesaria para crear de todas sus partículas y llegar así a un objeto aislado de energía nula. Pero los cálculos teóricos y la experiencia demuestra que antes de que ocurra eso la estrella se ha convertido en un agujero negro. Y los agujeros negros también tienen energía positiva.
En resumidas cuentas; los planetas, las estrellas, los agujeros negros y todos los objetos aislado que existen en el universo tienen energía positiva y no pueden aparecer ni desaparecer espontáneamente a partir del vacío, sin embargo, todo un universo si puede.
La razón es la siguiente; la gravedad da forma al espacio y al tiempo de manera que aunque, como se acaba de ver, el espacio-tiempo es localmente estable pero "puede" ser globalmente inestable. Porque a la escala de todo el universo la energía (positiva) necesaria para la creación de todas las partículas "puede" ser contrarrestada exactamente por la energía gravitatoria (negativa) de todos sus componentes. De esta forma no hay restricción para la creación de universos enteros.
Debido a la gravedad el universo puede y será creado de la nada. La creación espontánea es la razón por la cuál existe el universo. No hace falta invocar a Dios para encender las ecuaciones y poner el universo en marcha. Por eso hay algo en lugar de nada, por eso existimos.

jueves, 17 de febrero de 2011

El Principio Antrópico

El físico teórico australiano Brandon Carter (1942), que actualmente trabaja en Francia en el Centre National de la Recherche Scientifique (CNRS), fue quién, en 1973 introdujo el principio antrópico para explicar por qué surgió la vida inteligente en el universo a pesar de que ese hecho parece del todo improbable. Este principio afirma que el universo en el que vivimos (el único que existe) ha de ser el adecuado para el desarrollo de la vida inteligente porque, de otro modo, no existiríamos para observarlo. Una variante de este principio asegura que pueden existir multitud de universos, pero que no deberíamos asombrarnos de vivir justo en el nuestro, ya que es este el que proporciona las condiciones para la existencia de vida inteligente.
El físico, cosmólogo y divulgador científico inglés Stephen W. Hawking (1942), en su libro Historia del tiempo, habla del principio antrópico aplicado al tema del origen y formación del universo y dice textualmente: "vemos el universo en la forma que es, porque nosotros existimos".
Dieter Lüst, profesor de física matemática y teoría de cuerdas en la Universidad Ludwig Maximilian y director del Instituto de Física Max Planck en su artículo ¿Es la teoría de cuerdas una ciencia? (Investigación y Ciencia, septiembre 2010) opina que el principio antrópico representa algo más que una argucia filosófica, ya que en la teoría de cuerdas soluciona dos viejos problemas de la física:
Primero. ¿Por qué las leyes físicas son las que son?
Segundo. ¿Por qué las constantes de la naturaleza parecen estar ajustadas con tanta exactitud para permitir la existencia de vida inteligente?
En ambos casos, el principio antrópico se apoya en la ley de los grandes números: en una muestra suficientemente grande tomada al azar, todo evento posible ha debido ocurrir en algún lugar. De acuerdo con esto, todas las posibles leyes de la naturaleza han cobrado forma en sus respectivos universos; sin embargo, los observadores sólo existen en los (relativamente pocos) universos favorables a la vida.
En el multiverso, el principio antrópico logra explicar el excepcional ajuste fino del que hace gala nuestro universo; es decir, el aparente "milagro" que permite nuestra existencia, a pesar de que una mínima variación de las constantes de la naturaleza habría impedido la aparición de la vida.
El gran número de combinaciones posibles en el multiverso ocasionó necesariamente que en algún universo (el nuestro) se diera la precisa combinación de constantes de la naturaleza que provocó nuestra existencia. Esta es la explicación científica alternativa a la de que nuestro universo es un fenómeno extremadamente raro por estar ajustado al milímetro (por la razón que sea) para que pueda haber vida inteligente.
Hay un considerable número de científicos (no todos) que aceptan la idea de una multitud de universos como algo que en realidad existe y fundamentan su postura en el principio antrópico.
Juan Rojas

La realidad y la percepción


En este mundo traidor,
nada es verdad, ni mentira,
Todo es según el color
del cristal con que se mira.



Poco se imaginaría Don Ramón de Campoamor que su verso iba a relacionarse con importantes ideas físicas que se divulgarían un siglo después por un cosmólogo del prestigio de Stephen Hawking. Pero vayamos por partes, empecemos por una definición. La realidad es todo lo que existe, sea o no perceptible, accesible o entendible por la ciencia, la filosofía o cualquier otro sistema de análisis. Pero aquí nos vamos a ceñir a la realidad física, es decir a la realidad perceptible y entendible por la ciencia.
Lo primero que hay que considerar es que una cosa es la realidad y otra cosa es cómo esa realidad se describe o se representa en distintos medios. Por ejemplo, una cosa es la torre Eiffel y otra cosa es su representación mediante una fotografía digital en la pantalla de un ordenador. Hay una cierta relación entre ambas cosas pero esa relación no pasa de ser una analogía en la que unos pocos millones de puntos de la pantalla iluminados con luces de distintos colores representan a miles de trillones de átomos de hierro y de otros elementos que forman la famosa estructura que hay en París.
Si nos analizamos introspectivamente podemos entender que en nuestro cerebro debe ocurrir lo mismo que en la pantalla, es decir, debe haber una representación de la realidad, una realidad subjetiva "torre Eiffel" a base de conexiones neuronales. Aquí, en vez de puntos de pantalla iluminados tenemos otra forma de representación, millones de neuronas profusamente interconectadas activan en nuestra consciencia el concepto "torre Eiffel" y evocan su característica imagen y los datos que conocemos sobre esa torre, su ubicación, su altura, su diseñador, etc.
Pero la representación neuronal se diferencia de la representación en la pantalla fundamentalmente en dos aspectos. Uno, que la forma de codificar la información (el formato) en la pantalla se conoce en todos sus detalles mientras que la forma en que el cerebro guarda la información nos es totalmente desconocida. Y dos, que una representación en la pantalla es algo que vemos desde fuera mientras que la representación cerebral la vemos desde dentro, desde nuestra consciencia. La consciencia es la propia estructura sináptica de nuestro cerebro, es el sistema de referencia individual desde el que se observa, desde el que se existe y que tiene como misión identificar cada aspecto de la realidad con su estructura neuronal correspondiente. Hasta tal punto esto es así, que si por medios externos nos estimularan las neuronas donde guardamos los recuerdos sobre la torre Eiffel nuestra consciencia nos evocaría inmediatamente los conceptos que conocemos de la torre.
Si con el conocimiento y los medios suficientes analizáramos los cerebros de varios individuos, probablemente encontraríamos grandes diferencias entre como se han conectado las neuronas en cada uno de ellos, aunque todos hubieran hecho la misma visita y recibido idéntica información sobre la torre. Decía Ortega y Gasset que "hay tantas realidades como puntos de vista." Por supuesto, que esas diferencias en las conexiones neuronales se agrandarían enormemente si un individuo hubiera conocido la torre acercándose en un helicóptero, otro cruzando por su base a pié y otro hubiera subido en el ascensor hasta el "sommet". Lo sorprendente de nuestra consciencia es que todas esas percepciones o realidades subjetivas permitirían a esos individuos ser conscientes de que habían captado la misma realidad.
Hasta ahora hemos estado refiriéndonos a una realidad tangible, estática, que podemos observar desde múltiples perspectivas y de la que conocemos su composición y sus más mínimos detalles. Pero, ¿cómo concebimos una realidad que no podemos observar con la misma facilidad? ¿cómo concebimos el centro de la Tierra? ¿cómo concebimos una estrella lejana?.
En estos casos ya no son suficientes nuestros sentidos sino que tenemos valernos de instrumentos que nos permitan percibir esas otras realidades. Además, tenemos que ser conscientes de las alteraciones que esos instrumentos ejercen sobre la realidad, para que nuestra consciencia pueda corregir la información que ha recibido por los sentidos. Como decía Campoamor, ser conscientes del color del cristal con que se mira. Estos instrumentos han sido los que desde Galileo, nos han permitido hacer grandes progresos en la concepción de la realidad del universo, tanto en el aspecto macroscópico de los astros como en el aspecto microscópico de todo lo que nos rodea y de nosotros mismos.
Al principio los instrumentos fueron muy sencillos, simples telescopios o microscopios ópticos que apenas alteraban la percepción de los sentidos. Pero cuando se usaron instrumentos mas complejos la percepción de la realidad cambió radicalmente. Pensemos en el proceso de medir la velocidad con que se aleja una galaxia utilizando un espectrómetro aplicado a un telescopio. El significado de las líneas espectrales obtenidas no es nada evidente para quién no tenga los conocimientos adecuados pero a los especialistas les muestra una realidad tan válida como a quien está observando la torre Eiffel.
La que ocurre es que, la utilización de un instrumento de observación interpuesto entre la realidad y nuestros sentidos implica la necesidad de dotar al observador con una capa adicional de conocimiento que también se interponga en su cerebro y le permita interpretar (decodificar) lo que el instrumento de observación ha codificado. Esta capa adicional de conocimiento es lo que llamamos un modelo o una teoría y aunque funciona a un nivel más complejo actúa de la misma forma que, volviendo a Campoamor, cuando nos ponemos unas gafas de sol azuladas, nuestro cerebro corrige la percepción y hace que no nos sorprendamos de ver azuladas las caras de otras personas. O con otro ejemplo menos poético, cuando conectamos a un ordenador un nuevo dispositivo (hardware) tenemos también que definirle su modelo, cargando el programa (driver) que describe el funcionamiento de ese dispositivo.
La ciencia clásica se rige por los principios del realismo que establece que: a) Las propiedades del mundo están perfectamente definidas y son independientes del observador y b) Las teorías físicas describen las propiedades de diferentes aspectos del mundo real y por esa razón nuestras medidas y percepciones coinciden con la realidad. Por el contrario, los antirealistas sostienen que las teorías no son más que instrumentos útiles pero que no encarnan verdades mas profundas que trasciendan los fenómenos observados.

Hawking, en su libro "El gran diseño" adopta una perspectiva que no se identifica con ninguna de esas dos posturas anteriores y que denomina "Realismo dependiente del modelo" afirmando que no existe una realidad objetiva sino que la realidad depende del modelo elegido. Es decir, hace énfasis en el modelo por encima de la realidad, hasta tal punto que afirma que no tiene sentido preguntarse si un modelo es real o no sino que sólo tiene sentido preguntarse si el modelo concuerda o no con las observaciones. Si hay más de un modelo que concuerden con las observaciones podremos usar el modelo que nos resulte más conveniente en la situación que estamos considerando.

Podríamos replicar a Hawking que en vez de afirmar que "no existe la realidad objetiva", es mas lógico decir que "no hay forma de conocerla". Con este cambio, el resto de su razonamiento sigue teniendo sentido.
Para entender mejor el significado de estas ideas fijémonos en el enfrentamiento que surgió en el siglo XVI sobre el movimiento del Sol y los planetas. Se comparaba el antiguo modelo de Ptolomeo (siglo II), que afirmaba que la Tierra estaba inmóvil en el centro del universo, con el nuevo modelo de Copérnico, que afirmaba que el Sol estaba en reposo y eran los planetas, entre ellos la Tierra, los que giraban alrededor del Sol. Pues bien, con su idea del "Realismo dependiente del modelo", Hawking afirma que no podemos afirmar que el modelo de Ptolomeo sea erróneo y que por tanto, podemos utilizar ambas visiones como modelos del universo, ya que ambas explican correctamente nuestras observaciones del firmamento. La ventaja del sistema de Copérnico es simplemente que las ecuaciones de movimiento son mucho más simples porque utiliza como sistema de referencia el Sol que se halla en reposo.
El realismo dependiente del modelo se aplica no sólo a los modelos científicos sino también a los modelos mentales que nos creamos para interpretar el mundo cotidiano. Porque no hay manera de eliminar nuestra propia influencia de observadores de la percepción que tenemos del mundo, que está creada por nuestro procesamiento sensorial, y por la manera que pensamos y razonamos. Esto quiere decir que, nuestra percepción no es directa sino una especie de lente que es la estructura interpretativa de nuestros cerebros.
Estas ideas están de acuerdo con Kant, que decía que lo que se denomina usualmente "realidad" está "teñido" de subjetividad, y limitado a los medios de observación que el sujeto posee en su época. Esto implica que la realidad no tiene muchas posibilidades de perdurar estable. Si a nivel estadístico observamos todas las ideas que hoy en día consideramos erróneas y que en tiempos pretéritos se dieron por hecho como realidad, podemos deducir que, en tiempos futuros, la humanidad considerará errónea una buena parte de lo que hoy pensamos que es la realidad.
En resumen, la idea central es que no tenemos forma de percibir la realidad nada más que a través de un modelo. Las percepciones de la vida cotidiana se rigen por el modelo que hemos aprendido de forma natural a lo largo de la vida. Las percepciones de objetos mas complejos requieren el aprendizaje de sus correspondientes modelos. El uso de instrumentos requiere conocer los modelos específicos asociados a los mismos. Cualquier teoría física o cualquier imagen del mundo es un modelo (normalmente matemático) asociado a un conjunto de reglas que relacionan los elementos del modelo con las observaciones. Puede haber varias teorías que describan un aspecto del mundo. Una determinada teoría será tanto mejor cuanto más exactamente sea capaz de predecir las observaciones.
Juan Rojas


El fondo Cósmico de Microondas

En 1965 Arno Penzias y Robert Wilson de los laboratorios Bell de Crawford Hill estaban construyendo una antena de alta calidad para usarla en radioastronomía y comunicaciones por satélite. Cuando empezaron a hacer las primeras mediciones se quedaron perplejos por el ruido de microondas que entraba en su antena desde todas las direcciones del cielo. Revisaron minuciosamente el diseño y la construcción de la antena pero fueron incapaces de eliminar esa señal que presentaba las características de un ruido de fondo proveniente de un emisor que estaba a una temperatura de 3,5 grados Kelvin.
Hablaron con Robert Dicke de la Universidad de Princenton que les dijo que la teoría del Big Bang predecía exactamente eso. Efectivamente, en 1948 George Gamow, Ralph Alpher y Robert Hermann habían predicho que de acuerdo con la teoría del Big Bang, teniendo en cuenta la temperatura inicial del universo y lo que se había expandido, la radiación primigenia debería haberse enfriado hasta unos pocos grados Kelvin y que esa radiación debería estar inundando todo el universo. Pero los instrumentos de la época no eran capaces de detectar esa radiación.
Un encuentro entre los grupos de Princeton y Crawford Hill determinó que la señal la antena se debía efectivamente a la radiación de microondas que subsistía en el universo como remanente del Big Bang. Penzias y Wilson recibieron el Premio Nobel de Física de 1978 por este descubrimiento.
Desde entonces la radiación de fondo de microondas se ha medido en infinidad de experimentos y se comprobó que aunque las primeras mediciones indicaban que era isótropa, es decir que era igual en todas las direcciones, cuando se hicieron mediciones mas precisas se comprobó que en realidad había un determinado grado de anisotropía. Las irregularidades observadas eran muy importantes porque mostraban los grumos iniciales de materia que con el tiempo dieron lugar a las galaxias, cúmulos y supercúmulos que hoy estamos observando en el universo.

Por esta razón se han lanzado 3 satélites diseñados específicamente para hacer mediciones lo más precisas posible. Primero fue el COBE de la NASA lanzado en 1989, después fue el WMAP también de la NASA en 2001 y por último el Planck Surveyor de la Agencia Espacial Europea que fue lanzado en 2009.
La gráfica de la radiación del fondo de microondas medida por el COBE se publico en un congreso de astronomía en 1990 y se parecía tanto a la de un cuerpo negro a 3ºK que parecía mas sacada de un libro de texto que ser el resultado de una medición. Los astrónomos presentes en el congreso rompieron en aplausos espontáneamente. Desde entonces, toda la información obtenida ha dado el espaldarazo definitivo a la teoría del Big Bang de forma que la Cosmología ha   pasado de ser una teoría especulativa a una ciencia exacta.
Este fue el tema de una presentación que hice al grupo (antes de que se llamara Amicorum Concilium) el 6 de enero de 2006, a la que asistieron Juan Carlos, Emilio y Jorge (y no recuerdo si alguien más).
 La presentación en formato Power Point puede descargarse desde este enlace.

Juan Rojas

La velocidad de la luz


La luz se propaga en el vacío a la increíble velocidad de 300.000 kilómetros por segundo. Un dato que puede darnos idea de la enorme velocidad de que estamos hablando es que en un segundo la luz sería capaz de dar siete vueltas y media a La Tierra. Otro dato, La Luna se encuentra a 384.000 Kilómetros de La Tierra, por lo que la luz que sale de nuestro satélite tarda poco más de un segundo en llegar a nosotros.
Pero a pesar de la enorme velocidad de la luz, las distancias astronómicas son tan grandes, que se emplean unidades derivadas de la velocidad de la luz para especificar las distancias a los objetos celestes. Es decir, se definen las distancias diciendo el tiempo que tarda la luz en recorrerlas. De esta forma se dice que:
  • La Luna está a 1,26 segundos-luz.
  • El Sol esta a 8,33 minutos-luz.
  • Plutón está a 5,48 horas-luz del Sol.
  • La nave Pioneer-10 (lanzada en 1972) está a 1 dia-luz
  • La estrella más próxima está a 4,3 años-luz
  • El centro de nuestra galaxia está a 30.000 años-luz
  • La galaxia más próxima está a 2.000.000 años-luz
  • El objeto celeste más lejano conocido está a 12.000.000.000 años-luz
Pero si increíble es la magnitud de esa velocidad mucho más increíble es la propiedad fundamental que tiene y que consiste en lo siguiente. Cuando medimos la velocidad de la luz (en el vacío) nos encontramos con que siempre obtenemos el mismo resultado expresado anteriormente, es decir 300.000 Km/s, independientemente del movimiento que tenga quién haga la medición. Es decir, la medición no se verá afectada por el hecho de que, quién está midiendo la velocidad de la luz se esté acercando o alejando del lugar de dónde viene la luz. Y es independiente de la velocidad con que se acerque o se aleje de ese lugar.
Este sorprendente hecho se conoce desde finales del siglo XIX y desde entonces se ha comprobado experimentalmente infinidad de veces, en todas las circunstancias posibles y por multitud de científicos de los más diversos países. Aunque al principio trajo de cabeza a la comunidad científica de la época, hoy es un hecho totalmente aceptado desde que en 1905 Albert Einstein publicara sus primeros trabajos de la Teoría de La Relatividad Especial. Con esto corregía ciertas leyes de la física que se consideraban incuestionables desde 1687 en que las estableció Isaac Newton.
Para explicar más la rareza de esta propiedad de la luz veamos los siguientes ejemplos. Primero vamos a ver que ocurre cuando se miden velocidades de objetos normales con instrumentos también normales. Supongamos que un coche de policía que circula a 80 Km/h se cruza con otro vehículo que circula en dirección contraria a 120 Km/h. Si un poco antes de cruzarse, desde el parabrisas del coche de policía se mide con un radar la velocidad del otro vehículo, la lectura será de 200 Km/h, pues es la suma de las velocidades (80 y 120) de los vehículos que circulan en sentidos contrarios. Por el contrario, si el radar se dirige por la ventana trasera hacia un vehículo que se acerca desde atrás, también a 120 Km/h, la lectura será de 40 Km/h, que es la diferencia de las velocidades (120 y 80) de los dos vehículos que circulan en la misma dirección.
Contrastemos ahora estos resultados con los obtenidos en otra situación en la que se mide la velocidad de la luz desde una nave espacial viaja hacia una estrella. La nave va a la velocidad de 40.000 Km/s y se propone medir, desde la ventana delantera de la nave, la velocidad de la luz que viene de esa estrella. Utilizando el criterio aplicado en él radar de policía, alguien que no supiera la propiedad de la luz, podría presuponer que iba a medir 340.000 Km/s, que es la suma de los 300.000 Km/s a la que viene la luz desde la estrella y los 40.000 Km/s con que la nave se acerca a dicha estrella. Sin embargo, se encontrará con la sorpresa de que la medición dará como resultado 300.000 Km/s. Sin que esto suponga que la medición se ha hecho incorrectamente.
Si se da la vuelta al aparato de medida, y a través de la ventana trasera de la nave se midiera la velocidad de la luz que llega desde una estrella de la que se está alejando, la medición sería de nuevo 300.000 Km/s y no los 260.000 Km/s que podría suponer quién aplicara la regla de la resta (300.000 - 40.000) que se utilizó válidamente en el caso del coche de policía.
Una vez entendida y aceptada como verdadera esta propiedad de la luz, la postura de los científicos es la de enunciarla rigurosamente,  expresarla matemáticamente y extraer conclusiones. Esto es exactamente lo que hizo Albert Einstein cuando en 1905 publicó lo que se conoce como la Teoría de la Relatividad Especial.
En contra de nuestra intuición y de las leyes de la física conocidas hasta ese momento (las leyes de Newton), de esta teoría se deducen cosas tan sorprendentes como que dos observadores que se muevan uno respecto a otro tendrán distintas percepciones de la longitud de los objetos, de la celeridad con que transcurre el tiempo y de la simultaneidad de los sucesos.
Y por último, otra sorprendente conclusión de la Relatividad. No hay nada en la naturaleza que pueda desplazarse a más velocidad que la luz, ni material, ni inmaterial. Ninguna nave, ningún objeto, ninguna partícula, ninguna onda, ninguna información puede viajar a más de 300.000 kilómetros por segundo. Bueno, en realidad la velocidad de la luz en el vacío es exactamente 299.792 kilómetros y 458 metros por segundo, pero es costumbre redondear ese valor a la cifra exacta de 300.000 que es más fácil de recordar y de expresar.
Juan Rojas

Acceso remoto


Estoy descubriendo el programa multiplataforma TEAMVIEWER que es ideal para controlar desde una unica pantalla varios ordenadores aunque estén en localidades diferentes.

Cuando sepa más os lo contaré.

Es un software libre para uso privado

Se puede obtener en www.teamviewer.com

martes, 15 de febrero de 2011

Reunión: Síntesis de proteinas

Los días 7 y 14 de Febrero - en la casa de Jorge -  Juan Carlos Mendoza ha presentado el tema "Sintesis de Proteinas".

El material se puede obtener en pdf (que ocupa menos) o en ppt.