sábado, 24 de marzo de 2007

Esta madrugada adelantaremos los relojes una hora

Esta madrugada, a las 02.00 horas, comienza el horario de verano y los relojes deberán adelantarse 60 minutos, es decir, serán las 03.00 horas, con lo que desde este domingo amanecerá más tarde y oscurecerá más tarde también.

Los relojes se adelantarán en cumplimiento de la Directiva Comunitaria que rige el denominado Cambio de Hora, incorporada al ordenamiento jurídico español por Real Decreto 236/2002, de 1 de marzo, con el objetivo de lograr el ahorro energético.

Según estimaciones del IDAE (Instituto para la Diversificación y Ahorro de la Energía), el ahorro en iluminación en el sector doméstico por el cambio de hora durante los meses que éste tiene efecto -desde final de marzo hasta final de octubre- puede representar en España un 5%.

El cambio de hora comenzó a generalizarse, aunque de manera desigual, a partir de 1974, cuando se produjo la primera crisis del petróleo y algunos países decidieron adelantar sus relojes para aprovechar mejor la luz del sol y consumir menos electricidad en iluminación.

En aplicación de la IX directiva, desde 2002 la hora de verano comienza en todos los Estados europeos a la una de la madrugada hora universal, dos de la madrugada en España, del último domingo de marzo.

Asimismo, el periodo de la hora de verano terminará a las dos de la madrugada hora universal, tres de la madrugada en España, del último domingo de octubre, cuando pasarán a ser las dos de la madrugada.

El Sol es mucho más 'turbulento y dinámico' de lo que se sabía

La Agencia espacial estadounidense (NASA) difundió hoy una serie de imágenes nunca vistas que muestran que el campo magnético del Sol es mucho más "turbulento" y "dinámico" de lo que se sabía en un principio.

Las imágenes fueron tomadas por la sonda internacional "Hinode" (amanecer en japonés), antes conocida como "Solar B", informó hoy en un comunicado la NASA.

"Hinode" fue lanzada el 23 de septiembre de 2006 para estudiar el campo magnético del Sol y cómo su energía explosiva se propaga a través de las distintas capas de la atmósfera solar.

Estas observaciones ininterrumpidas de alta resolución del Sol tendrán un impacto sobre la física solar comparable al del telescopio "Hubble" sobre la astronomía, según la NASA.

Estas imágenes abrirán "una nueva era de estudio sobre algunos de los procesos del Sol que afecta a la Tierra, los astronautas, los satélites en órbita y el sistema solar", agregó Fisher.

La sonda lleva a bordo tres instrumentos que le permiten analizar las diferentes capas del Sol: el Telescopio Solar Optico (SOT en inglés); el Telescopio de Rayos-X (XRT en inglés) y el Espectrógrafo de Imágenes en el Ultravioleta Extremo (EIS).

"Mediante la coordinación de las medidas registradas por los tres instrumentos, 'Hinode' muestra cómo los cambios en la estructura del campo magnético y la emisión de energía magnética en la atmósfera baja se extienden por la corona y el espacio interplanetario para crear el clima espacial", subrayó John Davis, científico de la NASA del centro espacial Marshall de Huntsville (Alabama).

El clima espacial implica la producción de partículas energéticas y emisiones de radiación electromagnética. Estos estallidos de energía pueden bloquear las comunicaciones a larga distancia en continentes enteros e interrumpir algunos sistemas de navegación globales.

La misión de la sonda "Hinode" es un proyecto conjunto de la Agencia de Exploración Aeroespacial de Japón (JAXA); el Observatorio Nacional de Japón (NAOJ); el Consejo de Investigación en Física de Partículas y Astronomía (PPARC) del Reino Unido y la NASA.

Nuevo espejo para la óptica de alto rendimiento

Han creado un nuevo espejo de alto rendimiento que podría mejorar espectacularmente el diseño y la eficiencia de la próxima generación de dispositivos que dependen de la óptica láser, incluyendo reproductores de DVD de alta definición, circuitos avanzados de ordenador, e impresoras láser.
Foto: Michael Huang/UC Berkeley
El nuevo espejo, obra de ingenieros de la Universidad de California en Berkeley, es por lo menos 20 veces más delgado que los empleados en los sistemas convencionales, resulta funcional en un espectro considerablemente más amplio de frecuencias de luz, y es más fácil de fabricar. Todas estas características presentan ventajas críticas para los actuales dispositivos ópticos integrados, cada vez más pequeños.

Connie J. Chang-Hasnain, directora del Centro de Tecnologías para Semiconductores Optoelectrónicos Nanoestructurados, desarrolló el espejo superdelgado, el HCG, con sus colaboradores Michael Huang y Ye Zhou.

Los láseres semiconductores de hoy exigen espejos que puedan brindar una alta reflectividad, pero sin que presenten grandes espesores. Cuando se reduce el espesor de un espejo, se está reduciendo significativamente la masa del dispositivo, lo que se traduce en una disminución del consumo de energía. El nuevo espejo supera las barreras que han mantenido detenido el avance de ciertos láseres.

Las primeras versiones de los láseres semiconductores usaron espejos de cristal que presentaban una capacidad de reflexión de no más del 30 por ciento. Un índice de reflectividad tan bajo es demasiado ineficiente para los láseres VCSEL empleados en las comunicaciones ópticas de corto alcance, los ratones ópticos para ordenadores, y otras aplicaciones que requieran bajo consumo de energía. Por sus especiales características, los VCSEL necesitan ya de por sí un espejo con muy alta capacidad de reflexión.

Se puede lograr una alta reflectividad con los espejos DBR, ya que pueden reflejar hasta el 99,9 por ciento de la luz. Pero se requieren hasta 80 capas de material para lograr esta alta reflectividad. El DBR acaba resultando bastante grueso, con espesores de hasta unos 5 micrómetros. También se necesita una alta precisión para producir las capas, lo que requiere de un proceso industrial complicado.

El nuevo espejo es más delgado y será más fácil de fabricar, lo que mantendrá bajos los costos.

En sus experimentos, los investigadores han confirmado que el HCG es capaz de proporcionar una reflectividad mayor del 99,9 por ciento.

El espejo HCG supera muchas de las barreras que habían retardado el avance de la investigación con los VCSEL. Además de ser más delgado, tiene la ventaja de funcionar en un rango más amplio de frecuencias de luz.

El último atributo es particularmente importante, ya que las tecnologías de discos ópticos emplean cada vez más los láseres de luz azul-violeta, que operan en longitudes de onda mucho más cortas que el láser rojo. Las longitudes de onda más cortas hacen posible el enfoque en unidades más pequeñas, permitiendo el almacenamiento de datos con densidades significativamente más altas.

Los ingenieros también estudian aplicaciones para espejos HCG móviles en los sistemas microelectromecánicos (MEMS).

Puede que sea posible imprimir este espejo sobre varias superficies y quizás un día se usen para crear pantallas plásticas orgánicas que puedan enrollarse para su más fácil transporte.

Existe una amplia gama de productos basados en la óptica del láser que podrían beneficiarse con este delgado espejo. Estos incluyen diodos emisores de luz, dispositivos fotovoltaicos, sensores, chips de ordenador y equipos de telecomunicaciones.

Información adicional en:

Modelo sísmico 3D revela un vasto depósito de agua subterránea

El primer modelo tridimensional de ondas sísmicas atenuándose en las profundidades del manto terrestre ha revelado la existencia de un inmenso depósito de agua, con un volumen de al menos el del Océano Ártico. Ésta es la primera evidencia de agua presente a gran profundidad en el manto.
Foto: Eric Chou
Michael E. Wysession, profesor de ciencias planetarias y terrestres en la Universidad de Washington, y Jesse Lawrence (ahora en la Universidad de California en San Diego) analizaron 80.000 ondas de corte de más de 600.000 sismogramas; encontrando un área extensa en el manto inferior terrestre debajo de Asia donde hay agua atenuando las ondas sísmicas de los terremotos.

El método tradicional usado por los sismólogos para describir el interior de la Tierra consiste en medir la velocidad de las ondas sísmicas. Esto proporciona algo parecido a una tomografía computerizada del núcleo y manto terrestres. Sin embargo, usar sólo la velocidad de las ondas es un problema, pues no es posible distinguir entre variaciones de temperatura y de composición.

Un método de creciente popularidad, el usado por Wysession, consiste en analizar cómo se atenúan las ondas desde la fuente. Si tomásemos un martillo y golpeáramos con fuerza una mesa, las ondas viajarían desde el punto de impacto hasta el extremo de la misma, pero su amplitud se vería disminuida por la masa de la mesa. Un objeto cerca del impacto podría tumbarse, pero uno ubicado a medio metro quizá ni se movería. Los datos de atenuación dicen a los sismólogos cuán rígida es una región, lo cual va en función de su temperatura y de su contenido de agua. Observar conjuntamente las velocidades de onda y su atenuación puede ayudar a distinguir si una anomalía se debe a la temperatura o al contenido de agua.

Al analizar los datos, los investigadores primero observaron grandes patrones asociados con áreas conocidas donde el suelo oceánico se hunde hacia el manto. Debajo de Asia, el piso oceánico subducido del Pacífico se apila en la base del manto. Justo encima de esta región, observaron una zona de muy alta atenuación, con patrones que concuerdan muy bien con las predicciones sobre contenido de agua.

Las predicciones previas calcularon que un bloque de suelo oceánico frío hundiéndose en la Tierra a unos 1.200 a 1.400 kilómetros bajo la superficie liberaría el agua en la roca, y que dicha agua ascendería hasta una región superior, pero ello nunca se había observado previamente.

Esto es exactamente lo que los autores del nuevo estudio muestran. Lo llaman la Anomalía de Beijing. El agua dentro de la roca se hunde junto con el bloque y está razonablemente fría, pero se calienta conforme se hunde. La roca se vuelve inestable y pierde el agua. Ésta se eleva entonces a la región ubicada por encima, que se satura de agua.

Información adicional en:

Bacterias marinas con un "motor" híbrido

Lo que se consideró un avance muy innovador en la industria automovilística hace unos cinco años, fue en realidad una reedición de una vieja y exitosa historia de la Naturaleza que se remonta a muchísimo tiempo atrás: la capacidad de emplear una mezcla de diferentes fuentes de energía.
Foto: MPI/D. Todd
Algunos organismos como las plantas y las algas verdes dependen de la luz y el dióxido de carbono, mientras otros, como los animales y los hongos, necesitan de una nutrición compleja (proteínas y carbohidratos). E incluso algunos pueden emplear mezclas de fuentes de energía. Estos últimos son capaces de compensar bajos suministros de nutrientes mediante la estrategia de activar sus fotorreceptores. Esta capacidad (la fotoheterotrofía) parece ser bastante común entre las bacterias marinas. Investigadores del Instituto Max Planck y sus colegas de Alemania y Estados Unidos analizaron el genoma de una nueva bacteria marina y encontraron en ella los genes que codifican el empleo de la energía lumínica.

Los fotoheterótrofos son muy abundantes y representan tanto como el 10 por ciento del plancton marino. Recientemente, unos microbiólogos marinos del Max Planck estudiaron más de cerca el genoma de una de las bacterias comunes encontradas en las regiones costeras de muchas partes del mundo. La especie se denomina Congregibacter litoralis KT71, y fue aislada por primera vez de una muestra tomada en aguas cercanas a la isla alemana de Helgoland.

Los experimentos de cultivo mostraron que la KT71 es heterótrofa y depende de fuentes de carbono como azúcares y pequeños péptidos. Después de analizar los datos genómicos aportados por el Instituto Craig Venter en Estados Unidos, los investigadores quedaron muy sorprendidos al encontrar todos los genes para la fotosíntesis bacteriana. La KT71 no está pigmentada como otras bacterias fotosintéticas, y por lo tanto surgió la gran pregunta: ¿Realmente emplea la KT71 la fotosíntesis?

Los expertos del laboratorio de la Colección Alemana de Microorganismos y Cultivos Celulares (DSMZ, por sus siglas en alemán), pudieron mostrar que cuando sus nutrientes escasean, la KT71 crece mejor con luz. Los científicos asumen que la bacteria pasa de la combustión del carbono orgánico al sistema fotovoltaico, dependiendo de las condiciones ambientales. Durante períodos de hambruna, la KT71 puede también depender de nutrientes almacenados en su interior. La KT71 en cultivos generalmente forma agregados y prefiere bajas concentraciones de oxígeno para crecer.

Información adicional en:

El origen de las galaxias más oscuras del Universo

Galaxias hechas casi por completo de materia oscura están diseminadas entre las normales, aunque por sus singulares características no sea fácil detectarlas. Ahora se ha propuesto un modelo teórico que explica, al menos en parte, su enigmático origen.
Foto: Stanford U.
Estas galaxias fantasmales están esparcidas por el universo. Diferentes a las normales, estos sistemas extremos contienen muy pocas estrellas y están casi desprovistos de gas. La mayor parte de la materia luminosa, tan común en la mayoría de las galaxias, ha sido arrancada de ellas, dejando sólo una "sombra" de materia oscura. Estas intrigantes galaxias (conocidas como enanas esferoidales) son tan tenues en brillo que, aunque los investigadores creen que existen en todo el universo, sólo aquellas lo bastante cerca de la Tierra han sido observadas hasta ahora. Y hasta hace poco no se había propuesto ningún modelo científico sobre su origen que pudiera explicar simultáneamente su excepcional contenido de materia oscura y su propensión a existir sólo en la proximidad de galaxias mucho más grandes.

Ahora, Stelios Kazantzidis (de Instituto Kavli para la Astrofísica de las Partículas y la Cosmología, en la Universidad de Stanford), Lucio Mayer (de la Universidad de Zurich, en Suiza), Chiara Mastropietro (de la Universidad de Munich en Alemania) y James Wadsley (de la Universidad McMaster en Canadá) han desarrollado una explicación de cómo una galaxia llega a ser dominada por la materia oscura.

Usando supercomputadoras para crear nuevas simulaciones de la formación de galaxias, Kazantzidis y sus colaboradores encontraron que una galaxia dominada por la materia oscura empieza su vida como un sistema normal. Pero cuando se acerca a una galaxia mucho más masiva, se topa simultáneamente con tres efectos ambientales (la presión, una marea gravitatoria a gran escala y el fondo cósmico ultravioleta) que la acaban dejando integrada casi exclusivamente por materia oscura.

Hace unos diez mil millones años, cuando los progenitores ricos en gas de las galaxias dominadas por la materia oscura entraron inicialmente en la Vía Láctea, el universo estaba caliente por una radiación denominada fondo cósmico ultravioleta. A medida que una pequeña galaxia satélite viajaba a lo largo de su camino elíptico alrededor de una galaxia mucho más masiva, esta radiación hacía que los gases dentro de la galaxia más pequeña se calentaran mucho más. Este estado permitía que un efecto de presión, comparable en cierto modo al roce que un objeto experimenta cuando se mueve a gran velocidad a través de la atmósfera o cuando al estar inmóvil lo araña un viento pertinaz, "erosionase" a la galaxia satélite en su trayecto, despojándola de su gas.

Simultáneamente, a medida que la galaxia satélite se movía más cerca del sistema masivo, soportaba la creciente y abrumadora fuerza gravitatoria de la masa mucho mayor de la galaxia principal. Esta fuerza arrancaba las estrellas luminosas de la galaxia más pequeña. Con el transcurso de miles de millones de años, la galaxia satélite pasaba varias veces muy cerca de la galaxia masiva. En cada ocasión, sus estrellas sufrían los efectos del fuerte tirón gravitatorio de la pesada galaxia vecina, y la galaxia satélite perdía parte de ellas. El proceso acababa despojando a la galaxia satélite de casi toda su materia luminosa (gas y estrellas) y dejaba sólo una "sombra" de materia oscura de la galaxia original.

La materia oscura, como resulta deducible, no era gaseosa y por consiguiente no le afectaba la fuerza de presión ni el fondo cósmico ultravioleta. Experimentó el tirón gravitatorio, pero esta fuerza no bastaba para extraer una cantidad sustancial de materia oscura.

Información adicional en:

lunes, 19 de marzo de 2007

WMP, el nuevo formato de compresión de imágenes de Microsoft

Será compatible para Windows Vista y XP. Lo consideran inteligente, ya que comprime sólo algunas partes de la imágen. A igual proporción de compresión obtiene mejor calidad que el JPG y la mitad de su peso.

En el marco de la conferencia WinHEC, Microsoft anunció detalles de su propio formato de comprensión de imágenes, WMP (Windows Media Photo), que será compatible con Vista y con Windows XP.

Bill Crow, responsable del desarrollo del sistema de compresión, mostró imágenes comprimidas en formato 24:1 con Windows Media Photo que ofrecían más detalles que las mismas comprimidas en JPEG, según informa CNET. Microsoft asegura que puede ofrecer imágenes con la misma calidad que el JPEG en la mitad de espacio.

Microsoft calificó a este formato de inteligente, porque permite comprimir sólo algunas partes de la imagen.

sábado, 17 de marzo de 2007

Los videojuegos de acción agudizan la visión hasta un 20%

Los videojuegos que contienen altos niveles de acción, como por ejemplo el "Unreal Tournament", pueden mejorar la visión del jugador, según desvela un estudio.

Los investigadores, en la Universidad de Rochester, han demostrado que la gente que utilizó videojuegos de acción una hora diaria a lo largo de un mes, mejoró cerca de un 20 por ciento su capacidad de identificar letras presentadas de forma caótica, una prueba de agudeza visual similar a una de las usadas en clínicas oftalmológicas.

"Los videojuegos de acción cambian la manera en que nuestra información visual es procesada en el cerebro", afirma Daphne Bavelier, profesora de ciencias cognitivas y del cerebro en la Universidad de Rochester. Después de apenas 30 horas, los jugadores demostraron un aumento substancial en la resolución espacial de su visión, lo que significa que podían por ejemplo reconocer con más eficiencia letras presentadas boca abajo, aún con la interferencia de otros símbolos cercanos.

Bavelier y Shawn Green analizaron a estudiantes universitarios que habían jugado muy poco o incluso nada con videojuegos en el último año.

Para empezar, los estudiantes se sometieron a una prueba de identificación visual, la cual midió su eficacia en discernir con rapidez la orientación de una "T" dentro de un conjunto de otros símbolos, que tendían a distraer su atención y a entorpecer la identificación deseada. Entonces, los investigadores dividieron a los estudiantes en dos grupos. El grupo experimental jugó con el Unreal Tournament, un videojuego de acción en primera persona, cerca de una hora diaria. El grupo de control jugó con el Tetris, un juego que es igualmente exigente en términos de reflejos y destreza de movimientos, pero visualmente menos complejo.

Después de jugar diariamente durante cerca de un mes, los jugadores de Tetris no demostraron ninguna mejoría en la prueba de destreza ocular, pero los jugadores del Unreal Tournament podían decir de qué manera estaba orientada la "T" mucho más eficientemente que en su primera prueba hecha apenas un mes antes.

"Cuando la gente juega con videojuegos de acción, están reconfigurando la vía cerebral responsable del proceso visual", explica Bavelier. "Estos videojuegos empujan al sistema visual humano hasta sus límites, y el cerebro se adapta a él. Y lo que el jugador aprende, lo traslada a otras actividades y posiblemente a la vida cotidiana".

La mejora fue patente desde dos vertientes: en la parte del campo de visión que los jugadores suelen utilizar para jugar, pero también más allá, en la región del campo visual ubicada fuera del monitor. La visión de los estudiantes mejoró en el centro de su campo visual, pero también en la periferia de éste, en la cual no habían sido "entrenados". Esto sugiere que la gente con déficits visuales también puede conseguir un aumento en su agudeza visual con un software especial para rehabilitación que reproduzca la necesidad de identificar objetos muy rápidamente como en los videojuegos de acción. Información adicional en:

jueves, 15 de marzo de 2007

Si no lo veo, no lo creo

Por norma general estamos muy seguros de que la realidad es tal y como la perciben nuestros sentidos. ¿Pero podemos estar seguros de ello? La respuesta, por sorprendente que pueda parecer, es que no podemos estar tan seguros. A veces, nuestros cerebros pueden engañarnos.

Todos o casi todos en algún momento de nuestras vidas hemos hecho uso de la sentencia "si no lo veo, no lo creo", y aunque parece un buen principio, voy a tratar de probar que poner tanta fe en nuestros sentidos, en especial sobre nuestro sistema visual, puede llevarnos a creer en cosas erróneas. Para ello voy a utilizar un par de ejemplos típicos, pero no por ello menos ilustrativos.

No sé si se habrán fijado alguna vez en la Luna cuando está a poca altura sobre el horizonte. Ésta parece de un tamaño mucho mayor del que parece tener cuando está sobre nuestras cabezas. ¿Será que la Luna se acerca y se aleja? ¿Acaso no es eso lo que vemos? Pero si antes de creer que lo que vemos es una representación perfecta de la realidad, nos paramos y reflexionamos, descubriremos que nuestros cerebros nos engañan. Fíjense en la figura que mostramos a continuación.

Según nuestra experiencia, alguien situado en el punto A verá la Luna muy cerca del horizonte y por lo tanto de un tamaño grande. En cambio, alguien situado en B tendrá la Luna sobre su cabeza y por lo tanto, la verá de un tamaño más pequeño. Pero claro, es bastante probable que haya personas a la vez en A y en B, y como es lógico, la Luna no puede estar a la vez cerca y lejos de la Tierra. Entonces, ¿qué esta sucediendo?



El cerebro computa que la Luna está a la misma distancia que nuestro horizonte, el cual, por cuestión de perspectiva, nos parece más lejano que el cenit





Lo que sucede es que nuestros cerebros son incapaces de interpretar de forma correcta las señales que provienen de nuestros ojos. Cuando la Luna está cerca del horizonte y miramos hacia ella, en nuestro campo visual además de la propia Luna, tenemos; montañas, edificios, árboles etc. Nuestro cerebro no es capaz de discernir que la Luna y el resto de los objetos están a distintas distancias. De hecho, el cerebro computa que la Luna está a la misma distancia que nuestro horizonte, el cual, por cuestión de perspectiva, nos parece más lejano que el cenit, es decir, el punto que está sobre nuestras cabezas. Si a esto añadimos que el diámetro de la Luna es el mismo en ambos casos, obtenemos que nuestro cerebro interpreta que la Luna sobre el horizonte es mucho más grande que la Luna en el cenit.

La siguiente experiencia es también cotidiana y seguramente la han experimentado. De no ser así, pueden probarla cuando acaben de leer este artículo. La experiencia en cuestión consiste en girar sobre uno mismo más o menos rápido. Cuando se acaba de girar se tiene esa sensación de mareo y curiosamente uno ve como la pared que tiene enfrente gira en sentido contrario a como la veía cuando estaba girando.

Esto se debe a que el cerebro, a través de los ojos, percibe que la pared está quieta, en cambio el liquido de los canales semicirculares de los oídos sigue moviéndose por la inercia. Así pues, el cerebro recibe dos informaciones contradictorias. Por un lado, los oídos le dicen que sigue girando y por otro, que ha dejado de hacerlo. Lo que hace el cerebro para interpretar esta discrepancia es construir una imagen que gira en sentido contrario a como la hacía antes. ¿Por qué? Porque por un lado, nuestros sentidos le comunican que todavía está girando y por otro, le dicen que la pared está quieta. Lo que interpreta es que está girando en sentido contrario al anterior y construye la imagen en consecuencia a ello.

Estos simples ejemplos prueban que nuestra fe en nuestros sentidos es injustificada. Hay que tener cuidado, pues no siempre coincide lo que interpreta el cerebro con la realidad objetiva. Así ante la pregunta de; ¿ver para creer? Bueno, no siempre es suficiente.



Enlaces:

¿Qué es el infinito?

¿Qué es el infinito? ¿El número de granos de arena de una playa, o el de estrellas que vemos en el cielo? En realidad, semejantes cifras no están más cerca del infinito que otras más modestas como 2, 15 ó 3.089.

El gran matemático David Hilbert (en la imagen) ponía como ejemplo un hotel de infinitas habitaciones y un viajero que llega ve en la puerta el cartel que dice "completo". El conserje dice que el ocupante de la habitación 1 se mude a la 2, el de la 2 a la 3 y así sucesivamente. Así, la habitación 1 queda vacía; todos los ocupantes del hotel tienen, como antes, una habitación, y el hotel seguirá, también como antes, completo.

Ahora supongamos que en vez de llegar un solo viajero, llegaran infinitos. El conserje, esta vez, dice que el ocupante de una habitación se meta en la del doble de su valor (1 a la 2, 2 a la 4, 3 a la 6 ...). Ahora nos quedarán todas las habitaciones impares libres ... ¡infinitas! ¡y tan infinitas como antes!! El particular comportamiento del hotel de Hilbert es apenas una pequeña anomalía que se presenta al operar con el infinito.

El secreto está en la numeración de los huéspedes y las habitaciones. Por ejemplo, si ponemos 1,2,3, ... infinito (las habitaciones) y escribimos sobre ellos los pares (los huéspedes), tenemos:

2 4 6 8 10 12 ...
1 2 3 4 5 6 ...

Dada cualquier habitación conocemos el huésped que la ocupa. Y viceversa: dado cualquier huésped, sabemos qué habitación tiene. El infinito de los números positivos es el mismo que el de los pares. Lo mismo sucede con los negativos:

1 -1 2 -2 3 -3 4 -4
1 2 3 4 5 6 7 8

Así, al huésped 20 le correspondería la habitación 39 y al -20 la 40. A la habitación 50 le corresponde el huésped -25 y a la 49 el 25; por tanto, el infinito de los números positivos es el mismo que el de los números positivos y negativos.

Esto, que se puede demostrar incluso con fracciones, deja de ser válido con los números irracionales (pi, raíz de 2, etc). Por tanto, el infinito de los números irracionales es más grande que el infinito de los números positivos. Nunca podríamos llenar el hotel de Hilbert con un número infinito de huéspedes con etiquetas irracionales.

Superconductividad: ¿qué es y cómo funciona?

Por José A. Rodríguez.- La superconductividad nos evoca objetos levitando entre la bruma generada por el nitrógeno líquido evaporándose y a materiales con poderes electromagnéticos sorprendentes. ¿Pero exactamente qué es y como funciona? ¿qué es lo que hace que un material sea superconductor y que propiedades físicas tiene?

¿Qué es un superconductor?

Para la física, un material superconductor es cualquiera que cumpla las dos siguientes características:

1.- Conductor ideal: Que no ofrezca resistencia a la circulación de corrientes eléctricas. Los conductores normales tienen pérdidas cuando tienen corrientes en su interior. Las redes eléctricas que recorren grandes distancias, como las que unen las centrales eléctricas con las ciudades, tienen pérdidas importantes.
2.- Diamagnetismo perfecto: Dentro de un material diamagnético el campo magnético tiene una intensidad algo más pequeña que en el exterior. En un superconductor el efecto del diamagnetismo es tan fuerte que apantalla el campo magnético; es decir, dentro de un superconductor nunca penetra el campo magnético.

¿Porqué se produce la superconductividad?

La teoría clásica que explica los superconductores es la llamada BCS (teoría Bardeen, Cooper y Schrieffer, de 1957). Los electrones, por el principio de exclusión de Pauli, al tener espin 1/2 no pueden estar en el mismo estado energético, pero en los superconductores se produce el siguiente fenómeno: dos electrones se aparejan a través de una vibración de la red, formando los llamados pares de Cooper. Estos pares de Cooper tienen spin entero, es decir, no sufren el principio de exclusión y pueden estar todos en el mismo estado energético. A bajas temperaturas la mayoría de pares se alinean en el estado de mínima energía. Por ello, si se dan las condiciones de acoplamiento y si existe una distancia energética entre los estados de más baja energía y los de más alta (el llamado “gap” energético) se produce el comportamiento superconductor.

Al introducir un campo eléctrico, los pares de Cooper se trasladan sin resistencia y sin oponerla por todo el medio superconductor: la corriente se mueve sin ninguna oposición como en un conductor perfecto. Al tener campos externos, el superconductor se comportará de manera que evitará que haya ninguna corriente inducida en su interior, por lo que el campo es nulo en su interior.

¿Cuál es el límite del comportamiento superconductor?

Este es el aspecto más importante de la investigación actual sobre superconductividad. La superconductividad no es eterna. De hecho, los pares de Cooper pueden romperse con facilidad por la vibración térmica, ya que dependen de las vibraciones de la red para formarse, y el gap puede ser cruzado también al aumentar la temperatura. Por ello, hay una temperatura límite, llamada Temperatura crítica (Tc), a partir de la cuál, el material deja de ser superconductor.

El material superconductor también puede dejar de serlo si se supera un cierto valor del campo magnético externo. Para todo el rango de temperaturas existe un campo magnético externo límite en el cuál la superconductividad se pierde. Aquí el comportamiento difiere en 2 tipos:

Superconductor tipo 1: Una vez superado el campo crítico se comportan como un material ferromagnético normal y corriente... y como conductor normal.

Superconductor tipo 2: Una vez superado el campo magnético crítico, pierden el diamagnetismo perfecto pero no completamente. A medida que aumentamos el campo externo el apantallamiento en el interior del superconductor va disminuyendo progresivamente hasta alcanzar un segundo campo magnético crítico a partir del cuál se comporta como un diamagnético normal y corriente.

Tipos de superconductor

Este es el aspecto más apasionante de la investigación de última línea sobre superconductividad. El objetivo es conseguir superconductores de Tc alta. Según la teoría BCS el límite “natural” para la Tc está sobre los 40 grados Kelvin (K).

Hay 3 familias de materiales superconductores:

- Metales como el Mercurio (Hg), Plomo (Pb), Niobio (Nb) o aleaciones metálicas como el NbN, Nb3Sn o el Nb3Ge, todos por debajo de los 30 K de Tc.

- Óxidos y en especial los óxidos de Cobre tipo capas “CuO2”, donde encontraríamos el máximo en el HgBa2Ca2Cu3O8 (Tc = 134 K, a presión de 1 atm. y Tc = 165 K en altas presiones).

- Materiales y cristales orgánicos con dopaje de portadores eléctricos (cristales de 60 moléculas de Carbono) donde se alcanzan hasta los 53 K de Tc.

Si el modelo de pares de Cooper BCS tiene un máximo en los 40K, ¿cómo explicar la superconductividad de alta temperatura ligadas a las capas CuO2? Todavía no se sabe, pero comienzan a aparecer algunas explicaciones. Por ejemplo, las capas de CuO2 permiten tener un “reservoir” de carga en su interior que son una especie de “reserva de carga” infinita ante campos de intensidad normal. En este caso la superconductividad no nacería del par Cooper, sino de la interacción capa a capa. De hecho, la superconductividad en este modelo sólo se daría en las capas de CuO2 y no en el conjunto de todo el cristal. Sin embargo, este es un tema que aún está por resolver y produce mucha literatura de investigación en los Physical Review.


Respecto a la superconductividad, también se están investigando ahora los vórtices magnéticos en los superconductores tipo II, nanotubos de superconductores y otras cuestiones avanzadas que van mucho más allá de la intención de este artículo de divulgación.


BIBLIOGRAFIA:
- Superconductivitat, reptes científics, Revista de Física, 2002

Súper ordenadores con leyes cuánticas

El ordenador más potente del mundo es 100 mil veces más rápido que una PC. Pero incluso ese potente ordenador será una sombra pálida al lado de la increíble capacidad de cómputo del futuro ordenador cuántico. Esta máquina que parece salir de la ciencia ficción será tan asombrosa que incluso lleva a algunos científicos a hablar de universos paralelos.


¿Una tortuga puede estar boca abajo y boca arriba al mismo tiempo? Si la tortuga en cuestión experimentase las leyes de la mecánica cuántica, sí. Pero la tortuga es demasiado grande, lenta y mala para hacer cálculos. Todo lo contrario de los microchips.


Las leyes de la cuántica no están al alcance
de las tortugas. (Fuente: smartplanet)

El poder de la computación aumenta en la medida en que los microchips se hacen cada vez más pequeños. Según los expertos, restan unos diez años de ir haciéndolos cada vez más “micro”. A este ritmo, llegaremos a un límite en el que los chips dejarán de funcionar: el umbral cuántico.

Los componentes informáticos más modernos alcanzan tamaños de unos pocos cientos de nanómetros (un nanómetro es la millonésima parte de un milímetro). Si se redujeran sus dimensiones a unas decenas de nanómetros, los chips dejarían de funcionar por el surgimiento de fenómenos cuánticos como por ejemplo el efecto túnel.

Volvamos a la tortuga: si la encerramos en una caja, no podrá salir a menos que le abramos una puerta. Recuerda que la tortuga no es cuántica. Pero un electrón sí lo es. Es a la vez una partícula y una onda. Por ello, por más que esté confinado en un espacio, podría aparecer fuera de él sin que hubiese puertas.


El efecto túnel. (Fuente: Universidad de Kyoto)

En su interior, un chip tiene muchísimos canales con puertas que dan paso a impulsos eléctricos o los detienen. Con un tamaño de decenas de nanómetros, los electrones que circulan por el chip experimentarían el efecto túnel y se escaparían a la contención de puertas y canales. Consecuencia: el chip no funciona.

Un impulso eléctrico que pasa por una puerta abierta dentro del chip es un “sí” o un 1 y una puerta cerrada es un “no” o un 0. Es lo que se llama un “bit”, acrónimo de binary unit o binary digit (unidad binaria o dígito binario), la unidad más básica de información posible en la computación. Por lo tanto, un bit sólo puede presentar uno de dos estados posibles: sí o no, 1 ó 0, tortuga patas arriba o tortuga patas abajo.

Es la puerta la que define el estado del bit. Si el impulso pasa, es un 1; si no pasa, es un 0. Pero si estamos hablando de un átomo o de una partícula subatómica, donde interviene la mecánica cuántica con sus leyes surrealistas, el átomo o partícula puede estar en una superposición coherente de los dos estados. Esto significa que el bit es 1 y 0 a la vez, sí y no simultáneamente.

Es lo que se llama el qubit, del inglés quantum bit. Para explicar de manera más sencilla su estado simultáneo de 1 y 0, no hay analogía que valga. Es el tómalo o déjalo.

Súper cálculos

Imagina un conjunto -o registro- de tres bits. Cada bit puede ser un 0 o un 1. Por lo tanto, en cualquier momento dado, ese registro de tres bits sólo puede presentar uno de ocho números posibles.

1 2 3 4 5 6 7 8

000 001 010 100 110 101 011 111



Ahora, imagina que el conjunto está compuesto por tres qubits en lugar de los tres bits clásicos. En un mismo momento, ese registro de tres qubits presenta los ocho números simultáneamente. Es un registro en superposición cuántica.

A medida que agregamos qubits al registro, aumentamos exponencialmente su capacidad de representar números. Por ejemplo: tres qubits pueden representar 8 números a la vez, cuatro qubits pueden representar 16 números a la vez, cinco qubits, 32 números... Un número n de qubits puede representar 2n números simultáneamente. Una vez que el registro está en superposición cuántica, podemos realizar operaciones con todos los números.

Quizá no se note a primera vista el gigantesco poder de cálculo que esto significa porque nuestra mente no está preparada para pensar exponencialmente. Confírmalo leyendo la fábula del Emperador chino y el ajedrez.

Fábula del Emperador chino y el ajedrez

“Ante la insistencia del emperador de la China para que un maestro de ajedrez le pidiera el regalo que quisiera como contrapartida de sus lecciones, accedió éste a recibir la cantidad de arroz resultante de poner un grano en la primera casilla, dos en la segunda, cuatro en la tercera, y así sucesivamente. Al emperador le costó salir de su asombro –demasiado tarde-, cuando los cálculos del maestro de ajedrez mostraban que no bastaría todo el arroz de China para cumplir su promesa. El emperador, como la gran mayoría de homínidos, no podía pensar exponencialmente.” (Citado del libro “Cara a cara con la vida, la mente y el Universo” de Eduard Punset.)

La última casilla del tablero tendría 9.223.372.036.854.775.808 granos de arroz. Cifra a la que se llega elevando 2 a la potencia de 63, la cantidad de casilleros del tablero de ajedrez (contando que la primera es la 0).

Un ordenador cuántico puede, en un solo paso, ejecutar la misma operación matemática en 2nn veces o utilizar 2n procesadores que trabajen en paralelo. Imagínate el tiempo gigantesco o la cantidad enorme de ordenadores que se necesitaría para la misma operación que un ordenador cuántico con 63 qubits... ¡Lo mismo que los granos de arroz del emperador chino! números, resultado de tener n qubits en superposición cuántica. Para ejecutar la misma tarea, cualquier ordenador clásico debe repetir la misma operación 2



La última casilla tiene...
¡ 9.223.372.036.854.775.808 granos de arroz!
(Fuente: smartplanet)

El día que llegue

El único problema con el ordenador cuántico es que todavía no existe. Y la mala noticia es que no falta poco para que llegue. El motivo no es sólo porque todavía no tenemos la nanotecnología necesaria sino porque también hace falta progresar bastante en tecnologías de medición ultraprecisas. (Recientemente, el físico David Deutsch afirmó en su blog que el ordenador cuántico sí está cerca.)

Otro de los obstáculos está en poder mantener la superposición cuántica sin que haya la más mínima interacción con el entorno. En el momento en que eso sucede –y sucede muy fácilmente-, el sistema pierde la superposición cuántica. Hoy en día, este estado se puede mantener bajo control durante algunos segundos a temperaturas extremadamente bajas o durante nanosegundos a temperatura ambiente.

En este momento, la computación cuántica está en su infancia. Por eso, no se puede decir que los experimentos realizados hasta ahora sean verdaderos ordenadores cuánticos. Uno de ellos fue, por ejemplo, el realizado en el centro de investigación de IBM en diciembre de 2001 con un protoordenador cuántico de siete qubits que logró realizar una operación matemática.

No se sabe con exactitud qué cambios traerán los ordenadores cuánticos a nuestras vidas aunque sí se estipula que para ello faltan décadas aún. Pero sí se sabe que serán muy útiles para realizar simulaciones muy complejas de todo tipo: climatológicas, de tránsito, para la creación de nuevos materiales y medicinas, para modelos cosmológicos, distribución de fluidos... “Cualquier tipo de pregunta para la que no haya una fórmula para responderla”, según el físico inglés David Deutsch.


Universos múltiples

Los físicos que estudian los fenómenos cuánticos están de acuerdo con que las ecuaciones matemáticas que predicen los resultados de sus experimentos son correctas. Sin embargo, no hay consenso a la hora de interpretar qué es lo que sucede físicamente al producirse esos resultados. De alguna manera, están de acuerdo con el qué pero no con el por qué.

Una de esas interpretaciones fue propuesta por el físico Hugh Everett en 1957. La interpretación “de los universos múltiples” tuvo una aceptación casi nula en sus inicios pero hoy aumenta su popularidad entre los físicos teóricos sin llegar a ser mayoritaria. Dice que nuestro universo no es más que una pequeña rodaja de la realidad que está compuesta por muchísimos otros universos muy semejantes al nuestro. A esa realidad que abarca todos los universos, se la llama “multiverso”.


Por más que no los percibamos, nuestro universo sería
uno de entre muchos. (Fuente: smartplanet)

Según esta interpretación, los objetos (pongamos por caso un electrón) no están confinados en un universo solamente sino que se extienden a través del multiverso. Cada versión de ese objeto puede actuar de una manera diferente en cada universo en el que está presente. A veces, estas versiones del mismo objeto en diferentes universos pueden interactuar dando lugar a fenómenos cuánticos como la superposición.

Según el físico David Deutsch, estos fenómenos son la prueba de la existencia de otros universos. Para Deutsch, una confirmación de esta interpretación sería la misma computación cuántica. Un ordenador cuántico mediano podría ejecutar cálculos de una complejidad gigantesca, mayor complejidad que la del universo visible con todos sus átomos, según el físico inglés. Como todo ello sucede en un ordenador de unos pocos cientos de átomos, esa sería la prueba de que la realidad es muchísimo más compleja de lo que alcanzamos a ver y de que, en la computación cuántica, interactúan varios universos.