domingo, 13 de noviembre de 2016

Una Superluna viene, pero ¿qué la causa?

La Luna sigue una trayectoria elíptica alrededor de la Tierra, con una excentricidad media de alrededor de 0.055 (un círculo perfecto tiene una excentricidad de 0). Esto significa que, en su acercamiento más cercano, la Luna se encuentra a 363,400 km. de nuestro planeta, y en su punto más distante esta a  405,500 km. Cuando la Luna está en el perigeo de esta órbita, se conoce ha llegado a ser conocido como un "Superluna".

Y sí, se denomina "Superluna" porque, a pesar de que fue acuñado originalmente en 1979 por un astrólogo, la NASA ha adoptado. Superluna es también un término más fácil de usar que perigeo de la Luna llena.
Superluna a la izquierda comparada con una Microluna captada durante su apogeo. Créditos: NASA.

Pero la Superluna de este mes es especial. La excentricidad se calcula con base en el sistema Tierra-Luna, pero otros cuerpos celestes también influyen en la órbita de la Luna a través de la gravedad. El Sol juega el papel más grande, pero también lo hace Júpiter e incluso algunos de los planetas más pequeños. Al factorizar estas otras influencias, la excentricidad de la órbita de la Luna puede variar realmente tan poco como 0.026 hasta 0.077.

Una órbita lunar más excéntrica trae el perigeo más cerca de la Tierra, y cuando este perigeo ocurre durante una Luna llena, obtendremos una Superluna especial. Eso es lo que ocurrirá el 14 de noviembre, cuando la Luna este a sólo 356,509km de la Tierra, que es el acercamiento más cercano de la Luna desde el 26 de enero de 1948. El Sistema Solar no se alineará otra vez de esta forma hasta el 25 de noviembre de 2034.

Aunque el acercamiento más cercano del lunes será a las 6:23 am, la máxima Superluna no será visible para nosotros en la Tierra hasta la Luna llena a las 8:52 am. Desafortunadamente para la mayoría de las personas esto ocurrirá después del amanecer. Pero pierda cuidado la Luna parecerá ser casi la misma que la del lunes por la mañana durante las primeras horas antes del amanecer y del lunes por la noche.

También será visible el martes por la noche, aunque ligeramente más pequeña. A pesar de toda la charla de una Superluna, los observadores casuales tendrán dificultades para discernir la diferencia entre una Luna "normal" y una Superluna. Mientras que la Luna será aproximadamente un 14 por ciento más grande en tamaño y un 30 por ciento más brillante, su apariencia no será dramáticamente diferente.

Referencia:

miércoles, 2 de noviembre de 2016

El pan de muerto

El pan de muertos es uno de los elementos imprescindibles de una ofrenda que se coloca durante las festividades en honor a los muertos.

Su origen se remonta a la época prehispánica, cuando se empezó a colocar en las ofrendas aunque era preparado con semillas de amaranto, las cuales eran molidas y tostadas. Se solía también bañar en sangre de las personas sacrificadas en honor a Izcoxauhqui o Huehuetéotl.

Pan de muerto. Créditos: Dega86/ Wikimedia Coomons. CC BY-SA 4.0
Con la conquista religiosa y militar los españoles rechazaron la elaboración de este y promovieron en su lugar un pan elaborado de trigo, con forma de corazón, el cual era bañado en azúcar y decorado en rojo para simular los sacrificios además de que era comestible. Aunque conservaba algunos elementos de los pueblos conquistados como una bola en la parte superior, al centro que representa un craneo y canillas que simbolizan los huesos que señalan a las cuatro direcciones.

Pan de muerto en la actualidad

El pan de muerto es uno de los elementos con más variaciones, en la región del centro es un pan sencillo bañado en azúcar, en esta región también se sigue haciendo el pan tradicional que es un pan sencillo. En la región de Michoacán su tonalidad es cafe brilloso, con forma redonda y que en ocasiones tiene dedicatoria.

Mientras que en Puebla es un pan decorado con ajonjoli o azúcar pintada de rojo, que procede de la región mixteca de este estado.

En Oaxaca se elabora como el pan de yema, con incrustaciones de una figura de alfeñique que se dedica al difunto. También en este estado es la regañada, un pan de pasta en hojaldra.

lunes, 31 de octubre de 2016

La sonda Juno vuelve a estar operativa

Luego de que el pasado 19 de octubre de este año la sonda Juno entrara en modo seguro ha vuelto a estar operativa.

El modo seguro de la sonda es activado cuando se detecta un fallo que no puede resolver y necesita atención del equipo de control de la misión e implica la desactivación de los sistemas no básicos hasta que sea resuelto.
Sonda Juno, recreación artística. Créditos: NASA.

Juno lo hizo apenas 13 horas antes de estar en el punto más próximo al planeta en su segunda órbita alrededor de Júpiter, por lo que no pudo registrar datos.

Hasta el momento no se ha podido determinar la causa que hizo que se activara el modo seguro, aunque la investigación sigue en proceso para evitar que se repita en el futuro y será a inicios de noviembre cuando se vuelvan a activar los instrumentos a boro para el próximo acercamiento a Júpiter.

Sin embargo los motores de maniobra, esenciales para ajustar la trayectoria para que este en sincronía con la rotación del planeta, funcionaron perfectamente luego de la sonda salió del modo seguro, aunque no podrá recoger datos como esta planeada el próximo 11 de diciembre debido a que un par de válvulas de motor aún no están completamente operativas y el equipo de control aún no sabe como resolver el asunto.

La órbita en la que Juno debe llevar su misión es de de 5,000×1.9 millones de kilómetros a 14 días de periodo, aunque actualmente está en una órbita de captura de datos que va de un mínimo de 4150 kilómetros sobre las nubes del planeta y una máxima de ocho millones de kilómetros y que tarda 53 días y medio en recorrer.

En esta órbita de captura Juno puede trabajar, pese a que este demasiada alejada del planeta, por lo cual algunos de los instrumentos a bordos no funcionarían.

Con ello, al estar en una órbita que tarda hasta casi cuatro veces lo previsto no se sabe si podría permanecer los cinco años planeados, puesto que no se ha previsto los efectos de la radiación y que con suma posibilidad destruirían los instrumentos aunque estén protegidos con titanio.

Queda tiempo para saber como la NASA resolverá este severo asunto.

domingo, 30 de octubre de 2016

¿Qué tan pequeñas puedes ser las máquinas? Esta es la pregunta que el premio Nobel Richard Feynman, famoso por sus predicciones de la evolución de la nanotecnología en 1950, planteo al comienzo de una conferencia visionaria en 1984. Descalzo y vistiendo un polo rosa con pantalones cortos de color beige, se dirigió a la audiencia y dijo: "Ahora vamos a hablar de la posibilidad de hacer máquinas con partes móviles, muy pequeñas ".

Estaba convencido de que era posible construir máquinas con dimensiones nanométricas. Estas
ya existían en la naturaleza. Hablo de los flagelos de bacterias como un ejemplo, -los cuales, cuando giran, hacen que las bacterias se mueva hacia adelante. Pero, ¿podría el ser humano, con sus gigantescas manos, construir computadoras tan pequeñas que se necesitaría un microscopio electrónico para verlos?

Una visión del futuro - máquinas moleculares existirá plazo de 25-30 años

Una forma posible sería construir un par de manos mecánicas que más pequeñas que la propia,
que a su vez construyera un par de manos más pequeñas, las cuales en un ciclo sucesivo elaborará un par de manos minúsculas que pueden construir máquinas igualmente minúsculas. Esto se ha intentado, explico Feynman, pero sin gran éxito.
 
Otra estrategia, en la que Richard Feynman tenía más fe, sería construir la maquinaria de
abajo hacia arriba. En su construcción teórica, diferentes sustancias, tales como el silicio, se pulverizarían sobre una superficie, una capa de átomos tras otro. Después de un tiempo, algunas capas estarían parcialmente disueltas, a partir de este punto se podrían crear piezas que se podrían controlar mediante una corriente eléctrica en movimiento. En la visión de Feynman del futuro, una construcción de este tipo se podría utilizar para crear un obturador óptico para una pequeña cámara.

El objetivo de la conferencia era inspirar a los investigadores en la audiencia, para conseguir poner a prueba los límites de lo que se creía posible. Cuando Feynman finalmente guardó sus notas, contempló la audiencia y dijo maliciosamente: "... es un tiempo maravilloso para el diseño de toda esta maquinaria. Se logrará en 25 a 30 años, con algún uso práctico. Su uso, no lo sé ".

Lo que Feynman, ni los investigadores en la audiencia, sabían ese momento era que el primer
paso hacia la maquinaria molecular ya se había hecho, pero de una manera bastante diferente a la
predicha por Feynman.

Moléculas enclavados mecánicamente

En la segunda mitad del siglo 20, como parte de los esfuerzos para construir moléculas cada vez más avanzadas, los químicos intentaban producir cadenas moleculares en la que las moléculas en forma de anillo se unieran entre sí.  El equipo que tuviera éxito no sólo crearía una nueva molécula increíble, sino también un nuevo tipo de enlace.

Normalmente, las moléculas se mantienen unidas por un fuerte enlaces covalentes en el que los átomos comparten electrones. El sueño era crear en su lugar uniones mecánicas, donde las moléculas estarían enclavadas sin que los átomos interactuarán directamente entre sí.
Sauvage uso un ion de cobre para unir moléculas. Créditos: Foundation Nobel Prize.

En los años '50s y '60s, varios grupos de investigación lograron tales cadenas moleculares, pero las cantidades que producían eran tan pequeñas y los métodos tan complejos que su uso era limitado. El progreso fue considerado más como una curiosidad química que funcional. Después de años de reveses, muchos investigadores perdieron la esperanza y, a principios de la década de 1980, el campo fue detenido por los escasos resultados. Sin embargo, el mayor avance se produjo en 1983. Al usar un ion de cobre ordinario, un grupo de investigación francés, dirigido por el químico Jean-Pierre Sauvage, tomó el control de las moléculas.

Jean-Pierre Sauvage une moléculas alrededor de un ion de cobre

Como sucede a menudo en la investigación, la inspiración llegó de un campo completamente diferente. Jean Pierre Sauvage trabajaba con la fotoquímica, en el que se desarrollan complejos moleculares que pueden capturar la energía contenida en los rayos del sol y utilizarla para conducir reacciones químicas. Cuando Jean Pierre Sauvage construyó un modelo de uno de estos complejos de actividad fotoquímica, de repente vio la similitud a una cadena molecular: dos moléculas se entrelazaban alrededor de un ión de cobre central.

Esta percepción condujo a un giro dramático en la dirección de la investigación de Jean-Pierre Sauvage. Usando su complejo químico como modelo, su grupo de investigación construyó un anillo con forma de media luna y en forma de una molécula atraídos por un ion de cobre; el ión de cobre proporcionaba una especie de fuerza de cohesión que mantenía a las moléculas juntas. En un segundo paso, el grupo utilizó sus avances para mantener la molécula con forma de media luna con una tercera molécula formando un nuevo anillo, creando de este modo el primer eslabón de una cadena. Luego, los investigadores podrían quitar el ión de cobre, que ya había servido a su propósito.

Al analizar el rendimiento de la reacción los químicos consideraron el porcentaje de las moléculas iniciales que formaron la molécula final. En intentos anteriores para crear moléculas con enlaces, los investigadores habían logrado en el mejor de los casos un rendimiento de apenas uno por ciento. Gracias a la de iones de cobre, Sauvage fue capaz de aumentar el rendimiento a un impresionante 42 por ciento. De repente, las cadenas moleculares ya no eran más que una curiosidad.

Con la ayuda de este método revolucionario, Sauvage revitalizó el campo de la la química topológica, en el que los investigadores a menudo utilizaban iones metálicos para crear estructuras cada vez más complejas, con largas cadenas de nudos complicados. Jean-Pierre Sauvage y J. Fraser Stoddart son líderes en este campo y sus grupos de investigación han creado versiones moleculares de símbolos culturales como el nudo de trébol, nudo de Salomón y los anillos de Borromeo.
La primer molécula fue creada por Jean-Pierre Sauvage llamado un nudo de trébol molecular. Este símbolo se encuentra en las cruces célticas, que representa al martillo de Thor (Mjolnir) y, en el cristianismo, simboliza la Santa Trinidad. El segundo fue realizado por Fraser Stoddart los llamados anillos moleculares de Borromeo. La familia italiana Borromeo utilizó este símbolo en su escudo. También se encuentra en imágenes nórdicas antiguas y ha simbolizado la Santa Trinidad. Stoddart y Sauvage han hecho una versión molecular del nudo de Salomón, un símbolo de la sabiduría del rey Salomón, utilizado con frecuencia en el Islam y que se encuentra en mosaicos romanos. Créditos: Nobel Foundation.

Sin embargo, los estéticos nudos moleculares son sólo un paso en la historia del Premio Nobel de Química 201.

...Y el primer paso hacia un motor molecular

Jean-Pierre Sauvage pronto se dio cuenta de que las cadenas moleculares, (llamadascatenanos), eran no sólo una nueva clase de molécula, sino que también eran el primer paso hacia
creación de una máquina molecular. Para que una máquina para realizar una tarea, debe constar de varias partes que se mueven en relación de unas con otras. Los dos anillos entrelazados cumplen este requisito. En 1994, el grupo de investigación de Jean-Pierre Sauvage también tuvo éxito en la producción de un catenano en el un anillo giraba, de una manera controlada, alrededor de otro anillo cuando se añadió energía. Este fue el primer embrión de una máquina molecular no biológica.

El segundo embrión de una máquina molecular fue producido por un químico que se crió en una granja sin electricidad ni ningún comodidad de hoy en día en Escocia.

Fraser Stoddart insertó un anillo molecular sobre un eje molecular

De niño, J. Fraser Stoddart no tuvo televisión o una computadora. En cambio, tuvo sierras de calar, por lo que tuvo la formación de una habilidad que los químicos necesitan: reconocer formas y ver cómo se pueden vincular juntas. También se sintió atraído por la química por la posibilidad de convertirse en un artista molecular, - esculpir nuevas formas, que el mundo nunca había visto antes-.

Cuando Fraser Stoddart desarrolló una de sus creaciones moleculares que son la base del Premio Nobel de Química 2016, utilizó el potencial de la química para el diseño de moléculas que son atraídas entre sí. En 1991, su grupo de investigación construyó un anillo abierto que carecía de electrones y  un largo eje, que tenía estructuras ricas en electrones en dos lugares. Cuando las dos moléculas se unieron en una solución, los electrones ocuparon el espacio sin ellos y el anillo se enroscó en el eje. En el siguiente paso, el grupo de investigación se centro en mantener la abertura en el anillo de manera que se mantuviera el eje en la molécula. Tenían por lo tanto, un alto rendimiento, creando un rotaxano, una molécula en forma de anillo que esta mecánicamente unida a un eje.

Fraser Stoddart a continuación hizo uso de la libertad del anillo para moverse a lo largo del eje. Cuando se añade calor el anillo da un salto hacia delante y atrás, como una pequeña lanzadera, entre las dos partes ricos en electrones del eje. En 1994, se pudo controlar por completo este movimiento, rompiendo de este modo de distancia de la aleatoriedad que de otro modo regula los movimientos en los sistemas químicos.
Fraser Stoddart creado un servicio de transporte molecular que puede mover a lo largo de un eje de una manera controlada. Créditos: Nobel Foundation.

Un ascensor, un músculo y un chip de ordenador minúsculo

Desde 1994, el grupo de investigación de Stoddart ha utilizado diversos rotaxanos para construir numerosas máquinas molecular, incluyendo un ascensor en 2004, el cual puede elevarse 0,7 nanómetros por encima de una superficie, y un músculo artificial (2005), que puede mover lámina de oro muy fina.

 
Elevador molecular de Stoddart. Créditos: Nobel Foundation.
En colaboración con otros investigadores, Fraser Stoddart también ha desarrollado un chip con una memoria de 20 Kb basado en rotaxanos. Los transistores en los chips de los ordenadores actuales son pequeños, pero gigantescos en comparación con los transistores elaborados con molécula. Los investigadores creen que los chips de computadoras moleculares puede revolucionar la tecnología informática de la misma forma que los transistores basados ​​en silicio lo hicieron una vez.

Jean-Pierre Sauvage también ha investigado el potencial de los rotaxanos. En 2000, su grupo de investigación enhebró dos moléculas a través de bucle, formando una estructura elástica que es una reminiscencia de los filamentos de un músculo humano. También han construido una estructura que se puede comparar a una motor, donde el anillo del rotaxano gira alternativamente en diferentes direcciones.
Estructura elástica de Sauvage. Créditos: Nobel Foundation.

La producción de motores que giran continuamente en el misma dirección ha sido un objetivo importante para la ingeniería molecular. Diferentes intentos se hicieron en la década de 1990, pero en primero en lograrlo fue el holandés Bernard (Ben) L. Feringa.

Ben Feringa construye los primeros motores moleculares

Al igual que Fraser Stoddart, Ben Feringa se crió en una granja y se sintió atraído por la química por su sinfín de oportunidades para la creatividad. Como lo expresó en una entrevista: "Tal vez el poder de la química no sólo es la comprensión, sino también la creación, de moléculas y materiales que nunca antes han existido... "

En 1999, cuando Ben Feringa produjo el primer motor molecular, utilizó una serie de trucos ingeniosos para conseguir que girará en una misma dirección. Normalmente, los movimientos de las moléculas se rigen por casualidad; en promedio, una molécula de hilatura se mueve tantas veces a la derecha como a la izquierda. Pero Ben Feringa diseñó una molécula construida mecánicamente para girar en una dirección particular.
Cuando Ben Feringa creó el primer motor molecular, fue construido mecánicamente para girar en una dirección particular. Su grupo de investigación ha optimizado el motor de modo que ahora gira a 12 millones de revoluciones por segundo. Créditos: Nobel Foundation.

La molécula se compone de algo que se puede comparar a dos pequeñas palas del rotor, dos estructuras químicas planas que se han juntado con un doble enlace entre dos átomos de carbono. Se unió a un grupo metilo a cada pala de rotor; usando trinquetes se obligó a la molécula a mantener la rotación en la misma dirección. Cuando la molécula se expuso a un pulso de luz ultravioleta, una
pala de rotor saltó 180 grados alrededor del doble enlace central. A continuación, el trinquete se colocó en posición. Con el siguiente pulso de luz, la pala del rotor saltó otros 180 grados. Y así continuó en la misma dirección.

El primer motor no era exactamente rápido, pero el grupo de investigación de Feringa lo ha optimizado. En 2014 el motor giró a una velocidad de 12 millones de revoluciones por segundo. En 2011, el grupo de investigación también construyó una tracción a las cuatro ruedas de un nanocoche; un chasis molecular que se mantiene unido con cuatro motores que funcionaron como ruedas.
Cuando las ruedas se extienden, el coche se movió hacia adelante sobre una superficie.
Nanocoche creado por Feringa. Créditos: Nobel Foundation.


Un motor molecular hace girar un cilindro de vidrio pequeño

En otro experimento sorprendente, el grupo de investigación de Ben Feringa ha utilizado motores moleculares para hacer girar un cilindro de vidrio largo de 28 micras (10,000 veces más grande que los motores moleculares). En el experimento incorporaron los motores en un cristal líquido (un líquido con una estructura cristalina). Solo uno por ciento del cristal líquido consistía en motores moleculares, pero, cuando los investigadores hicieron que girarán, los motores cambiaron la estructura del cristal líquido. Cuando los investigadores colocaron el cilindro de vidrio en la parte superior del cristal líquido, que giraba debido al movimiento proporcionada por los motores (un vídeo de este proceso se puede ver en Nature).

Una caja de herramientas moleculares para construir

Las medidas innovadoras adoptadas por Jean-Pierre Sauvage, Fraser Stoddart y Ben Feringa en el desarrollo de maquinaria molecular ha resultado en una caja de herramientas de estructuras químicas que son utilizadas por los investigadores de todo el mundo para construir creaciones cada vez más avanzadas. Una de las más llamativas es un robot molecular que puede captar y conectar aminoácidos. Fue construido en 2013 con un rotaxano como su base.

Otros investigadores han conectado motores moleculares de polímeros largos, para formar una intrincada red. Cuando los motores moleculares son expuestos a la luz, los polímeros forman paquetes desordenados. De esta manera, la energía de luz se almacena en las moléculas y, si los investigadores encontrarán una técnica para recuperar esta energía, un nuevo tipo de batería podría desarrollarse. El material también se reduce cuando los motores enredan los polímeros, los cuales podrían ser utilizados para desarrollar sensores que reaccionen a la luz.

Lejos del equilibrio - hacia una nueva y vibrante química

Una parte importante del desarrollo que se ha dado como resultado el Premio Nobel de Química 2016 es que los investigadores han impulsado sistemas moleculares lejos de lo que se llama equilibrio. Todos los agentes químicos en sistemas luchan por el equilibrio - un estado de menor energía - pero esto bien se puede decir que es un punto muerto. Podemos tomar la vida como un ejemplo. Cuando comemos, las moléculas del cuerpo extraen la energía de los alimentos y empujan nuestros sistemas moleculares lejos del equilibrio, a niveles de energía más altos. Las biomoléculas luego utilizan la energía para impulsar reacciones químicas necesarias para que el cuerpo funcione. Si el cuerpo estuviera en equilibrio químico, estaría muerto.

Al igual que las moléculas de la vida, moléculas artificiales de Sauvage, Stoddart y Feringa realizan
tareas controladas. La química ha tomado los primeros pasos hacia un nuevo mundo. El tiempo ha demostrado claramente el efecto revolucionario de la miniaturización de la tecnología informática, mientras que sólo hemos visto la primera etapa de lo que podría ser el resultado de la miniaturización de las máquinas. En términos de desarrollo, el motor molecular es más o menos esta al mismo nivel que el motor eléctrico en la década de 1830, cuando los investigadores orgullosos mostraron varias manivelas giratorias y ruedas en sus laboratorios sin tener idea que conducirían a las lavadoras, ventiladores y procesadores de alimentos.

Así que, 32 años después de la conferencia visionaria de Feynman, queda todavía imaginar los acontecimientos emocionantes que están por delante de nosotros. Sin embargo, nosotros tenemos una respuesta definitiva a su pregunta inicial: ¿qué tan pequeña puede ser una máquina? Al menos 1,000 veces más delgada que un cabello.

Referencia:

domingo, 16 de octubre de 2016

David Thouless, Duncan Haldane, y Michael Kosterlitz, galardonados con el premio Nobel este año han utilizado métodos matemáticos avanzados para explicar fenómenos de la materia como superconductores, superfluídos o películas magnéticas delgadas. Kosterlitz y Thouless han estudiado fenómenos que surgen en superficies extremadamente delgadas que se pueden considerar dos dimensiones, en comparación a las tres dimensiones (ancho, largo y alto) con la que generalmente se describe la realidad. Haldane también ha estudiado la materia que forma hilos tan delgados que pueden considerarse unidimensionales.

La física que tiene lugar en tales espacios es muy diferente a la que reconocemos en el mundo que nos rodea. Incluso si la materia esta finamente distribuida en millones de átomos, el comportamiento de cada átomo puede ser explicado usando la física cuántica, pero los átomos tienen propiedades completamente diferentes cuando muchos de ellos se unen. Nuevos fenómenos colectivos están siendo descubiertos en estos campos y la física de la materia condensada es ahora uno de los campos más innovadores de la física.

Los conceptos de física topológica han sido decisivos para sus descubrimientos. La topología es
una rama de las matemáticas que describen las propiedades de la materia basados en cambios graduales. Con la topología moderna como una herramienta, los laureados de este año han presentado resultados sorprendentes, que han abierto nuevos campos de investigación y llevado a la creación
de nuevos e importantes conceptos dentro de varias áreas de física.

La física cuántica se hace visible en el frío

En el fondo, toda la materia se rige por las leyes de física cuántica. Los gases, líquidos y sólidos son los habituales estados de la materia, en la que los efectos cuánticos son a menudo ocultos por movimientos atómicos aleatorios. Pero cuando están cerca del cero absoluto frío (-273 grados Celsius) se comportan de maneras inesperadas. La física cuántica, que de otro modo sólo funciona en el mundo a microescala, se convierte de repente visible.
La materia a altas y bajas temperaturas asume exóticos estados. Créditos: Nobel Foundation.

En las fases ordinarias de la materia la transición entre uno y otro estado es debido a la temperatura, por ejemplo, tal transición de fase se produce cuando el hielo, que no es más que cristales bien ordenados, se calientan y se funde en el agua, una fase más caótico de la materia. Cuando nos fijamos en la materia que está en los límites de la temperatura, nos encontramos con fases que aún no se han explorado completamente. Cosas extrañas suceden en el frío. Por ejemplo, la resistencia encontrada en todas las partículas que se mueven de repente cesa. La corriente eléctrica fluye sin resistencia en
un superconductor, o un vórtice en un superfluido gira constantemente sin disminuir la velocidad.

La primera persona en estudiar sistemáticamente los superfluidos fue el ruso Piotr Kapitsa, en la década de 1930. Estudió helio-4, que se encuentra en el aire, a -271 grados Celsius, y encontró que se comportaba como un superfluido cuando su viscosidad desapareció completamente. Kapitsa fue recompensado con el Premio Nobel de Física en 1978, y desde entonces varios tipos de superfluidos se han creado en el laboratorio. Helio superfluido, películas delgadas de superconductores, capas delgadas de materiales magnéticos y nanohilos conductores de electricidad son algunas de los
muchas nuevas fases que ahora están siendo estudiadas intensivamente.

Las parejas de vórtices son la solución

Los investigadores creían que las fluctuaciones térmicas destruían todo el orden en la materia en una o dos dimensiones, incluso en el cero absoluto. Si no hay fases ordenadas, no puede haber transiciones de fase. Sin embargo, a principios de 1970, David y Michael Thouless Kosterlitz se reunieron en Birmingham, Gran Bretaña, y desafiaron la teoría vigente en ese momento. Juntos abordaron el problema de las transiciones de fase dando lugar a una nueva comprensión de las transiciones de fase, que se considera como uno de las descubrimientos más importantes del siglo XX en la teoría de la física de la materia condensada. Fue llamada transición KT (Ttransición Kosterlitz-Thouless) o la transición BKT, en el que B es para Vadim Berezinskii, un físico teórico ya fallecido de Moscú que había presentado ideas similares.

La transición de fase topológica no es una transición de fase normal, como la que existe entre hielo y agua. El papel principal de una transición topológica es realizado por pequeños vórtices en materia plana. A bajas temperaturas forman vortíces estrechos. Cuando la temperatura sube, una transición de fase se lleva a cabo: la vórtices de repente se alejan unos de otros y de frente.
Usando la topología Kosterlitz y Thouless describieron la transición de estados en una delgada capa de material a baja temperatura. A temperaturas bajas se forman parejas vórtices que se separan al aumentar la temperatura. Créditos: Nobel Foundation.
Lo maravilloso de esta teoría es que se puede utilizar para diferentes tipos de materiales de pocas
dimensiones, la transición KT es universal. Se ha convertido en una herramienta útil, que no sólo se aplica en el mundo de la materia condensada, sino también en otras áreas de la física, como la física atómica o estadística mecánica. La teoría detrás de la transición KT también ha sido desarrollado por dos de sus creadores y otros, que la han confirmado experimentalmente.

Los misteriosos saltos cuánticos

Los experimentos provocaron una serie de nuevos estados de la materia que requerían explicación. En la década de 1980, tanto David Thouless como Duncan Haldane presentaron trabajos teóricos que desafiaron las teorías anteriores, uno de estos trabajos fue la teoría de la mecánica cuántica
que determinaba qué materiales conducen la electricidad. Esta teoría se había desarrollado en 1930 y, un par de décadas más tarde, se consideró en esta área de la física.

Por lo tanto, fue una gran sorpresa cuando, en 1983, David Thouless probó los datos eran incompletos puesto que a bajas temperaturas y en campos magnéticos fuertes, un nuevo tipo de teoría era necesaria, una donde los conceptos topológicos fueron vitales. Aproximadamente al mismo tiempo, Duncan Haldane también llegó a una idea similar, al analizar cadenas atómicas magnéticas. Ambos trabajos han sido fundamentales en los acontecimientos posteriores a la teoría de los nuevos estados de la materia.

El fenómeno misterioso que David Thouless describió en teoría, usando topología, es el
efecto Hall cuántico. Fue descubierto en 1980 por el físico alemán Klaus von Klitzing, quien
fue recompensado con el Premio Nobel en 1985. Klaus estudió una capa conductora delgada entre dos semiconductores, donde los electrones se enfriaron a unos pocos grados por encima del cero absoluto estando sometidos a un fuerte campo magnético.


En física, no es raro que sucedan drásticas cosas cuando baja la temperatura; por ejemplo, muchos materiales se vuelven magnéticos. Esto sucede porque los átomos giran en la misma dirección, dando lugar a un fuerte campo magnético, que puede también ser medido.

Sin embargo, el efecto Hall cuántico es más difícil de entender; la conductancia eléctrica en
la capa aparece sólo para ser capaz de asumir valores particulares, que son también extremadamente precisos, algo que no es habitual en física. Las mediciones proporcionan exactamente los mismos resultados, incluso si la temperatura, el campo magnético o la cantidad de impurezas en el semiconductor varían. Cuando el campo magnético cambia lo suficiente, la conductancia de la capa también cambia, pero sólo en fases; la reducción de la fuerza del campo magnético hace que la conductancia eléctrica cambie, primero exactamente al doble, entonces se triplica, cuadruplica, y  sucesivamente. Estos pasos no pueden ser explicados por la física conocida en el momento,
pero David Thouless encontró la solución a este enigma utilizando topología.

La respuesta esta en la topología

Topología describe las propiedades que permanecen intactas cuando un objeto se estira, trenzado o deformado pero no si está desgarrado. Topológicamente, una esfera y un tazón pertenecen a la misma categoría, porque una protuberancia esférica de arcilla se puede transformar en un recipiente. Sin embargo, una dona y una taza de café con un agujero en el mango pertenecen a otra categoría; aunque también pueden ser remodelados para formar objetos. Objetos topológicos pueden contener así un agujero, dos, tres, o cuatro... pero este número tiene que ser un número entero. Esto resultó ser útil en la descripción de la conductancia eléctrica que se encuentra en el efecto Hall cuántico, que sólo cambia en pasos que son múltiplos exactos de un número entero.
La topología es una rama de las matemáticas que se interesa por estudiar las propiedades que cambian en la materia paso por paso. Fue clave en los descubrimientos de física y ayudo a explicar porque la conductividad cambia en el interior de capas delgadas a números enteros. Créditos: Nobel Foundation.

En el efecto cuántico Hall, los electrones se mueven con relativa libertad en la capa entre los semiconductores y forman algo que se llama un fluido cuántico topológico. De la misma manera como nuevas propiedades a menudo aparecen cuando muchas partículas se juntan, los electrones en el fluido cuántico topológico también muestran características sorprendentes. Pero así como no se puede determinar si existe un agujero en una taza de café con sólo mirar a una pequeña parte de ella, es imposible determinar si los electrones han formado un fluido cuántico topológico si solo se observa lo que está sucediendo a algunos de ellos. Sin embargo, la conductancia describe el movimiento colectivo de los electrones y, debido a la topología, que varía en pasos; es cuantificada. Otra característica del fluido cuántico topológico es que sus fronteras tienen inusuales propiedades. Estos fueron predichas por la teoría y más tarde se confirmaron experimentalmente.

Otro hito se produjo en 1988, cuando Duncan Haldane descubrió en fluidos cuánticos topológicos, que se pueden formar delgadas capas de semiconductores incluso cuando no hay ningún campo magnético. En 2014 su modelo fue validado en un experimento utilizando átomos que a temperaturas similares al cero casi absoluto.

Los nuevos materiales topológicos

A partir de 1982, Duncan Haldane hizo una predicción que sorprendió incluso a los expertos en el campo. Analizando cadenas de átomos magnéticos que se producen en algunos materiales, descubrió que las cadenas tenían diferentes propiedades dependiendo de los átomos imanes. En la física cuántica, hay dos tipos de imanes atómicos, pares e impares. Haldane aseveró que una cadena formada de imanes pares es topológica, mientras que una cadena de imanes impares no lo es. En un fluido cuántico topológico, no es posible determinar si una cadena atómica es topológica o no estudiando una pequeña parte de ella. Y, al igual que en el caso del fluido cuántico, la propiedades topológicas se revelan en los bordes.

Al principio, nadie creía que el razonamiento de Haldane sobre las cadenas atómicas; los investigadores estaban convencidos de que que ya se conocían sus propiedades con exactitud. Pero resultó que Haldane había descubierto el primer ejemplo de un nuevo tipo de material topológico, que es ahora un campo animado de la investigación en la física condensada de la materia

Ambos: fluidos cuánticos y cadenas atómicas incluso magnéticas se incluyen en este nuevo grupo de estados topológicos. Más tarde, los investigadores descubrieron varios otros estados topológicos inesperados de la materia, no sólo en cadenas y capas delgadas de materia, sino también en materiales tridimensionales ordinarios.

Aislantes topológicos, superconductores topológicas y metales topológicos son ejemplo de ellos. Estos son ejemplos de materiales que durante la última década, han definido la investigación de la física de materia condensada, no menos importantes, debido a la esperanza de que los materiales topológicos serán útiles para las nuevas generaciones de la electrónica y superconductores, o en los futuros ordenadores cuánticos. La investigación actual está ahora revelando los secretos de la materia en las llanuras exóticas descubiertas por los Premios Nobel de este año.

domingo, 9 de octubre de 2016

Este año, el Premio Nobel reconoce los mecanismos de la autofagia, un proceso fundamental para degradar y reciclar los componentes celulares subyacentes.

Este concepto surgió en la década de 1960, cuando investigadores observaron por primera vez que la célula podría destruir sus propios contenidos encerrándolos en membranas, que son transportadas a un compartimiento de reciclaje, las lisosomas, para su posterior degradación. Fue hasta la década de 1990, Yoshinori Oshumi usando levadura de panadero identificó los genes esenciales para la autofagia. A continuación, dilucidó los mecanismos subyacentes de la autofagia en la levadura y mostró que el funcionamiento era muy similar al de nuestras células.

Los descubrimientos de Oshumi condujeron a un nuevo paradigma en la comprensión de cómo la célula recicla su contenido. Sus descubrimientos abrieron el camino para la comprensión de la importancia fundamental de la autofagia en muchos procesos fisiológicos, tales como en la adaptación a la inanición o la respuesta a la infección. Las mutaciones en los genes autofagia pueden causar la enfermedad, y el proceso de autofagia está involucrado en una serie de condiciones como el cáncer y enfermedades neurológicas.

Degradación - una función central en todas las células vivas

En los 50´s científicos descubrieron los lisosomas, un orgánelo con enzimas que digieren proteínas, carbohidratos y lípidos. El científico belga Christian de Duve fue galardonado con el Premio Nobel de Fisiología o Medicina en 1974 por el descubrimiento de lisosomas. Las nuevas observaciones durante la década de 1960 mostraron que grandes cantidades de contenido celular, incluso orgánelos enteros, a veces se podían encontrar en el interior de los lisosomas. Por tanto, la célula parecía tener una estrategia para la entrega a los lisosomas. El análisis adicional bioquímico y microscópico reveló un nuevo tipo de lisosomas útil para la degradación. Christian de Duve, el científico detrás del descubrimiento del lisosoma, acuñó el término autofagia, "auto-alimentación", para describir este proceso. Las nuevas vesículas fueron nombrados autofagosomas.



Nuestras células tienen diferentes orgánelos especializados. Los lisosomas constituyen uno de tales y contienen enzimas para la digestión de los contenidos celulares. Dentro de las lisosomas están las autofagosomas, que envuelven los contenidos celulares, tales como proteínas y orgánelos dañados. Finalmente, se fusionan con el lisosoma, en donde el contenido se degradan en componentes más pequeños. Este proceso proporciona a la célula nutrientes y bloques de construcción para la renovación. Créditos: Nobel Prize Foundation

Investigadores durante la década de 1970 y 1980 encontraron otro sistema utilizado para degradar proteínas, el "proteasoma". Dentro de este campo de investigación Aaron Ciechanover, Avram Hershko e Irwin Rose fueron galardonados con el Premio Nobel de Química 2004 por "el descubrimiento de la degradación de proteínas mediada por ubiquitina". El proteasoma degrada las proteínas de manera eficiente, una por una, pero este mecanismo no explicaba cómo la célula se deshace de proteínas complejas y orgánelos. Podría el proceso de autofagia ser la respuesta y, si es así, ¿cuáles eran sus mecanismos?

Un experimento innovador

Yoshinori Oshumi al iniciar su propio laboratorio en 1988, centró sus esfuerzos en la degradación de proteínas en la vacuola, un orgánulo que corresponde a los lisosomas en células humanas. Las células de levadura son relativamente fáciles de estudiar y por lo tanto a menudo se utilizan como modelo para las células humanas. Son particularmente útiles para la identificación de genes que son importantes en sistemas celulares complejos. Pero Oshumi se enfrentó a un reto importante; células de levadura son pequeñas y sus estructuras internas no se distinguen fácilmente bajo el microscopio y por lo tanto no estaba seguro si la autofagia existía en este organismo. Oshumi razonó que si pudiera perturbar el proceso de degradación en la vacuola, mientras el proceso de autofagia estaba activo, entonces autofagosomas deberían acumularse dentro de la vacuola y hacerse visibles bajo el microscopio. Por lo tanto, cultivó una levadura con mutación la cual carecía de las enzimas de degradación vacuolar y al mismo tiempo estimulaba la autofagia. Los resultados fueron sorprendentes, en cuestión de horas, las vacuolas se llenaron de pequeñas vesículas que no habían sido degradadas. Las vesículas eran autofagosomas y el experimento de Oshumi demostró que existía autofagia en las células de levadura. Pero aún más importante, que ahora tenía un método para identificar y caracterizar los genes clave involucrados en este proceso. Esta fue uno de los principales logros de Oshumi quien publicó los resultados en 1992.

En la levadura (parte izquierda) un gran compartimento llamado vacuola corresponde a las lisosomas de las células animales. Ohsumi generó levaduras que carecían de enzimas de degradación vacuolar. Cuando se mueren de inanición estas células de levadura, autofagosomas se acumulan rápidamente en la vacuola (panel central). Su experimento demostró que existe la autofagia en la levadura. Como paso siguiente, Oshumi estudió miles de mutaciones en la levadura (panel derecho) e identificó 15 genes que son esenciales para la autofagia.

Descubrimiento de los genes de la autofagia

Oshumi uso las cepas de levadura manipuladas en las que autofagosomas se acumularon durante la inanición. Esta acumulación no debía ocurrir si los genes importantes para la autofagia no estuvieran inactivos. Oshumi expuso las células de la levadura a una sustancia química que introdujo al azar mutaciones en distintos genes hasta deducir los genes responsables de la autofagia. Un año después del descubrimiento de la autofagia en la levadura, Oshumi identificó los primeros genes esenciales para la autofagia. En posteriores series de estudios, las proteínas codificadas por estos genes se han analizado funcionalmente. Los resultados mostraron que la autofagia es controlada por una cascada de proteínas y complejos de proteínas, cada una funciona en una etapa distinta de la autofagia.
Ohsumi estudió la función de las proteínas codificadas por los genes clave de la autofagia. Descubrió las señales que inician la autofagia y el mecanismo por el cual las proteínas y complejos de proteínas promueven distintas etapas de la autofagia. Créditos: Nobel Prize Foundation.

Después de la identificación de los mecanismos de la autofagia en la levadura, una cuestión clave se mantuvo. ¿Había un mecanismo correspondiente para el control de este proceso en otros organismos? Pronto se hizo evidente que los mecanismos son prácticamente idénticos en nuestras propias células. Las herramientas de investigación necesarias para investigar la importancia de la autofagia en los seres humanos ya estaban disponibles.

Gracias a Oshumi y otros siguiendo sus pasos, ahora sabemos que la autofagia controla importantes funciones fisiológicas para la degradación y reciclaje de componentes celulares. La autofagia puede proporcionar con rapidez energía y bloques de construcción para la renovación de los componentes celulares, y por lo tanto es esencial para la respuesta celular a la inanición y otros tipos de estrés. Después de la infección, la autofagia puede eliminar la invasión de bacterias y virus intracelulares. La autofagia contribuye al desarrollo embrionario y la diferenciación celular. Las células también utilizan la autofagia para eliminar las proteínas y orgánulos dañados, un mecanismo de control de calidad que es fundamental para contrarrestar las consecuencias negativas del envejecimiento.

Alteraciones de la autofagia se han relacionado con la enfermedad de Parkinson, diabetes tipo 2 y otros trastornos que aparecen en ancianos. Las mutaciones en los genes autofagia pueden causar enfermedades genéticas. Las alteraciones en la maquinaria de la autofagia también se han relacionado con el cáncer. Una intensa investigación está en curso para desarrollar fármacos que puedan dirigirse a la autofagia en diversas enfermedades.

La autofagia se conoce desde hace más de 50 años, pero su importancia en la fisiología y medicina solamente fue reconocido después de la investigación realizada por Yoshinori Oshumi en la década de 1990. Por sus descubrimientos, se le otorga el Premio Nobel de este año en fisiología o medicina.

Referencia:

sábado, 24 de septiembre de 2016

DebianDog: una distribución ligera

DebianDog esta basada en Debian y enfocada a equpios con bajas prestaciones ofreciendo un entorno y consumo ligero, pensada tanto para funcionar en modo on live o instalarla en el equipo.

Esta distribución fue diseñada sobre la última versión estable de Debian (Jessie) brindando completo acceso a los repositorios y permitiendo desde el arranque elegir el proceso del sistema: systemmd o sysvinit.

Además de ello la ISO se distribuye con diferentes escritorios como JWM, IceWm o XFCE. Lo anterior hace a DebianDog una sólida opción para computadoras con bajos recursos.

Siguiendo la filosofía de Puppy Linux introduce varias configuraciones que reutilizan comandos y scripts y complementa lo anterior el uso de aplicaciones que demandan pocos recursos, como el explorador de archivos XFE, el navegador Dillo, programas multimedia como Xhippo, DoMyFile, Precord, Video2Audio, Xrecor, Pburn, Gmplayer, entre otras.

La distribución se puede descargar desde el sitio oficial de Debian Dog el cual tiene contiene varias opciones.



Related Posts Plugin for WordPress, Blogger...