jueves, 28 de abril de 2011

Ubuntu 11.04 Natty Narwhal disponible

"Natty Narwhal" es el nombre código para la más reciente versión de Ubuntu 11.04, publicada el 28 Abril de 2011.

Dentro de los primeros cambios y novedades que introduce esta versión esta el cambio de nombre, a partir de ahora Ubuntu Netbook Edition y Ubuntu Desktop Edition se vuelven una sola versión llamada "Ubuntu". En tanto Ubuntu Server Edition ha sido renombrada a "Ubuntu Server".

Novedades en Natty Narwhal

Entres las actualizaciones de paquetes en Ubuntu 11.04 se encuentran: el uso del Linux kernel 2.6.38.2 que tiene como novedades la incorporación de AppArmor, soporte para Intel IPS (Intelligent Power Sharing), se ha removido Big Kernel Lock para aumentar el rendimiento, manejo de los sistemas de archivos Btrfs, Ext4 y XFS, además de la actualización de controladores y el soporte para nuevo hardware.

Se ha incorporado  LibreOffice 3.3.2 que sustituye a OpenOffice, gcc 4.5, Python 2.7, dpkg 1.16.0, Upstart 0.9, X.org 1.10.0 y Mesa 7.10.1. El navegador por defecto es Firefox 4.0, Shotwell 0.9.1 sigue siendo el administrador de imágenes y Evolution 2.32.2 es el programa para la gestión de correos electrónicos. Banshee 2.0 permanece como el reproductor multimedia por defecto.

Unity en Ubuntu

Unity es la nueva interfaz de usuario y sistema de gestión de ventanas que está diseñado para mejorar la usabilidad de Ubuntu e incorporar una sofisticada visualización. Una versión previa de Unity fue incorporada en Ubuntu Netbook 10.10. El plan de Ubuntu 11.04, es enviar la nueva versión mejorada de Unity para mejorar la experiencia del usuario estándar.

Unity introduce una barra de menús universal, una barra de tareas gestión vertical que está anclada al borde de la pantalla en la izquierda, y una serie de superposiciones llamados "objetivos" para acceder a archivos y aplicaciones. Implementa plug-in para el gestor de ventanas Compiz, Unity hace un uso extensivo de la composición y el procesamiento acelerado de hardware para ofrecer elegantes efectos visuales.

Muchos de los conceptos detrás Unity fueron elaborados por un equipo de diseñadores profesionales y especialistas en software de usabilidad con el objetivo de mejorar significativamente la experiencia del usuario en Ubuntu. Su atención brilla a través de muchos detalles de Unity. La barra de menú es limpio y muy funcional. El muelle de la barra lateral es visualmente atractivo y tiene un excelente comportamiento por defecto para ocultarse de manera automática.

Aunque hay mucho que gusta, hay algunos aspectos de Unity que todavía se sienten sin pulir y mal desarrollados. La interfaz para navegar a través de las aplicaciones sobresale como una parte particularmente débil. El mecanismo para cambiar entre las categorías de aplicaciones es molesto y de mal gusto visualmente hablando. Las listas de paquetes al azar de los repositorios, que se presentan como las aplicaciones que están disponibles para su instalación en el lanzador, distrae y es superfluo en gran medida.


La revisión de interfaz de usuario, debe lograr una buena primera impresión siendo importante para lograr la aceptación de los usuarios. Ubuntu se ha fijado el tono adecuado durante este ciclo de desarrollo mediante la definición de estándares de alta calidad para Unity y someterlo al escrutinio disciplinado a intervalos regulares.

Todavía hay mucho por mejorar, pero Unity es sin duda una fuerte mejora en los convencionales escritorios GNOME 2.x. La amplitud de los cambios puede ser desconcertante para algunos usuarios, pero la mayoría le gustará lo que ven cuando Unity llegue a sus escritorios al final del mes.

Otros sabores

Habitual al lanzamiento de Ubuntu, también se pone a disposición de los usuarios Kubuntu con KDE en su versión 4.6.2,  Xubuntu usando Xfce 4.8, Edubuntu para ambientes educativos además de Ubuntu Studio para la edición multimedia de audio y vídeo además de Mythbuntu diseñado para estaciones multimedia.

Descarga

Ubuntu puede ser descargado desde las siguientes direcciones:
Siendo también recomendable descargar desde la red Bittorrent.

lunes, 25 de abril de 2011

La frase "como andar en bicicleta" utilizada para referirse a algo que, una vez aprendido, nunca se olvida de cómo hacer. Como resultado, andar en bicicleta es algo sencillo. Si una bicicleta típica está avanzando lo suficientemente rápido, tiende a permanecer en posición vertical y se conduce en línea recta, incluso si el conductor sujeta toma las manos del manillar. De hecho, se puede establecer una bicicleta rodando sin conductor y tiende a permanecer en posición vertical y rodar en una línea recta.

Los intentos de entender esta estabilidad llevan tanto tiempo como las bicicletas han existido y la mayoría de la gente ha aceptado las explicaciones centrados en las fuerzas giroscópicas y la ubicación del eje de dirección. Pero un equipo de ingenieros ha construido una bicicleta que elimina tales características, pero se las arregla para mantenerse en pie.

Los autores del nuevo documento hacen una revisión sorprendente de cómo las explicaciones populares para describir la estabilidad de una bicicleta, son por una parte populares y por otra antiguas, la primera referencia se remonta a 1869, 10 de 19 explicaciones tienen más de 100 años de edad. En tal caso, se detecta un error matemático (un signo contrario) en una referencia de 1910.

La mayoría de la gente ha visto un giroscopio en la acción, por lo que la estabilidad de una rueda que gira rápidamente debe ser bastante intuitiva, haciendo de este un enfoque desde el principio. Personas que han construido bicicletas con contra-rotación en las ruedas descubrieron que aún permanecen en posición vertical, de modo que no puede ser como la historia cuenta. Otro enfoque ha sido el hecho de que el área donde la rueda delantera toca el suelo esta un poco por detrás del eje de dirección, también parece aportar estabilidad a los diseños tradicionales de la bicicleta.

Para probar la contribución relativa de estos factores, los autores finalmente construyeron su modelo de ordenador y comenzaron a experimentar con diversas características. Resultó que podrían retirar el giroscópico y los factores negativos del camino, aún así la bicicleta se mantenía estable siempre y cuando se moviera más rápido (2,3 metros) por segundo. Incluso se podía mover la dirección a la rueda trasera y producir un diseño estable.

La estabilidad parece irrazonable en diferentes diseños de bicicletas que sugieren que el modelo ya había perdido probablemente contacto con la realidad, por lo que los autores salieron y construyeron una bicicleta con una rueda de contra-rotación para deshacerse de los efectos giroscópicos, así como un insignificante (4 mm) arrastre entre la rueda delantera y la dirección. A medida que su modelo avanzaba, tendía a permanecer de pie y que evitar cualquier caída que los estudiantes de posgrado trataban de inducir.

Lo que las matemáticas no parecía indicarles porqué diseños muy diferentes de bicicletas tienden a permanecer en posición vertical. "¿Por qué esta bicicleta dirige las cantidades adecuadas en el momento adecuado para asegurar su propia estabilidad?""No hemos encontrado la equivalente explicación física simple de la declaración de matemáticas que indica que todos los valores propios deben tener parte real negativa. En otras palabras, se puede ver por qué la matemática funciona como lo hace, pero no puede averiguar qué propiedades físicas corresponden con eso.

Lo mejor que podemos suponer es que la estabilidad se relaciona con la capacidad de la bicicleta para evitar una caída si se empieza a inclinarse y que hay múltiples maneras de construir una bicicleta.

Referencia:

viernes, 22 de abril de 2011

El extraño pasado y prometedor futuro de la lobotomía

Instrumentos empleados en lobotomía. Créditos: Glore Psychiatric Museum, Missouri State Archives
Si pensaba que la escena en Sucker Punch, donde el médico realiza una lobotomía con un picahielo fue una exageración artística -bueno, no lo era-. Así es exactamente como Walter Freeman, un divulgador de lobotomías en la década de 1940, realizó miles de operaciones.

A mediados del siglo 20, la lobotomía fue una popular "cura " para enfermedades mentales, motivo por el cual el ex socio de Freeman el investigador António Egas Moniz fue galardonado con el Premio Nobel de Medicina en 1949 por su papel en el perfeccionamiento de la operación.

Moniz y Freeman tuvieron un enfrentamiento después de que Freeman comenzó a utilizar un instrumento en forma de punzón para realizar hasta 25 lobotomías al día, sin anestesia, mientras que los periodistas observaban. Las locas travesuras de Freeman no asustaban a los posibles pacientes, sin embargo: la hermana de John F. Kennedy, Rosemary recibió una lobotomía de Freeman, que la dejaría en estado vegetal por el resto de su vida. Y ella fue una de las muchas personas "curadas" que parecían zombies con libertad que prefirieron vivir así a tener una angustia mental.

¿Cómo surgió entonces la lobotomía como una práctica médica aceptada ? ¿Y por qué la gente todavía la acepta, bajo el nombre menos preocupante de "lobectomía"?

Invención de la lobotomía

A Moniz y Freemen generalmente se les atribuye la invención de la lobotomía en la década de 1930, aunque en realidad su trabajo se basó en la investigación de muchas otras personas que se remonta a mediados del siglo 19. Ambos habían leído sobre el trabajo de un médico europeo llamado Gottlieb Burckhardt, quien en la década de 1880 realizó algunos avances en psiquiatría operando por primera vez los lóbulos frontales de los pacientes, así como otras partes de sus cerebros.

Aunque Burckhardt fue ridiculizado por sus colegas, algunos de los cuales pensaron que su trabajo era de barbarie, Moniz y Freeman resultaron intrigados por la idea de que el lóbulo frontal puede ser de alguna manera separada del resto del cerebro. Esto dejaría a pacientes esquizofrénicos aliviados de su angustia emocional, creían. En experimentos con perros, se determinó que la reducción de los nervios entre el cerebro y su lóbulo frontal -el llamado "asiento de la razón"- dejaba a los animales en absoluta calma.

Y así Moniz, más tarde se unió a Freeman, para comenzar a experimentar con pacientes. Su primera cirugía, fue una enferma mental, a la que le perforaron dos agujeros en el cráneo y colocaron mediante bombeo alcohol en su corteza frontal. Más tarde cirugías que involucraban "perforación" de varias regiones de la corteza frontal con agujas huecas - literalmente aspirando partes del cerebro para separar las conexiones neuronales-. Todas estas cirugías se hicieron a ciegas, es decir, rara vez se abrió el cráneo de una persona para ver dónde estaban cortando. Moniz y Freeman perforaban el cráneo y estimaban las zonas de corte.

Ambos publicaron artículos sobre su trabajo en prestigiosas revistas científicas, informando que los pacientes habían sido una carga terrible para sus familias, violentos o suicidas y que habían tenido un cambio compelto luego de la cirugía.

En una presentación de 1942 en la Academia de Medicina de Nueva York, los científicos informaron que después de la lobotomía, los pacientes se volvían "indolentes" "abiertos", eran como"niños" y las familias amorosas podrían simplemente compensar su falta de gracia social, porque ahora estaban mucho más felices.

Moniz, en un artículo de 1937 sobre el procedimiento, describe la curación de una mujer de Lisboa, cuyo esposo la llevó al Congo, donde ella era infeliz y se había convertido en alguien "incapaz de gobernar su casa". Así que su esposo la obligó a volver a Lisboa, en contra de sus deseos, y poco a poco se molestó profundamente porque siempre estaba "esperando horribles acontecimientos" creyendo que las personas fueran a matarla.

En retrospectiva, parece claro lo ocurrido, pero los informes de Moniz después de una lobotomía frontal que "curaba, aunque, posiblemente, resultaban un poco reticente" deja claro que muchos de los pacientes de Moniz y Freeman convirtieron en esencialmente catatónicos, mientras que otros no se vieron afectados, parecía bastante "curados" por lo que la lobotomía se convirtió en una práctica estándar en las instituciones mentales entre los años 1940 y principios de los 50.

La cura Icepick

Freeman al parecer con el tiempo considero poco eficiente la técnica de Moniz, y comenzó a experimentar con un procedimiento ambulatorio, donde usaría un picahielo en el cerebro de sus pacientes a través de la base de cuencas de los ojos. Una vez que se realizaba la selección en el interior del cerebro, que literalmente hacía con el picahielo moviendo alrededor, cortaba a través de la materia blanca y gris.

No era una cirugía de precisión. Con un martillo y pico en mano, se jactó de que podía hacer una lobotomía en 10 minutos sin siquiera necesitar anestesia (aunque por lo general usaba el tratamiento de choque, por lo que el paciente no era consciente de lo que estaba pasando). El método de picahielo fue demasiado para Moniz, que se distanció de su ex pareja.

Pero Freeman se convirtió en un gran éxito en Estados Unidos, donde realizó una gira por los hospitales, realizando el procedimiento frente a psicólogos y dando cursos para que lo hicieran también. Incluso era una cura para los dolores de cabeza. Así que mucha gente escribió sobre el trabajo de Freeman -era un empresario que se apoyaba de la prensa- que logró popularizar la cirugía. Por supuesto, la lobotomía siempre ha tenido sus críticos. Médicos, así como familias de los pacientes, protestaban que la cirugía no hacía nada más que convertir a las personas en vegetales. Claro, podrían ser más fácil de cuidar, pero ¿en realidad se les estaba ayudando

En 2005 NPR hizo un interesante perfil de un hombre al que se le realizó una lobotomía Freeman en la década de 1950, debido a que su madrastra consideraba que él era "salvaje" y se negaba a ir a la cama. El hombre quedó traumatizado por la experiencia, pero parecía no haber sufrido ningún efecto negativo aunque, por supuesto, es imposible saber quién podría haber sido si nadie le hubiera puesto un picahielo en el cerebro.

La rebelión de la lobectomía

En estos días, lobotomías ya no se realizan en los enfermos mentales. El auge de drogas como Thorazine facilitar la lobotomía química en pacientes. A pesar de la protesta de muchos médicos sobre estos medicamentos anti-psicóticos son tan malos como la lobotomía una vez fue, la justificación de su uso se prolonga por las mismas razones que la lobotomía fue adoptados hace 70 años. Los pacientes a menudo  parecen más felices y más tranquilos. Además, producen menos problemas a sus familias y cuidadores.

Un procedimiento de la lobotomía, llamado la lobectomía, sin embargo, va en aumento. Eso es porque en realidad es una excelente manera de tratar los casos extremos de epilepsia, así como otros trastornos convulsivos. Con el tiempo, las crisis epilépticas pueden causar daños cerebrales irreparables, por lo que a menudo se considera mejor desconectar los dos hemisferios del cerebro para evitar una crisis para que simplemente no suceda.

Esto es lo que generalmente logran las lobectomías, desde hace 10 años un artículo en el New England Journal of Medicine reportó que un ensayo aleatorio y controlado de pacientes con epilepsia en los que aplicó la cirugía reveló que, efectivamente, es probablemente el mejor tratamiento que tenemos en estos casos difíciles.

A diferencia de Freeman al "entrar por los ojos", estas cirugías se realizan de una manera muy precisa. Se puede dejar a los pacientes con una personalidad un poco diferente, pero son capaces de volver a una vida normal. También son mucho más propensos a sobrevivir sin sufrir ataques que dañen el cerebro.

Y así, de una práctica médica terrible, hemos conseguido al menos una buena terapia. Y un recordatorio de que la curación de una generación ganador del Premio Nobel es la peor pesadilla de otra generación.

Referencia:

lunes, 18 de abril de 2011

La imposibilidad de viajar en el tiempo confirmada por un metamaterial

Al recrear el Big Bang dentro de un metamaterial por primera vez, los físicos han demostrado por qué la flecha cosmológica del tiempo apunta en la misma dirección que la flecha termodinámica.

Los metamateriales son estructuras periódicas que pueden ser diseñadas para dirigir la luz de una manera específica. El truco consiste en manipular las propiedades del "espacio electromagnético" en el que la luz viaja controlando los valores de la permitividad y la permeabilidad de este espacio.

En los últimos años, los físicos han tenido una gran cantidad de diversión utilizando metamateriales para construir todo tipo de dispositivos emocionantes, la más conocida es una capa de invisibilidad que dirige la luz alrededor de un objeto, con lo que se logra ocultar de la vista.

Pero los metamateriales tienen una aplicación más profunda porque no hay una analogía formal entre las matemáticas de los espacios electromagnéticos y las matemáticas de la relatividad general y el espacio-tiempo que describe.

Esto significa que es posible reproducir dentro de un metamaterial una copia exacta de muchas de las características del espacio-tiempo. Hemos visto algunas de estas ideas, como la manera de construir un agujero negro e incluso crear un multiverso.

Hoy en día, Igor Smolyaninov de la Universidad de Maryland, College Park, dice que es posible recrear la flecha del tiempo dentro de un metamaterial. Este tipo de experimento, permite el estudio experimental de uno de los grandes misterios pendientes en la ciencia: ¿por qué la flecha cosmológica del tiempo es la misma que la flecha termodinámica del tiempo?

Al mismo tiempo, el ejercicio da una visión curiosa en la posibilidad de viajar en el tiempo.

La flecha del tiempo es un viejo enigma. Muchos cosmólogos creen que el Universo comenzó con el Big Bang, un evento que está claramente en nuestro pasado.

Y sin embargo, nuestra definición estándar de tiempo proviene de la termodinámica y la observación de que la entropía siempre aumenta con el tiempo. Por ejemplo, usted puede fácilmente romper un huevo o mexclar leche con su café, pero revertir estos procesos es difícil. La observación de fenómenos como éstos se definen en la flecha del tiempo.

Pero ¿por qué las flechas termodinámica y cosmológica de tiempo apuntan en la misma dirección?

Los metamateriales pueden ayudar a los investigadores a estudiar este problema, ya que es posible manipular el modo en que las dimensiones espaciales se vuelvan temporales. Smolyaninov describe cómo crear un material en el que el las direcciones X e Y son, semejante al espacio, mientras que la dirección Z es temporal.

La luz se mueve así en este espacio de manera análoga al comportamiento de una partícula masiva en un espacio-tiempo (2 +1) de Minkowski, que es similar a nuestro propio universo. Así que el patrón de propagación de la luz dentro de este metamaterial es equivalente a las "líneas del Universo" de una partícula en un universo de Minkowski.

Smolyaninov dice que un evento de la Gran Explosión en el metamaterial se produce cuando el patrón de los rayos de luz se expande en relación con la z-dimensión, o en otras palabras, cuando las líneas de universo se amplían en función del tiempo. Esto establece una flecha cosmológica del tiempo.

La siguiente pregunta es cómo esta flecha se refiere a una flecha termodinámica del tiempo. Esto requiere una definición de la entropía en el interior del metamaterial que Smolyaninov dice que es una especie de medida del desorden asociado con los rayos de luz.

Si los metamateriales son perfectos los rayos se propagan perfectamente. Pero no son perfectos y así se distorsionan los rayos mientras se propagan. Esto determina una flecha termodinámica del tiempo y muestra por qué es la misma que la flecha cosmológica del tiempo.

Pero hay un problema, por supuesto. Aunque hay una analogía formal matemática entre estos espacios, no es del todo claro lo que hace el papel en el espacio de Minkowski de la propagación de la luz imperfecta a través del espacio electromagnético.

En el pasado, los científicos sólo han sido capaces de pensar sobre estos problemas en teoría, pero ahora los metamateriales permiten el estudio de forma experimental.

Sorprendentemente, Smolynainov y un colega, Yu-Ju Hung, han construido su simulador de tiempo. Su sistema se realiza mediante tiras de plástico especiales colocadas sobre un sustrato de oro. Y los rayos de luz son en realidad plasmones que se propagan a través de la superficie del metal mientras son distorsionados mediante tiras de plástico.

Esto representa una serie de primicias. Para empezar, Smolyaninov utiliza este sistema para recrear el Big Bang en su laboratorio. Él lo llama un juguete del Big Bang, pero es difícil subestimar la importancia de este evento. ¡Es un Big Bang en su propio laboratorio!

A continuación, pasa a utilizar su modelo para estudiar las flechas del tiempo. ¡Imagínese: su propia flecha del tiempo a la medida!

Este sistema también ofrece una interesante visión de la naturaleza de las máquinas del tiempo. La cuestión Smolyaninov pregunta es si es posible crear curvas cerradas como el tiempo en su material. Esto equivale a preguntarse si es posible para las partículas en un espacio de Minkowski para viajar en una curva que los lleva de nuevo al punto en el espacio-tiempo en el que comenzó.

Él considera que esta imaginando un metamaterial cilíndrico en la que la z-dimensión y la dimensión radial son el espacio y como la distancia angular alrededor del cilindro es de tiempo similar. Se pueden cerrar las curvas como el tiempo en este sistema, se pregunta. "A primera vista, esta pregunta es simple, y la respuesta debería ser sí," él dice.

Pero bajo un examen más detallado de la respuesta resulta ser diferente. Señala que si bien es posible que los rayos de luz siguen trayectorias circulares que volver al punto desde donde empezaron, estos rayos no perciben la dimensión angular como temporal.

En comparación, cualquier rayo que perciba la dimensión angular como temporal en realidad no puede volver al mismo punto del espacio-tiempo, (aunque se puede recorrer una línea del mundo que está muy cerca de una curva cerrada de tiempo similares). Así que las máquinas del tiempo, incluso triviales como esta, son imposibles.

Esto es sumamente un impresionante trabajo. Smolyaninov es uno de los pensadores más importantes del mundo en metamateriales y ha hecho mucho para avanzar en la teoría que vincula los espacios electromagnéticos y Minkowski.

Ahora él esta realmente ensuciándose las manos. En la creación de los metamateriales que reproduzcan el Big Bang y las flechas del tiempo, sin duda ha logrado un hito extraordinario.

Referencia:

viernes, 15 de abril de 2011

Una forma completamente negra de polillas moteadas (izquierda) casi sustituye la forma típica de color claro (derecha) durante la revolución industrial en Inglaterra. Investigadores cultivaron este macho negro y hembra blanca típica para ayudar a determinar que una sola mutación que ocurrió en la década de 1840 produjo la famosa adaptación. Créditos: Ilik Saccheri, Science/AAAS


La mecánica molecular detrás de un ejemplo clásico de la evolución que se remonta a la época de Darwin pronto será revelado.

En un época en que el hollín de las fábricas de carbón obscurecía a los árboles y edificios en pleno siglo 19 en Inglaterra, los naturalistas cuentan que las polillas fueron también salpicadas de manchas en un elegante negro. En tan sólo unas pocas décadas dedes su aparición por primera vez cerca de Manchester, las polillas negro dominaban, lo que representa el 90 por ciento o más de la población de polilla en las zonas urbanas locales.

Los libros de texto de Biología citan a menudo las polillas como un ejemplo clásico de la adaptación a las cambiantes condiciones ambientales. El problema es que nadie sabía realmente como ocurrieron los cambios moleculares que llevaron a las polillas a cambiar el color de las alas. Fue un debate abierto sobre el cambio, lo que permitió suponer que las polillas se adaptaban al medio y así evitar a los depredadores de aves, debido a una mutación o muchas o si la adaptación se produjo una o varias veces.

Ahora, investigadores conducidos por Ilik Saccheri, un genetista ecológico de la Universidad de Liverpool en Inglaterra, publican en la revista Science que se localizado la mutación responsable. La mutación producida por una región de un cromosoma que contiene las instrucciones genéticas para crear patrones de colores en las alas de las mariposas y en otras especies relacionadas. Esta región de la mariposa y la polilla del genoma es un punto caliente de la adaptación -una en la que las mutaciones producen cientos de diferentes patrones de las alas de color en muchas especies-, tales como las variaciones que permiten que las especies comestibles de mariposas imiten a las especies de mal sabor y las mutaciones que controlan el tamaño de manchas oculares en las alas de mariposa.

"El hecho de que los mapas de mutación en la misma región como del patrón de ala de los genes de la mariposa es increíble", añade Robert D. Reed, un biólogo evolutivo de desarrollo en la Universidad de California, Irvine, que no participó en el estudio. "Es de suponer que se necesitan cientos de genes para hacer un patrón de las alas, así que ¿por qué esta región aparecen una y otra vez?".

Hasta ahora, nadie ha identificado los cambios en el ADN que llevan a los cientos de patrones de colores diferentes, pero los científicos están activamente recorriendo la región descubrir el cambio de patrón de mutaciones.

Del mismo modo, Saccheri y sus colegas todavía no saben qué genes o elementos reguladores son alterados por la mutación del carbón. Lo que sí sabemos es que las polillas negras que se recogieron a partir de 80 sitios en el Reino Unido comparten algunos marcadores genéticos clave, lo que sugiere que la mutación del carbón implica sólo un punto en el genoma y que pasó una sola vez, probablemente poco antes de la avistamientos reportados por primera vez en 1848 cerca de Manchester.

"Creo que tenemos evidencia bastante fuerte de que el melanismo industrial en el Reino Unido fue sembrado por una mutación reciente", considera Saccheri. Eso no puede resolver el asunto, sin embargo. "Hasta que no encontremos la mutación causal se mantiene aún abierto el debate".

Las polillas moteadas en Europa continental y el este de Estados Unidos también se quedaron oscuras durante la revolución industrial. Saccheri no sabe si las polillas tienen mutaciones en la misma región que las polillas británica o si las mutaciones en otros lugares producen el patrón del mismo color.

Cabe destacar que, una vez que el aire se limpió en Gran Bretaña, las polillas negras disminuyeron en número, mientras que la forma salpicada aumento. La polilla negra ahora representa sólo un pequeño porcentaje de polillas en Inglaterra y Gales, Saccheri, comenta.

Referencia:

viernes, 8 de abril de 2011

Los físicos advierten que la extraña señal podría ser un producto del funcionamiento del detector de partículas de la FCD. Créditos: FERMILAB.

La sana competencia entre el LHC y el Tevatron ha producido una buena noticia. De acuerdo a un resultado preliminar que se ha publicado en ArXiv el equipo de científicos en Fermilab formulan la existencia de una posible nueva fuerza o nueva partícula en la Física de altas energías. Pese a que sería un hito importante en la Física de partículas, es importante considerar que los resultados podrían ser producto de errores en el modelado de los datos en el detector CDF, detector que como otros del mismo tipo es bastante complejo. La sospecha viene de que la energía a la que opera el Tevatron no es muy alta y esta supuesta nueva partícula debía de haberse manifestado antes, siendo inexplicable que no se haya detectado hasta ahora.

Detectar una nueva partícula se logra a partir de la identificación de las señales que va reconociendo el detector, subproducto de su desintegración. La creación de partículas pesadas requiere energías a altos niveles para poder lograr que tal energía se transforme en la partícula deseada. Lo anterior se consigue haciendo que choquen dos partículas a altas velocidades en el centro del detector.

En la generación anterior de aceleradores se pudo generar partículas predichas por el Modelo Estándar de Física de Partículas a excepción de la partícula de Higgs y para generar nuevas partículas hipotéticas que predicen teorías propuestas o una física desconocida se construyó el LHC y se mejoró el Tevatron.

Producto de lo anterior en el Tevatron se han estudiado datos que procedentes de colisiones que deben de producir el bosón W (mediador de la interacción nuclear débil) que pesa 87 veces más que un protón y que rápidamente se desintegra en chorros de otras partículas. Partículas que producen pares quark-antiquark que terminan formando mesones y/o leptones como puedan ser electrones o muones. Calculando las masas y energías de todos estos subproductos se puede inferir la masa la partícula original que produjo esos chorros, la cual fue creada en la colisión.

En esos experimentos de producción de W han buscado eventos en los que la energía no correspondía con la masa de estas partículas. Los investigadores del experimento CDF, han detectado entre los sucesos estudiados correspondientes a generadores de bosón W, 250 eventos en los que los chorros corresponden a una partícula con una masa equivalente a 160 veces la del protón, unos 144 GeV/c2. Esta señal correspondiente a unos 144 GeV se trata de un leptón y un par de chorros de partículas, pero no hay predicciones de los modelos de partículas que predigan con seguridad una partícula con esta masa.

La estadística predice que la probabilidad de que al azar se produzca un evento así es de 1 en 1300, pero aún cabe dentro de lo posible que no sea más que una fluctuación estadística. De momento, aún no hay nada claro y habrá que esperar a tener más datos para poder afirmar que hay una nueva partícula no descrita por el modelo estándar. El análisis de este tipo de chorros es muy complicado y la estadística es de momento baja para lo que se considera aceptable en este tipo de situaciones. Podría darse el caso de eventos en los que se produjeran simultáneamente dos bosones W o un par W-Z, lo que daría cuenta de sucesos a 80 GeV. Al parecer se han registrado eventos de ese tipo.

En todo caso, con el paso del tiempo, o bien se confirmará el resultado o definitivamente se descartará. Ya se está analizando otro conjunto de datos del mismo tipo registrados en el CDF. Pero quizás se obtengan datos más precisos, o al menos complementarios, en el detector D0, que ya ha generado un conjunto de datos similares al CDF y se espera la publicación de de los mismos en cuestión de semanas. Si la nueva partícula existe también sería visible en el D0. Al parecer todo esto se dilucidará en cuestión de unos meses.

Si finalmente se confirma la existencia de esta partícula parece que no sería el esperado Higgs (partícula o partículas que permitiría comprender el concepto de masa del resto de las partículas), porque su comportamiento no es el que cabría esperar del Higgs, aunque se ha propuesto su existencia en una gama de energía en la que entraría también esa masa que los resultados del Tevatron ya lo habían descartado.

“La única cosa que sabemos seguro es que no es el Higgs”, agrega Giovanni Punzi, físico que está analizando los datos del Fermilab y portavoz del grupo.

En todo caso, esa posible nueva partícula abriría una nueva puerta en el mundo de la Física de Altas Energías. Algo más profundo habría por ahí que quizás el LHC revele pronto. Ya se ha propuesto un nuevo bosón vectorial electrodébil Z′ con una masa aproximada entre 140-150 GeV/c2 para explicar estos resultados.
O puede que los del Fermilab simplemente están confundiendo los deseos con la realidad.

Referencia:

lunes, 4 de abril de 2011

¿Qué pasará con los transbordadores espaciales?

Créditos: Dane Penland, National Air and Space Museum Archives, Smithsonian Institution
Los transbordadores espaciales se preparan para su segunda vida como piezas de museo, en tanto que funcionarios de la NASA comienzan la clasificación de los objetos almacenados, tratando de averiguar qué hacer con todos los objetos que ya no son útiles.

"Es como tener que mudarse de apartamento con bastante rapidez", expresa Bob Sherouse en la sede de la NASA, que se encarga de la distribución de material de transporte. "Usted tiene pensado en un número de elementos para llevar a su nueva casa, cuando de pronto descubre elementos que había debajo de tu cama o en su armario".

Los transbordadores pasarán a través de un largo proceso de limpieza antes de que estén listos para su debut en público. Cuando aterriza un transbordador, está cubierto de peligros: hidrógeno líquido y oxígeno como combustible, refrigerante de amoniaco, pirotecnia en vivo desde las ventanas de escape de emergencia, entre otras cosas.

"Tenemos que eliminar los riesgos químicos, para que cuando se encuentre en un museo, el público puede acercarse a él sin riesgo de desgasificación o goteo", agrega el director de vuelos Stephanie Stilson, que supervisó todas las revisiones posteriores y preparaciones para el último vuelo de Discovery, transbordador que realizó 11 viajes al espacio y ahora esta preparado para la jubilación.

Otras piezas que se eliminarán por seguridad es el sistema de control de avance de reacción, cuyos motores pequeños controlaban  la rotación de la nave. Las lanzaderas serán despojadas de sus entrañas y vueltas a poner de nuevo.

"Desde el exterior no se podrá decir que falta algo, pero por dentro estará vacía", añade Stilson.

Algunas piezas, incluyendo ventanas y partes móviles de las alas, será eliminadas y probadas para ver cómo soportaban el duro ambiente del espacio.

"Esta es la única nave reutilizable que tenemos. Ver cómo le fue en la exposición del ambiente espacial es importante para nosotros", agrega Kevin Templin del Centro Johnson de la NASA en Houston, que está a cargo de la transición de los transbordadores a la jubilación. "Hay ciertas partes de aquí que si no se tienen que eliminar, no las retiraremos. Ahora tenemos esa oportunidad".

Al menos uno de los transbordadores que aparecen no podrá contar con un brazo manipulador que fue construido por la Agencia Espacial Canadiense y volverá a Canadá. Los tres transbordadores que llegan a sus nuevas casas sin sus motores principales. Los 14 motores originales -tres de cada transbordador: Atlantis, Discovery y el Endeavour, además de cinco piezas de repuesto- se reservarán para ser reutilizados en futuros vehículos de vuelo espacial. Los museos tendrán réplicas construidas a partir de piezas de repuesto.

"Se tiene el hardware de vuelo real en él", añade Stilson. "Lo que no hay es agallas".

Aparte de eso, "estamos tratando de mantenerlos lo más reales como sea posible", dijo Stilson. "En este momento el plan es mostrarlos como si acabaran de regresar de vuelo." Eso significa que no hay trabajos de pintura nueva, aunque si un azulejo escudo térmico se cae, la agencia probablemente lo sustituirá con una réplica.

Pero si usted quiere un azulejo para su propio museo o en la escuela , sólo tiene que preguntar. La NASA creó un sitio web en octubre de 2009 para limpiar su garaje. Se han proyectado 24 mil elementos, se comprometió a entregar cerca de 3,000 a escuelas y museos de todo el país y ha entregado alrededor de 700. Sólo los gastos de envío y manipulación, que por un azulejo es de $ 23.40 dólares.

"Puede que los elementos vayan desde el más pequeño paquete de alimentos liofilizados a los objetos tan grandes como un simulador", comenta Sherouse. "Hay mucho más disponible para las personas que lo soliciten".

¿Qué sucede cuando los artefactos son robados del transporte (o se hacen falsificaciones) para poder venderlas en eBay? Eso ya pasó, narra Sherouse. Un demo de Enterprise fue puesto a la venta en eBay hace unos días recientemente, hasta que la NASA actuó. Un traje espacial de la época Mercury, fue robado por un ex empleado y mantenido en un garaje desde hace décadas, también fue puesto a la venta recientemente.

La NASA no toma esas cosas a la ligera, concreta Sherouse. "Cuando vemos que esto sucede, se toman medidas", concluye. Entre otras cuestiones, es ilegal el envío de una gran cantidad de artefactos de transporte fuera del país por razones de seguridad nacional. La responsabilidad de los secretos de la ingeniería se traslada a los museos, cuando los transbordadores se hayan puesto a la exhibición.

"Es responsabilidad del gobierno ahora, pero habrá una transferencia de hardware", añade Templin. "Van a recibir una carta diciendo: "Usted ahora es  responsable de asegurar que esto no caiga en manos equivocadas".

Por ahora, sin embargo, es casi lo mismo que otro día en la oficina para el equipo teniendo a Discovery en su etapa final. El fin de una era.

"Realmente creo que me va a golpear, y convertirse en algo real para mí que todo esto llegue a su fin, cuando llevemos a Discovery al Smithsonian y lo dejemos ahí", expresa. "Espero que los tres sitios que sehan elegido transmitan no sólo la comprensión técnica de estas artesanías, sino también el corazón y el alma del equipo que se hizo cargo de ellos".

Referencia:

viernes, 1 de abril de 2011

El virófago del Lago Orgánico, un virus que se come a otros virus

Créditos: Nature News.
Un estudio genómico de la vida microbiana en un lago de la Antártida ha revelado un nuevo virófago -un virus que ataca a los virus-. El descubrimiento sugiere que estas formas de vida son más comunes y tienen un papel más importante en el medio ambiente, de lo que se pensaba.

Un equipo de investigadores en Australia halló el virófago cuando indagaban la vida en un lago con altos niveles de sal en el este de la Antártida. Mientras secuenciaban el genoma colectivo de microbios que viven en las aguas superficiales, se descubrió el virus, que denominaron Virófago del Lago Orgánico (OLV).

El genoma OLV se identificó enclavado dentro de las secuencias de phycodnavirus -un grupo de virus que que atacan las algas gigantes-. Evidencia de intercambio de genes y la posible evolución  de la cooperación entre las dos sugiere que phycodnavirus es presa de OLV. Aunque OLV es el virógafo dominante en el lago, la obra sugiere que otros pueden estar presentes.

Al matar al  phycodnavirus, el OLV podría permitir que las algas crecieran. Ricardo Cavicchioli, microbiólogo de la Universidad de Nueva Gales del Sur en Sydney, Australia y sus colegas encontraron que los modelos matemáticos del sistema orgánico del lago demostraban que el número de virófagos sobre su anfitrión provocaba una menor mortalidad de las algas y más flores en el lago que pasa dos meses libre de hielo en verano.

"Nuestro trabajo pone de manifiesto no sólo una diversidad increíble en la vida microbiana en el lago, sino también lo poco que entendemos acerca de la complejidad de las funciones biológicas", añade Cavicchioli. Los hallazgos aparecen publicados en las Proceedings of the National Academies of Science.

Gigante asesino


Otro virófago descrito este mes tiene similares efectos ecológicos. La Mavirus marino ataca al gigante virus Cafeteria roenbergensis, alimentándose de ella, una de las especies más difundidas en el mundo de zooplankton.

"El Mavirus es capaz de rescatar el zooplancton infectado -que, en cierto modo, confiere inmunidad contra la infección", comenta Curtis Suttle, microbiólogo marino de la Universidad de British Columbia en Vancouver, Canadá y líder del equipo que descubrió el Mavirus.

"Sin saberlo, había papiloma en muestras de Cafetería desde principios de 1990", dice Suttle. Pero el viráfago no fue identificado hasta el genoma de Cafetería fue secuenciado.

El genoma de Mavirus es similar a las secuencias de ADN llamados transposones eucariotas, que se insertan dentro de los genomas de los organismos pluricelulares como las plantas y los animales. Estos "genes saltadores" pueden ser descendientes de una virófago, considera Suttle. "Uno puede imaginar la presión evolutiva de los anfitriones para cultivar de alguna manera virófagos para protegerse de la infección por los virus gigantes", agrega.

Sputnik francé

El primer virófago , llamado Sputnik, fue descubierto en un depósito de agua de refrigeración en París en 2008.

"Hemos estado esperando a otros que encontraran virógafos, para confirmar que nuestro descubrimiento no era un artefacto", opina Christelle Desnues, microbiólogo en el Centro Nacional de Investigación Científica en Marsella, Francia, y miembro del equipo que describió a Sputnik. Ahora se anticipa "un descubrimiento exponencial de virófagos".

Los anfitriones de los tres virófagos conocidos pertenecen a un grupo de virus gigantes conocidos como de gran ADN nucleocitoplasmático (NCLDV). "Los virus NCLDV tienen genomas grandes y complejos que les permitan incorporar virófagos más pequeños, algo que los virus más pequeños no pueden hacer", dice Desnues.

La OLV fue descubierto cuando el estudiante de posgrado Cavicchioli, Sheree Yau, notó que algunas de las secuencias de los microbios en el Lago Orgánic fueron similares a los que codifican proteínas como en Sputnik. Mavirus tiene secuencias similares, por lo que la tendencia podría ayudar a identificar otros virófagos.

OLV y virófagos simlares, pueden estar extendidos. El gen de coficación de proteínas se encuentran en una variedad de otros ambientes acuáticos, incluyendo el cercano lago de Ace en la Antártida, una laguna salina en las Galápagos, una zona de surgencia oceánica cerca de las Islas Galápagos, un estuario en Nueva Jersey, y un lago de agua dulce en Panamá.

El elevado número de coincidencias, refleja el hecho de que OLV es primer virófago que se encuentran en su entorno natural, añade Federico Lauro, también un biólogo molecular de la Universidad de Nueva Gales del Sur y un co-autor del papel.

El lago Organic, formado hace 6.000 años, cuando los niveles del mar eran más altos, es un laboratorio natural, opina Lauro. "Estos lagos de origen marino son extraordinarios laboratorios para trabajar porque están aislados, sin embargo, son sistemas dinámicos".

Referencia:

Related Posts Plugin for WordPress, Blogger...