lunes, 31 de diciembre de 2012

2012 en números y un ¡Feliz 2013!


2012 con sus altas y bajas ha sido un álgido año en el ámbito político, económico y social. Han sido tiempos de certezas e incertidumbres pero que dejan claro el firme deseo de emprender acciones para poder mejorar, dentro de nosotros comenzamos a comprender el gran poder que tenemos para construir el mundo con el que soñamos.

En tanto a lo largo de este espacio se recibieron 82,295 visitas y se visualizaron 114,723 páginas, hubo 123 comentarios a lo largo de 99 entradas publicadas en este periodo destacando:

Enero
Febrero
Marzo
Abril
Mayo
Junio
Julio
Agosto
Septiembre
Octubre
Noviembre
Diciembre

Descartando redes sociales, sitios promotores de noticias, motores de búsqueda y Wikipedia los sitios desde los cuales provinieron visitas fueron:
  1. Llamame Lola
  2. Dogguie
  3. Todos Mienten
  4. Coscorrón de razón
  5. 101 lugares increíbles
Que sea un gran 2013 para cada todos ¡Otro mundo es posible!

viernes, 28 de diciembre de 2012

¿Quién mato a Rámses III?

Durante más de un siglo, egiptólogos se han preguntado sobre la desaparición misteriosa de Ramsés III en 1155 aC De acuerdo a los registros de ensayos conservadas en el Papiro de Turín Judicial, el faraón fue víctima de un asesinato durante un golpe de estado sangriento. Pero, ¿fue realmente este el caso, y si es así, que dirigió el complot?
Credit: BMJ

Un nuevo estudio publicado en el British Medical Journal muestra que Ramsés III murió violentamente después de conspiradores cortaran su garganta y pone de manifiesto que uno de los presuntos cabecillas, Pentawere Ramsés su hijo, pudo haber sido estrangulado después. El equipo de investigación llegó a estas conclusiones luego de analizar dos muestras de ADN y tomografías computarizadas de dos momias: Ramsés III (con vendas de lino, arriba a la derecha) y un joven no identificado previamente encontrado con él en una sala en Deir el-Bahari.

El sujeto no identificado de 20 años de edad (en la fotografía se muestra con flechas apuntando a extraños pliegues de la piel comprimidos) resultó ser uno de los hijos de Ramsés: Él parecía haber sido estrangulado (también se evidencia en la exploración de tórax sobreinflado) y enterrado con una piel de cabra, un ritual que los antiguos egipcios consideraban impuro y por lo tanto una marca de deshonor como corresponde a un asesino. Sentarse en el trono ha sido durante mucho tiempo un negocio peligroso, según parece.

Referencia:

martes, 25 de diciembre de 2012

Cada año, coronar un logro científico como Revelación del Año no es una tarea fácil y 2012 no es la excepción. Este año se produjeron pasos agigantados en la física, junto con importantes avances en genética, ingeniería y muchas otras áreas. De acuerdo con la tradición, editores de Science y personal ha seleccionado un ganador y nueve finalistas, así como poner de relieve las principales noticias del año de noticias y las áreas a observar en 2013.

1. Descubrimiento del Bosón de Higgs
2. Genoma de denisovano
3. Ingeniería en Genomas
4. Proyecto Crash abre una puerta en física de neutrinos
5. Más allá de los Genes
6. El complejo aterrizaje de Curiosity
7. Primera estructura de una proteína obtenida de un láser de rayos X
8. Interfaces cerebro-máquina
9. Los fermiones de Majorana, por fin
10. Cómo hacer óvulos de Células Madre

Descubrimiento del Boson de Higgs

Experimento CMS. Créditos: CERN.

Ningún avance científico reciente ha generado más alboroto que esté. El 4 de julio, los investigadores que trabajan en el Gran Colisionador de Hadrones (LHC), en Suiza, anunciaron que habían descubierto una partícula que parece ser el largamente buscado bosón de Higgs, la última pieza que falta en el modelo de los físicos estándar de las partículas fundamentales y fuerzas. El seminario en el que se presentaron los resultados se convirtió en un circo mediático, y la noticia capturó la imaginación de personas de todo el mundo. "[H]appy ‘god particle’ day'", escribió will.i.am, cantante del grupo de pop de The Black Eyed Peas, a sus 4 millones de seguidores en Twitter.

Sin embargo, durante todo el bombo, el descubrimiento del bosón de Higgs fácilmente merece el reconocimiento como la revelación del año. Con una hipótesis de más de 40 años a sus espaldas, el bosón de Higgs es la clave en la Física para la explicación de como las partículas fundamentales obtienen su masa. Su observación completa el modelo estándar, quizá la teoría más elaborada y precisa de toda la ciencia. De hecho, la única pregunta importante que pesa sobre el avance es si marca el comienzo de una nueva era de descubrimientos en la física de partículas o el último hurra para un campo que ha seguido su curso.

El Higgs resuelve un problema básico en el modelo estándar. La teoría describe las partículas que constituyen la materia ordinaria: los electrones que giran en los átomos, los quarks up y quarks down que componen los protones y neutrones en el núcleo atómico, los neutrinos que son emitidos en un tipo de radiactividad y el conjuntos de dos de primos más pesados ​​de estas partículas que emergen en las colisiones de partículas. Estas partículas interactúan intercambiando otras partículas que transmiten tres fuerzas: la fuerza electromagnética, la fuerza nuclear débil, que genera neutrinos y la nuclear fuerte, que une los quarks.

Pero hay una trampa. A primera vista, el modelo estándar que parece ser una teoría de las partículas sin masa. Esto se debe simplemente al asignar masas de las partículas hace que la teoría se descontrolan matemáticamente. Así que de alguna manera la masa debe surgir de las interacciones de las partículas sin masa.

Ahí es donde entra en juego el bosón de Higgs Los físicos asumir que el espacio vacío se llena con un "campo de Higgs", que es un poco como un campo eléctrico. Partículas interactúan con el campo de Higgs a adquirir la energía y, por lo tanto, la masa, gracias a la famosa equivalencia de los dos, encapsulado en la ecuación E = mc2 Albert Einstein. Al igual que un campo eléctrico está formado por partículas llamadas fotones, el campo de Higgs consiste en bosones de Higgs tejidas en el vacío.

Esa hazaña marca un triunfo intelectual, tecnológico y organizativo. Para producir el bosón de Higgs, los investigadores del laboratorio europeo de física de partículas, el CERN, cerca de Ginebra, han empleando $ 5,5 mil millones y 27 kilómetros de largo que mide el LHC. Para detectar el bosón de Higgs, se construyeron gigantescos detectores-ATLAS, que está a 25 metros de altura y 45 metros de largo, y el detector CMS, que pesa 12,500 toneladas. Los equipos de ATLAS y CMS equipos cuentan con 3,000 miembros cada una. Más de 100 países trabajan en conjunto en el LHC.

Tal vez lo más impresionante es el hecho de que los teóricos predijeron la existencia de la partícula y sus propiedades, hasta llegar a las velocidades a las que se debe decaer en varias combinaciones de otras partículas. (Para probar si la partícula es realmente el Higgs, los investigadores están midiendo las tasas ahora). Los físicos hicieron tales predicciones hace decádas. En 1970, cuando sólo tres tipos de quarks eran conocidos, los teóricos predijeron la existencia de un cuarto, que fue descubierto cuatro años más tarde. En 1967, predijeron la existencia de partículas que transmiten la fuerza débil, los bosones W y Z, que fueron encontrados hasta 1983.

Los teóricos de partículas ofrecen diversas explicaciones de su habilidad para el pronóstico. Colisiones de partículas son inherentemente reproducibles y libre de contingencia, dicen los teóricos. Mientras que no hay dos galaxias exactamente iguales, todos los protones son idénticos. Así que cuando los destrozas, los físicos no necesitan preocuparse acerca de las peculiaridades de este protón o un protón debido a que no hay tales. Por otra parte, dicen los teóricos, a pesar de su complejidad matemática, el modelo estándar es conceptualmente simple.

El modelo estándar en última instancia, debe su poder de predicción sobre el hecho de que la teoría se basa en la noción de simetría matemática, algunos teóricos dicen. Cada una de las tres fuerzas en el modelo estándar está relacionado y, en cierto sentido, necesaria por una simetría diferente. El mecanismo de Higgs en sí fue inventado para preservar tal simetría mientras que da masa a las partículas que transportan la fuerza como la W y Z. el En pocas palabras, los argumentos de simetría son poderosas herramientas de predicción.

No importa la razón de las proezas físicos de partículas "predictivas", con el bosón de Higgs, aparentemente en la bolsa, no hay ninguna predicción similar que probar a continuación. Hay un montón de razones para pensar que el modelo estándar no es la última palabra sobre la física fundamental. La teoría es obviamente incompleta, ya que no incorpora la fuerza de la gravedad. Y la propia teoría sugiere que las interacciones entre el bosón de Higgs y otras partículas debería hacer al bosón de Higgs enormemente pesado. Así que los físicos sospechan que las nuevas partículas que acechan en el vacío puede contrarrestar ese efecto. Sin embargo, esos argumentos no son casi tan precisos como los que requiere un bosón de Higgs.

De hecho, los científicos no tienen ninguna garantía de que cualquier nueva física se encuentre dentro del alcance del LHC o cualquier concebible colisionador. El modelo podría mostrar el funcionamiento interno del Universo que la naturaleza está dispuesto a revelar. El descubrimiento del bosón de Higgs es un gran avance.


Genoma de denisovano


Fragmento de fósil denisovano. Créditos: Instituto Max Planck.

Hace dos años, paleogenética  se mostraba como la Revelación del Año por la publicación de la secuencia completa del genoma de los neandertales. En 2011, el mismo laboratorio compartió nuestro centro de atención para unir las piezas del genoma de los denisovanos, un ser humano arcaico que vivió en Siberia hace 50.000 años. Sin embargo, las secuencias de ADN antiguo y otros son borrosas al lado de los genomas de alta resolución que los investigadores ahora pueden secuenciar de cualquier persona que vive. Gran parte del ADN de fósiles se degrada en cadenas simples que secuenciadores automáticos no pueden copiar. Los investigadores estaban resignados a descifrar partes únicas del código de genomas antiguos, ya sea de humanos arcaicos, animales o agentes patógenos.

Este año, sin embargo, se ha desarrollado un método nuevo y extraordinario que permite al equipo volver a examinar el ADN y la secuencia del Denisovano 31 veces. El genoma resultante, de una niña que vivía en Denisova en una cueva en Siberia, revela su material genético con detalles nítidos, que los investigadores suelen obtener a partir del ADN de las personas vivas. Esta hazaña tecnológica promete dar un gran impulso a la utilización del ADN antiguo, ya que los investigadores comienzan a aplicar el método a muestras de otros géneros y especies.

Investigadores de DNA antiguo suele haber adaptado las herramientas utilizadas para la secuencia de ADN de los seres humanos que viven, que comienzan con muestras de ADN de doble cadena. Pero el ADN antiguo por lo general se rompe en cadenas simples. Así postdoc Matthias Meyer en el Instituto Max Planck para la Antropología Evolutiva en Leipzig, Alemania, se dedicó a la secuencia de cadena simple de ADN antiguo de la nada. Fracasó al principio, pero luego logró unir moléculas especiales a los extremos de una sola cadena de ADN, manteniéndolo en su lugar para la secuenciación. Como resultado de ello, usando solamente 6 miligramos de hueso de dedo meñique de la chica siberiano, Meyer y sus colegas fueron capaces de copiar 99,9% de su genoma al menos una vez y 92% del genoma de 20 veces el valor de referencia para la identificación fiable de las posiciones de nucleótidos.

Los resultados confirmaron que denisovanos se cruzaron con los antepasados ​​de algunos seres humanos, las personas que habitan algunas partes de la isla sudeste asiático han heredado el 3% del ADN nuclear de denisovanos. El genoma literalmente ofrece una visión de la chica, lo que sugiere que ella tenía ojos marrones, cabello castaño y piel morena. También permitió al equipo usar el ADN para estimar que la niña murió entre 74,000 a 82,000 años atrás. La alta calidad del genoma ofrece a los investigadores una nueva herramienta poderosa para la pesca de genes que han evolucionado recientemente, proporcionando un "casi completo" catálogo de los pocos cambios genéticos que nos separan de los denisovanos, que eran parientes cercanos de los neandertales.

Estos datos son aún más notable porque los denisovanos son tan poco conocids en los fósiles: sólo un trocito de hueso de un dedo y dos molares con fiabilidad se ha asignado a ellos hasta ahora. En contraste, los neandertales se conocen desde cientos de fósiles, pero a partir de un genoma mucho menos completo.

Expertos neandertales pueden ponerse al día pronto. Meyer y sus colegas han estado tratando con el método "Matías" en muestras de fósiles que anteriormente no pudieron producir mucho ADN. Un genoma Neandertal detallado comparable al Denisovano se espera en 2013.


Ingeniería en Genomas


Investigadores usan TALENs para poder crear cerdos para usarlos en investigaciones. "Créditos: RECOMBINETICS"

Este año, los ingenieros del genoma tienen en sus manos algunas nuevas herramientas potencialmente poderosas que prometen facilitar la modificación del ADN con fácil acceso a los biólogos que estudian una variedad de organismos, incluyendo la levadura y los seres humanos. Una de estas herramientas, llamadas Talens ("activador de transcripción-como efecto nucleasas"), puede destruir o alterar genes específicos en el pez cebra, sapos Xenopus y ganado. Un TALEN es una proteína que corta el ADN en lugares específicos, y la reparación subsiguiente modifica el gen. Un grupo de investigadores usaron la técnica para crear un cerdo miniatura útil para estudiar las enfermedades del corazón. Otros están modificando los genomas de ratas, grillos, e incluso las células humanas de pacientes con enfermedades.

Este auge en el genoma de la ingeniería era impensable apenas unos años atrás. Para la mayoría de los organismos superiores, modificación o borrado de ADN ha sido en general una proposición. Los investigadores no podían controlar fácilmente cuando un gen añadido se insertarse en el genoma o que ADN fuera eliminadao. Como resultado de ello, la identificación de los genes específicos para corregir genes de enfermedades en las personas han planteado grandes retos.

Hace una década, una nueva tecnología llamada dedos de zinc nucleasas proporcio una forma de dirigirse a genes específicos. Los investigadores comenzaron a desarrollar esta herramienta. Pero los dedos de zinc resultaron difíciles de hacerse, y una empresa tiene todas las patentes clave. Así la excitación se hinchó de nuevo en 2009, cuando dos equipos descubierto una correspondencia de uno a uno entre las regiones repetitivas de transcripción del tipo activador de proteínas efectoras y las bases de ADN que conceden, proporcionando así una nueva forma de los genes diana.

Mientras tanto, otra tecnología genética está empezando a hacerse un nombre por sí mismo. Un inconveniente de nucleasas de dedos de zinc, Talens, y otra herramienta genoma de edición llamado meganucleasas es que deben ser rediseñados para cada destino de nuevo ADN. Estas proteínas tienen dos partes: el DNA diana y la sección de ADN de corte. Los sustitutos de la nueva tecnología de ARN que es más sencillo de fabricar que una pieza de una proteína-ADN de direccionamiento para la sección. También hace uso de una proteína bacteriana llamada Cas9, que es parte de un sistema natural de defensa bacteriana llamada CRISPR, para hacer el corte.

Los investigadores han demostrado en un tubo de ensayo que pueden combinar estos dos ARN en una sola, que tanto coincide con el ADN diana y tiene Cas9 en su lugar. El uso de este sistema, que fueron capaces de cortar el ADN diana específica, demostrando el potencial de Cas9 a trabajar como Talens. Ahora, los investigadores están tratando de este enfoque en los organismos distintos de las bacterias, y otros ingenieros del genoma están muy entusiasmados con sus clientes potenciales, lo que sugiere que algún día podría desafiar las nucleasas de dedos de zinc y Talens como la principal tecnología de ingeniería del genoma.


Proyecto Crash abre una puerta en física de neutrinos



La construcción de Daya Bay Reactor Neutrino Experiment inició en 2007.Créditos SUN ZIFA/COLOR CHINA PHOTO/AP IMAGES

A veces no es el resultado en sí sino la promesa que se cumple lo que más importa. Este año, los físicos midieron el último parámetro que describe cómo esquivas partículas llamadas neutrinos se transforman unas en otros, cerca la de velocidad de la luz. Y el resultado sugiere que en las próximas décadas la física de neutrinos sea tan rica como los físicos esperan, e incluso puede ayudar a explicar cómo evolucionó el universo para contener tanta materia y la antimateria tan poco.

Nacido en ciertas interacciones nucleares, los neutrinos vienen en tres tipos o sabores que cambian entre sí en las denominadas oscilaciones de neutrinos. Los tipos y grados para que la mezcla de sabores dependen de seis parámetros: tres diferencias entre las masas de los neutrinos y tres "Ángulos de mezcla". En marzo, 250 investigadores del experimento Daya Bay Reactor Neutrino en China informaron que el parámetro desconocido hasta ahora era el ángulo de mezcla conocida como Θ13 (pronunciado "theta uno tres"), es igual a 8.8°, más o menos 0.8°.

El mismo resultado es notable, ya que no todos los años que los físicos obtienen un parámetro fundamental nuevo. La verdadera emoción, sin embargo, deriva de las implicaciones más amplias del resultado. La medición demuestra que los tres ángulos de mezcla son mayores que cero. Este hecho, a su vez, implica que las oscilaciones de antineutrinos pueden diferir de los de los neutrinos, algo que no sería posible si Θ13 estuviera igualado a cero.

Eso es una gran cosa. Tal diferencia sería un ejemplo de una asimetría entre materia y antimateria que se conoce como violación CP. Los físicos han observado ya la violación de CP entre partículas llamadas quarks, pero saben que no es pronunciada como para explicar por qué las partículas de materia normal son mucho más numerosas que las partículas de antimateria en el universo. Los físicos creen que si hay violación de CP entre los neutrinos, entonces puede ser más parecido al efecto que creó el desequilibrio materia-antimateria en el universo.

De hecho, los investigadores en los Estados Unidos, Japón y Europa participan en experimentos en los que se utilizan aceleradores de partículas para despedir a cientos de kilómetros neutrinos a través de la Tierra empleando detectores de partículas grandes. Los esfuerzos actuales tratan de precisar, por ejemplo, la masa de los neutrinos y no sólo las diferencias entre ellos. Y los científicos en las tres regiones más grandes están planeando experimentos para buscar violación de CP entre los neutrinos. El resultado Daya Bay da a esos esfuerzos una enorme ayuda.

El resultado también supone un golpe para los físicos chinos. El equipo de Daya Bay estudia los neutrinos procedentes de los reactores de la planta nuclear de Daya Bay y dos plantas vecinas en Shenzhen. Al realizar una medición definitiva, que venció a los equipos de trabajo en los reactores en Francia y en Corea del Sur y experimentos basados en aceleradores ​​en Japón y Estados Unidos.

La medición de Θ13 no fue el único resultado en la física de partículas de este año. Los investigadores que trabajan con el acelerador más grande del mundo, el Gran Colisionador de Hadrones (LHC), en Suiza, descubrieron el bosón de Higgs, la última pieza del modelo estándar de los físicos. Pero si los investigadores del LHC no encuentra más allá de las nuevas partículas en el modelo estándar, la física de neutrinos podría ser el futuro de la física de partículas-como el hecho de que los neutrinos que tienen masa forman parte del modelo estándar. Si es así, el resultado Daya Bay puede marcar un momento en el campo.

Más allá de los Genes


ENCODE en números. Créditos: DENNIS KUNKEL MICROSCOPY INC./ VISUALS UNLIMITED/CORBIS.

$ 288 millones fueron empleados en un estudio publicado este año, que reune más de 30 trabajos mostrando el genoma humano como un lugar lleno de vida, bioquímicamente hablando. El trabajo llamado la Enciclopedia de Elementos de ADN (ENCODE), se basa en el Proyecto Genoma Humano, que descifró el orden de las bases, los bloques de construcción de nuestro ADN y encontró que menos del 2% de esas bases están definidas.

Investigadores de ENCODE tomaron una mirada intensa, no sólo en los genes sino en todo el ADN. Sus resultados muestran que gran parte del genoma que en un tiempo fue llamado como "ADN basura" realmente parece jugar un papel esencial, a menudo ayudando a transformar o eliminar genes. Se identificó con precisión a cientos de miles de puntos de aterrizaje para las proteínas que influyen en la actividad de los genes, muchos miles de segmentos de ADN que codifican para diferentes tipos de ARN, y lugares en los que las modificaciones químicas sirven para silenciar a los tramos de nuestros cromosomas, concluyendo que el 80% de la genoma es bioquímicamente activo. Estos datos proporcionan una hoja de ruta mucho mejor para los investigadores que intentan entender cómo los genes son controlados. Algunos investigadores ya han utilizado esta información para aclarar los factores de riesgo genéticos para una variedad de enfermedades, incluida la esclerosis múltiple y la enfermedad de Crohn.

Cuando estos artículos se publicaron en septiembre, los medios de comunicación se volvieron locos. ENCODE fue aclamado por el New York Times como un "recurso impresionante" y "un gran avance médico y científico" con implicaciones enormes e inmediatos para la salud humana. The Guardian lo llamó "el cambio más significativo en la comprensión de los científicos sobre la forma en que nuestro ADN opera desde la secuenciación del genoma humano".

Sin embargo, varios científicos de la blogosfera llamaron a la cobertura sobrevalorado y culpó a las revistas y líderes ENCODE exagerar la importancia de los resultados. Por ejemplo, se informó que el 76% del ADN se transcribe en ARN, la mayoría de los cuales no se enciende para ayudar a producir proteínas. RNAs comparten diferentes espacios celulares, como si fijaran direcciones en las que operan, lo que sugiere que desempeñan un papel en la célula. Los críticos argumentan, sin embargo, que ya se sabía que una gran cantidad de ARN lo hacía, y que muchos de estos ARN pueden ser productos no esenciales del genoma que no sirven a ningún propósito. Del mismo modo, un investigador ENCODE encontró 3,9 millones de regiones de 349 tipos de células en las proteínas llamadas factores de transcripción donde se unen al genoma, pero de nuevo, no está claro cuánto de ese enlace es funcional.

Sin embargo, ENCODE se destaca como un logro importante que debe facilitar el camino para mayor información sobre el genoma. Al combinar estos datos con el muestreo de un esfuerzo intensivo de datos, el Proyecto 1000 Genomas, los investigadores descubrieron que el 8% de nuestro ADN aparece con poca variación a lo largo de la población humana, una fuerte señal de lo importante que es para nuestra evolución. En general, codificar las recién descubiertos regiones funcionales se solapan con el 12% de las bases específicas de ADN vinculados a riesgos más altos o más bajos de diversas enfermedades, lo que sugiere que la regulación de los genes, no sólo el maquillaje de los genes mismos, podría estar en el corazón de estos riesgos. Los científicos han utilizado esta información para denotar el lugar de los genes relevantes y los tipos de células en varios trastornos. Los experimentos pueden ahora descubrir las bases moleculares de estas conexiones y, desde allí, identificar tratamientos potenciales. Si ese potencial se hace realidad, entonces ENCODE se han ganado sus elogios como un "recurso impresionante."


El complejo aterrizaje de Curiosity


El sistema de aterrizaje de Curiosity fue diseñado y puesto a exhaustivas pruebas por la NASA para asegurar su éxito. Créditos: NASA.

Se veía como un accidente que estaba por suceder, pero el nuevo sistema de aterrizaje "Sky Crane" diseñado para ofrecer el rover Curiosity seguridad realizado sin problemas el 5 de agosto (PDT). Curiosity aterrizó tan sólo 2,4 kilometros del centro de la diana tras un viaje de 563 millones de kilómetros de la Tierra, a pesar de que los ingenieros no tenían manera de probar el "sistema de entrada, descenso y aterrizaje" de Curiosity  (EDL) de principio a fin bajo condiciones marcianas.

Ingenieros en Curiosity de la misión en el Laboratorio de Propulsión a Chorro de la NASA en Pasadena, California, logró una impresionante EDL después de pensarlo. Seis veces antes, la NASA había aterrizado naves espaciales intactas en Marte (una vez no funcionó tan bien). Tres módulos de aterrizaje bajaron como naves espaciales de ciencia ficción de 1950, incluido los cohetes llameantes. Los tres rovers rebotaron en Marte dentro de la versión de la NASA de una pelota de playa. Pero la Curiosity siendo un vehículo que pesa3,3 toneladas, era demasiado grande para cualquiera de los enfoques tradicionales.

Así que los ingenieros de Curiosity consideraron como sus hermanos terrestres se mueven en torno a las cosas grandes. Tomando su inspiración de las grúas y helicópteros, crearon una grúa cielo: una plataforma adornada con retrocohetes con el vehículo, con las ruedas desplegadas, colgando por debajo de 7,5 metros en el extremo de los tres cables. El artilugio de aspecto aterrador podría manejar una masa de aterrizaje demasiado grande para una pelota de playa, mientras que con seguridad el establecimiento de un rover masivo hacia abajo en pendientes inclinadas podría obstaculizar de un módulo de aterrizaje. Instruir a la plataforma para cortar los cables de contacto y dejar que vuele, y usted tiene un aterrizaje seguro en principio.

Para que todo funcione en la práctica, los ingenieros probaron, probaron y probaron de nuevo. Pero los ingenieros de Curiosity tenían un problema: el sistema EDL simulaba la entrada de meteoro ardiente, un descenso en paracaídas y el aterrizaje de la grúa-cielo, todo ello diseñado para retardar la nave espacial a partir de una hipervelocidad de 21,240 kilometros por hora a un punto muerto 7 minutos más tarde, que no podía ser probado en la Tierra. La gravedad de la Tierra y la atmósfera son muy diferentes a las de Marte. Así que se probaron los componentes por separado, con todo lo que podían, por ejemplo, abrir el paracaídas en el túnel de viento más grande del mundo. Luego se probó el sistema final millones de veces en una computadora. Al final, la realidad jugo como las simulaciones, señal de que la NASA había dado un paso más hacia la solución del problema de mayor peso para un aterrizaje en Marte.

Ingenieros tuvo un respiro cuando los planificadores de la misión les pidió tener contacto Curiosidad hacia abajo de cerca y personal con el montículo central geológicamente intrigante de Gale cráter, una situación difícil que ninguna misión anterior podría haber apuntado. En lugar de las rayas en tan descontrolada como una bala, Curiosidad revivió un "patrimonio" concepto de los días del programa Apolo, cuando rodamiento astronauta-cápsulas se guiaron durante la reentrada en la atmósfera terrestre. Detección de cualquier desviación de su trayectoria de vuelo prevista, el vehículo Curiosity entrada despediría propulsores laterales para corregir su curso, ya que cayó hacia la superficie. El éxito del aterrizaje del rover asegura que la NASA pueda ahora enviar un rover a recoger muestras en Marte y aterrizar después una segunda misión en el mismo lugar para recoger las muestras y enviarlas a la órbita de Marte para un eventual retorno a la Tierra.

Primera estructura de una proteína obtenida de un láser de rayos X


178, 875 pequeños láseres fueron usados para generar la disfracción y generar la estructura. Créditos: CFEL.

Hace cien años, los físicos mostraron cómo los rayos X rebotando a través de un cristal pueden revelar el cristal de la estructura a escala atómica. Este año, los científicos llevaron tal "difracción de rayos X" casi a su último límite cuando, por vez primera, se utilizó un láser de rayos X para determinar la estructura de una proteína. El avance muestra el potencial de los láseres de rayos X en descifrar proteínas que fuentes convencionales de rayos X no pueden.

La difracción de rayos X ha sido durante mucho tiempo el pilar de la biología estructural. Cuando muchas copias de una molécula están dispuestos en una serie ordenada llama una red cristalina, se dispersan los rayos X a partir de un haz incidente en un patrón. El patrón de dispersión revela la estructura del cristal, incluyendo la de la molécula. Usando aceleradores circulares de partículas llamados sincrotrón para generar rayos X, los biólogos han determinado decenas de miles de estructuras de proteínas.

No obstante algunas proteínas, como las que se encuentran en las membranas celulares, no forman fácilmente cristales lo suficientemente grandes como para ser estudiados con sincrotrones. Por lo tanto, los científicos esperan poder investigar los casos difíciles con los nuevos láseres de rayos X, los cuales son alimentados por aceleradores lineales y el brillo de mil millones de veces más brillante que las fuentes de sincrotrón. En noviembre, los investigadores dieron a conocer la estructura de una proteína revelada por primera vez con un láser.

Trabajando con Linac Coherent Light Source (LCLS) en el SLAC National Accelerator Laboratory, en Menlo Park, California, los investigadores de Alemania y Estados Unidos determinaron la estructura de los inactivos "precursor", una enzima que es clave para la supervivencia del parásito unicelular que causa la enfermedad del sueño africana, Trypanosoma brucei. Para producir cristales de tamaño micrométrico de la enzima, esta se sobreexpresa en células cultivadas. Los cristales caen a través del haz de la LCLS. Incluso un pulso de rayos X de un cristal destruiría, ya que produce un patrón de difracción. Con la adición de hasta 178,875 patrones individuales, los investigadores determinaron la estructura del precursor, que incluye una especie de tapón de seguridad molecular que se desactiva. Esa información podría ayudar a los científicos a encontrar un medicamento para bloquear la forma activa de la enzima.

Con sólo una nueva estructura en la bolsa, no está claro que la radiografía láser de electrones libres (XFELs) competirán con sincrotrones en la biología estructural. Por un lado, los investigadores no fueron capaces de determinar la estructura de la enzima de novo a partir de los datos de difracción solo, pero tenía que usar la estructura conocida de la enzima activa como punto de partida. Por otra parte, un XFEL sirve a los usuarios un número mucho menor de lo que un sincrotrón hace. Aún así, la "difracción antes de la destrucción" enfoque da un paso cualitativo más allá de lo sincrotrones pueden hacer. A principios de este año, investigadores de Japón lograron su propio XFEL, y los investigadores en Europa están construyendo uno que debe encender en 2015. El gran objetivo es empujar difracción de rayos X a su último límite y el uso de un láser de rayos X para descifrar una estructura de proteína por zapping moléculas individuales. No es cierto que se puede hacer, pero algunos investigadores dicen que el nuevo resultado sugiere que este objetivo no puede estar demasiado lejos de su alcance.

Interfaces cerebro-máquina


Este año hubo impresionantes avances en protesis controladas por el cerebro. Créditos: THE JOHNS HOPKINS UNIVERSITY APPLIED PHYSICS LABORATORY (JHU/APL)

Esta semana investigadores en Pennsylvania informaron de que una mujer de 53 años de edad, paralizada del cuello hacia abajo por una afección genética neurodegenerativa había aprendido a manipular un brazo robótico con sus pensamientos. Los cirujanos habían implantado dos milimétricas rejillas de finos electrodos en su cerebro para captar las señales de un área involucrada en la planificación de movimientos de la mano. Una computadora traduce las señales en órdenes para mover el brazo robótico, que fue diseñado para tener casi todas las capacidades del movimiento mismo como uno real. En los vídeos, la mujer usa el brazo para agarrar y mover objetos diversos, la tirar conos de plástico apiladas sobre una base y volverlos a apilar uno por uno en otra base, por ejemplo. Las manifestaciones representan los movimientos más complejos todavía realizados por un paciente paralizado humano utilizando una interfaz cerebro-máquina (BMI), tales como prótesis sofisticadas.

Al demostrar los movimientos más fluidos y naturales, este estudio de caso mejora a otro impresionante informe a principios de este año. En ese estudio, la primera demostración publica pacientes humanos paralizados puede usar un índice de masa corporal para ejecutar movimientos complejos en tres dimensiones, una mujer de 58 años de edad que había sido incapaz de hablar o mover sus extremidades durante 15 años manipuló un brazo robótico con su pensamientos, extendiendo la mano para agarrar una botella y tomar un sorbo de café. Un hombre tetrapléjico, de 66 años, también aprendió a tocar y agarrar objetos.

Todo este trabajo se basa en más de una década de investigación con monos y otros animales. Y ese trabajo sigue avanzando. En 2011, los investigadores describen un sistema protésico que proporciona retroalimentación táctil mediante la estimulación de la corteza somatosensorial, la región del cerebro responsable de la percepción del tacto. Y en abril de este año, un equipo utilizó las señales de los electrodos implantados en la corteza motora del cerebro para estimular los músculos en los brazos paralizados temporalmente de dos monos, lo que permite a los animales recoger pelotas de goma y colocarlos en una manga. Tales hallazgos apuntan a la tentadora posibilidad de que algún día podría ser posible reanimar los miembros paralizados en las personas.

Como la esperanza de que estos desarrollos son, pasarán años antes de que un gran número de personas que pueden beneficiarse de la IMC. Los brazos robóticos son experimentales y extraordinariamente caro, y los pacientes los utilizan solamente en el laboratorio, con la ayuda de un equipo de técnicos. Y los movimientos habilitados por IMC no son tan rápidos y gráciles como los movimientos realizados por personas no lesionadas. Los avances en los algoritmos que decodifican señales neuronales y los convierte en comandos de un ordenador o una prótesis puede entender debería contribuir a ello. Los progresos en esta área continúa a buen ritmo, pero para cientos de miles de pacientes paralizados por golpes, lesiones de la columna vertebral, y otras condiciones, no puede venir lo suficientemente rápido.


Los fermiones de Majorana, por fin


Prducción de fermiones en DELFT. Créditos: DELFT.

La nanociencia es algo más que una palabra de moda. Ya está siendo pagada en miles de millones de dólares en productos que incluyen mejores baterías y bates de béisbol. Este año, los investigadores en el campo entregan otro tipo de valor: su primer descubrimiento de partículas probables, conocidos como fermiones de Majorana.

Las especulaciones sobre la existencia de partículas de Majorana se remonta a más de 7 décadas, cuando un joven físico italiano llamado Ettore Majorana crujía algunas ecuaciones en el emergente campo de la mecánica cuántica. Su matemáticas unín la comprensión cuántica de fermiones, partículas como electrones que muestran un tipo de impulso angular se conoce como spin, a su vez las ecuaciones de la relatividad de Albert Einstein explican que las partículas viajan casi a la velocidad de la luz. Ideas de Majorana implican la existencia de un nuevo tipo de fermión que podrían actuar como su propia antimateria y aniquilarse a sí mismos.

Los físicos han sospechado durante mucho tiempo que los neutrinos son fermiones de Majorana. Hasta el momento, han sido incapaces de concretar el caso. Y las perspectivas para la búsqueda de otros fermiones de Majorana hace tiempo parecía remota. Pero hace unos años, los teóricos sugirieron que el movimiento colectivo de los electrones en los alambres nanométricos adyacentes a un superconductor puede formar "cuasi-partículas" que para todos los efectos, se comportan como si se tratara de una partícula fundamental, Majorana en sí mismos. La carrera estaba en marcha. Este año, un equipo de físicos y químicos en Países Bajos cruzado la línea que muestra evidencia convincente de que las cuasi-partículas de Majorana existen.

El descubrimiento ya ha provocado esfuerzos para utilizar las nuevas partículas para construir un ordenador cuántico estable. Estos equipos operan en bits cuánticos o qubits. A diferencia de los bits regulares de información digital representada como 0 y 1 en los cálculos, los qubits pueden ser virtualmente cualquier combinación de un 0 y 1 -57% 0, 43% 1%, 12% 0 y 88% 1. Como resultado, los ordenadores cuánticos tienen el potencial para almacenar y procesar la información de manera que las máquinas convencionales digitales no pueden igualar. Para algunos tipos de cálculos, a sólo 300 qubits podría generar respuestas que mejores supercomputadoras de hoy serían muy difícil de resolver.

Sin embargo, la tecnología actual qubit es demasiado exigente para la informática práctica. El más ligero bache en la temperatura o la influencia externa típico borraría la información almacenada en un qubit estándar. Los cálculos teóricos muestran que los fermiones de Majorana deben ser capaz de "recordar" el estado cuántico incluso cuando son golpeados por fuerzas externas. Así que ahora el equipo holandés y otros están tras la pista para ver si ese es el caso. Si es así, la nanociencia pronto podría ser capaz de añadir a sus derechos de fanfarronear.


Cómo hacer óvulos de Células Madre


Óvulos obtenidos de células madre son fertlizados. Créditos: Hayashi /Science.
Los investigadores han estado tratando durante más de una década de obtener óvulos en el laboratorio. Este año, dieron un paso importante hacia esa meta, cuando ratones de laboratorio dieron a luz crías nacidas de huevos procedentes de células madre embrionarias de ratón. La técnica, desarrollada por investigadores en Japón, aún requiere de un ratón para albergar los huevos en desarrollo durante una parte clave de su maduración, por lo que no logra el gran premio: derivar óvulos completamente in vitro. Pero sí demuestra que las células madre embrionarias pueden dar lugar a los ovocitos fértiles, y da a los científicos una manera de aprender más acerca de cómo estas células complejas se desarrollan.

Los óvulos y los espermatozoides, también conocidas como células germinales, tienen un desarrollo particularmente complicado. Se someten a la meiosis, un tipo especial de división celular que les deja con la mitad del número normal de cromosomas. También restablece la impronta genómica que ayuda a determinar qué genes se activan y cuales estaran apagados. Aunque las células madre embrionarias pluripotentes incluyen células capaces de convertirse en cualquier tipo de célula en el cuerpo, convirtiéndolas en células germinales en el laboratorio ha resultado hasta ahora difícil.

En 2011, el mismo laboratorio en Japón informó de que había convertido células madre embrionarias en esperma fértil. En 2012, los investigadores mostraron que hay un proceso similar se puede producir óvulos. En primer lugar, se trataron las células madre con un cóctel de factores de crecimiento y proteínas para formar lo que ellos llaman germinales primordiales similares a células que se asemejan a las células, precursores de los óvulos y espermatozoides que se encuentran en embriones tempranos. Se mezclan entonces las células con el tejido ovárico. Las células formaron agrupaciones que se asemejan a los óvulos en miniatura. Los científicos implantaron esos grupos en los ovarios o los riñones de los ratones para la acogida, y varias semanas después, fueron capaces de extraer ovocitos maduros.

Los científicos utilizaron espermatozoides de ratón normal para fecundar los ovocitos in vitro y luego se implantan los embriones resultantes en madres adoptivas. Las madres adoptivas dieron a luz a ratones normales, que fueron capaces de seguir y tener descendencia propia. (La receta también funciona con células madre pluripotentes, que son derivadas de células adultas que han sido programadas para comportarse como células embrionarias.)

La técnica no funciona todavía con células humanas, y el requisito de tejido ovárico y un huésped vivo para una parte del desarrollo hace que sea poco práctico y éticamente problemático tratar. Sin embargo, tener una mejor forma de estudiar los genes y otros factores que influyen en el desarrollo de óvulos ya podría ayudar a los investigadores entender algunos tipos de infertilidad, y podría conducir a mejores formas de hacer que estas células escurridizas pero de gran alcance en el laboratorio.

Refererencia:

viernes, 21 de diciembre de 2012

La vida abunda en la Antártida bajo el hielo sellado de un lago

Vida microbiana puede utilizar diferentes estrategias para sobrevivir en un congelado y hostil lago. Créditos: Bernd Wagner, University of Cologne, Germany.

Está permanentemente cubiertos por una tapa masiva de hielo de hasta 27 metros de espesor, seis veces más salada que el agua de mar normal, y a -13 ° C, siendo uno de los más fríos ambientes acuáticos de la Tierra,  sin embargo, el lago Vida en la Antártida está llena de vida.

Los científicos de perforación en el lago han encontrado bacterias abundantes y diversas. "El lago Vida no es un lugar agradable para vivir," explica Peter Doran, experto en Ciencias de la Tierra de la Universidad de Illinois en Chicago y miembro del equipo que ha estado explorando el lago -el más grande de una serie de pequeños cuerpos de agua en la región de Valles McMurdo un seco desierto en la Antártida. "Es bastante notable que algo quiere vivir en ese ambiente frío, oscuro y salado en absoluto."

Doran y sus colegas han perforado en el lago Vida dos veces: una vez en 2005 y nuevamente en 2010. El conjunto notable de la vida microbiana que encontraron se describe en Proceedings of the National Academy of Sciencies.

Las muestras de agua de los dos viajes muestran alrededor de una décima parte de la abundancia de organismos que normalmente se encuentran en los lagos de agua dulce en las zonas de clima moderado. Algunas de las células tienen el tamaño aproximado de 1 micrómetro de diámetro -normal para los microbios- pero las muestras contenía muchas partículas que estaban alrededor de 0.2 micrómetros de diámetro.

Ni el tipo de célula representa una forma de vida desconocida, añade Alison Murray, un ecologista microbiano en el Instituto de Investigación del Desierto en Reno, Nevada y co-autor del artículo. El análisis genético sugiere que la mayoría de las células -tanto los de tamaño estándar y las microcélulas- están relacionados con tipos conocidos de bacteria. Sin embargo, una bacteria abundante de tamaño normal parece no tener parientes cercanos entre bacterias cultivadas, por lo que puede representar un nuevo phylum.

Exóticas fuentes de energía


El equipo aún no ha resuelto cómo las bacterias producen energía. Podrían emular a muchas bacterias conocidas por vivir exclusivamente en carbono orgánico disuelto, o puede ser que utilicen formas más exóticas de energía, al igual que algunos otros microbios que viven en ambientes extremos. Por ejemplo, las bacterias en las minas de oro de profundas se conocen para sobrevivir en el hidrógeno molecular producido por reacciones químicas en las rocas.

"Por supuesto, hay una gran cantidad de energía en el agua salda", comenta Murray. "El carbono puede ser la fuente primaria de energía, pero el hidrógeno puede ser vital para sostener la vida microbiana del lago a largo plazo."

La capa de hielo sobre el lago crece su espesor empleando el agua de deshielo de los glaciares circundantes que vuelve a congelarse. Un análisis isotópico de las partículas de carbono orgánico en el hielo sugiere que el lago ha estado sellado por alrededor de 2,800 años, por lo que cualquier carbono en el agua salada debe haber estado allí durante al menos ese tiempo y probablemente no hay mucho de este -lo que sugiere que la microbios pueden estar usando otro medio para producir energía-.

Debido a que están aislados y no hay depredadores en el lago, explica Murray, las células podrían haber cambiado a un "modo de supervivencia" reducido biológicamente . Sin división celular y  reproducción les permitiría soportar el estrés y ambientes hostiles durante mucho tiempo.

En otro hielo


Lago Vida es un entorno excepcional: porque es de hielo cerrado, es probable que sea muy diferente en términos de geoquímica y la biología a los numerosos ríos subglaciales y lagos de la Antártida, que han estado bajo el hielo de varios kilómetros de espesor durante millones de años . Sin embargo, se están realizando esfuerzos para tomar muestras de tres lagos subglaciales en diversas partes del continente helado.

Durante los próximos dos meses, británicos, rusos y los equipos de EE.UU. planean perforar y realizar sondas en lagos: Ellsworth, Whillans y Vostok. Estas aguas pueden dar pistas sobre qué condiciones son necesarias para mantener la vida en la Tierra y otros planetas.

Aunque el Lago Vida no ha sido aislado durante casi todo el tiempo que los lagos subglaciales, el descubrimiento de vida microbiana diversa por debajo de su hielo es importante por derecho propio, considera Martin Siegert, un glaciólogo de la Universidad de Bristol, Reino Unido, que lidera el expedición del British Antarctic Survey para el lago Ellsworth.

"Es otro lugar extremo donde la vida se encuentra y proporciona evidencia de un conjunto diferente de condiciones de contorno en el que la vida puede existir", reitera. "La salinidad extrema del lago Vida, también, marca una diferencia probable - aunque en verdad sólo se sabrá a ciencia cierta el mes que viene".

Referencia:

viernes, 7 de diciembre de 2012

El efecto placebo más allá de los seres humanos

Efecto Placebo. Créditos: epSos.de/Flickr.

Las ratas y los humanos tienen al menos una cosa en común: ambos reaccionan de la misma manera a un placebo, de acuerdo a un nuevo estudio de la Universidad de Florida.

"Ese fue el gran hallazgo - que los animales que esperaban el alivio del dolor en realidad lo han percibido pese a que se les dio una sustancia inerte", añade el co-autor John Neubert, un especialista en dolor y profesor asociado de la Facultad de Odontología de la Universidad de Florida. "Esto ayuda a validar nuestro modelo de que lo que hacemos en las ratas, creemos, es una buena representación de lo que sucede en los humanos".

La investigación de los efectos del placebo podría conducir a la identificación de nuevas dianas terapéuticas en el cerebro y de nuevas estrategias de tratamiento para una variedad de condiciones de salud.

Una respuesta placebo es una respuesta aparente a un tratamiento que en realidad no ha sido administrado. Para este estudio los investigadores examinaron las respuestas placebo en referencia al dolor y el alivio del dolor mediante la evaluación de cómo un animal responde cuando "piensa" que está recibiendo un calmante para el dolor.

Los investigadores de la Universidad de Florida condicionaron a las ratas para recibir morfina o sal de agua mediante la aplicación de inyecciones en diferentes sesiones. Luego, durante la tercera sesión, los investigadores dieron a los dos grupos inyección de solución salina. Alrededor del 30 al 40 por ciento del grupo que había recibido previamente morfina actuaban como si hubieran recibido morfina otra vez y mostraron un alivio del dolor.

"Lo que eso significa es que se puede seguir adelante hacer estudios más mecanicistas y hacer estudios farmacológicos dirigidos a receptores diferentes", explica. "Podríamos hacer diferentes procedimientos y tratar de aplicar ese conocimiento en lo que creemos que está sucediendo en los seres humanos."

El estudio de dos años de duración publicado en la revista Pain en octubre fue el resultado de la colaboración entre Neubert y Niall Murphy, especialista en adicciones y profesor asociado adjunto de la Universidad de California en Los Angeles. Los dos decidieron estudiar las respuestas al placebo abordando las vías y mecanismos que se relacionan con el dolor, la recompensa y la adicción.

"Sabemos cosas básicas acerca de la respuesta al placebo, pero el estudio que hemos hecho es importante porque ahora podemos ver la respuesta al placebo de una manera que no es posible en los seres humanos debido a cuestiones prácticas y éticas", considera Neubert. "Se pueden hacer diferentes manipulaciones en un modelo preclínico que no se podía hacer hecho con humanos".

Los primeros resultados de otro estudio que los investigadores están llevando a cabo han demostrado resultados similares en ratones.

"Fue un muy emocionante encontrar esto para nosotros, porque hemos utilizado nuestro sistema de prueba nueva que se desarrolló aquí en Florida, con el apoyo de mi departamento, la Facultad de Odontología, y la financiación del Instituto Nacional sobre el Abuso de Drogas en el NIH," agrega Neubert. "Eso nos va a permitir ver las cosas de cerca modelos que inferimos suceden en los seres humanos. Estamos más seguros al hacer estos estudios preclínicos y en hacer la investigación traslacional, donde se toma desde este lado el estudio básico de las cosas y se trata de aplicarlas a la condición humana. "

Jianguo Dr. Cheng, profesor y director del Programa de Becas de la Clínica de Medicina del Dolor de Cleveland, considera que el estudio ha establecido un modelo novedoso y útil para investigar los mecanismos del efecto placebo. El efecto placebo merece mayor estudio, expresa Cheng, quien no participó en el estudio.

"Los autores deben ser felicitados por su innovador diseño experimental y el análisis riguroso y sofisticado de los resultados", comenta. "Esta combinación constituye una base sólida para la credibilidad de sus resultados. Este elegante modelo demuestra de forma convincente las características cardinales de respuestas al placebo a una intervención simulada o control que se observan con frecuencia en los seres humanos."

Referencia:

martes, 4 de diciembre de 2012

La mayor simulación del Universo creada por una supercomputadora

Supercomputadora Mira. Créditos: Argonne National Laboratory.

En Argonne National Laboratory se encuentra una supercomputadora de última generación para ayudar a comprender cuestiones sobre cómo surgió y se ha desarrollado el Universo.

Para entender el origen, desarrollo y estructura del Universo la cosmología ha empleado telescopios sensitivos capturando fotografías de los orígenes del Universo, al reunir la cantidad suficiente se puede tener una idea aproximada de las galaxias surgidas hace más de 13 mil millones de años. Pero ahora con el proyecto de Argonne National Laboratory se pretende ir más lejos: simular como se fue "construyendo" el Universo paso a paso.

Para lograrlo la supercomputadora Mira realiza simulaciones desde el Big Bang, haciendo un seguimiento de los cientos de millones de partículas creadas, las cuales en el entorno y condiciones adecuadas permitirán comprender el desarrollo del Universo.

Mira es una de las supercomuptadoras más veloces en el mundo. Es un modelo BlueGene/Q desarrollado por IBM, que funciona a unos 8 petaFLOPS, logrando una velocidad máxima en teoría de 10 teraFLOPS.

Su funcionamiento se basa en 49,152 núcleos que estan repartidos en 48 grupos que se interconectan unos con otros. Para poder lograr la simulación de la interacción se requiere también almacenamiento, el cual es subministrado a Mira por medio de 1 petabyte de memoria y 70 petabytes de disco.



En la parte de software es administrada por una distribución de Linux diseñada para este tipo de computadoras, lo cual permite que cada tarea se ha distribuida en tareas más pequeñas y luego de nuevo se reunen los resultados.

De esta forma los científicos simulan la interacción de partículas en las que transcurren 13,700 millones de años, la edad estimada del Universo. Si los resultados no coinciden con lo que conocemos actualmente, se vuelve a iniciar.

Tales resultados permitirán comprender la función además del papel de la materia oscura y energía oscura.

sábado, 1 de diciembre de 2012

V

"Cuando nacemos, cuando entramos a este mundo, es como si firmásemos un pacto para toda la vida, pero puede suceder que un día tengamos que preguntarnos ¿Quién ha firmado esto por mí?, Ese día puede ser hoy.”

[José Saramago, "Ensayo sobre la lucidez"]

Científicos del experimento CMS del CERN han descubierto una combinación exótica de partículas previamente observados en el experimento CDF en el Fermilab.
Experimento CMS. Créditos: CERN.


Los científicos del Gran Colisionador de Hadrones confirmaron esta semana la existencia de una estructura de partículas, que se habían observado por primera vez en el predecesor del LHC, el Tevatron.


Los miembros de CMS anunciaron el 14 de noviembre que habían descubierto una curiosa estructura, llamado Y (4140), que el experimento CDF había detectado en marzo de 2009.

"No sé lo que es", explica Vincenzo Chiochia, co-organizador del grupo B de física para CMS. "Observamos una estructura consistente con las observaciones anteriores del Tevatron".

Hay una probabilidad de menos de 1 en 3,5 millones de dólares que la estructura es el resultado de una fluctuación estadística -científicos saben que está ahí-. Ahora, están trabajando para averiguar exactamente lo que es. Observada en las colisiones a una energía de 4,1 giga-electronvoltios, la nueva estructura parece estar compuesto de quarks y antiquarks. Sin embargo, los científicos esperan que los quarks y antiquarks encajen de una manera determinada pero no parecen hacerlo.

En teoría, la estructura podría ser una composición híbrida de diversas partículas: cuatro quarks ligeramente unidos o incluso partículas unidas por la fuerza nuclear, que es lo que mantiene los protones y neutrones juntos en los átomos. También existe la posibilidad de que sea algo totalmente nuevo.

"No sé qué explicación es correcta", agrega Kai Yi, un científico de la Universidad de Iowa, que ha trabajado en el análisis de Y (4140), tanto en la CMS y en CDF. "No podemos apuntar a algo y decir, sí, eso es todo, todavía."

Como sucede con cualquier descubrimiento, los científicos ahora necesitan tomar medidas de precisión sobre las propiedades de la estructura. Estos incluyen una medición más precisa de su masa y de la forma en que se descompone, entre otros factores. Todas las mediciones deben pintar un cuadro más completo.

Ahora, Yi dice, "tenemos que averiguar lo que sucede con otros estudios. Eso es algo que sólo puede suceder con más datos ¡Así que permanezcan atentos!".

Referencia:

viernes, 30 de noviembre de 2012

Confirmados depósitos de Hielo en Mercurio

MESSENGER encuentra evidencias de hielo de agua pura cerca del polo norte del planeta.
Depósitos de hielo de agua hallados en el Polo Norte de Mercurio. Créditos: NASA/Johns Hopkins Uni Applied Phys Lab/Carnegie Inst of Washington.

Mercurio es hablar de una tierra de fuego y ahora también de hielo. La superficie de Mercurio es lo suficientemente caliente en algunos lugares para derretir el plomo, pero es una maravilla de invierno en sus polos - tal vez con un billón de toneladas de hielo de agua atrapado en el interior de los cráteres - suficiente para llenar 20 mil millones pistas de patinaje Olímpicas.

El hielo -cuyo presencia se sospechaba ha sido confirmada por la sonda MESSENGER de la NASA- el cual parece ser mucho más puro que el hielo en el interior de los cráteres de la Luna de la Tierra, lo que sugiere que el planeta más cercano al Sol, podría ser una mejor trampa para materiales helados suministrados por cometas y asteroides. Tres documentos que detallan los resultados se publican hoy en Science.

A pesar de una temperatura de 400° C, los suelos de muchas de sus cráteres polares están en sombra permanente, porque el eje de rotación del planeta es perpendicular a su plano orbital, por lo que sus polos nunca se inclinan hacia el Sol. De hecho, radares en la Tierra en los últimos 20 años ha revelado regiones luminosas cerca de los polos de conformidad con los medidas de espesor en placas de hielo de agua pura.

Pero los "radares no identifican de manera exclusiva hielo de agua", añade David Lawrence, científico planetario del Laboratorio de Física Aplicada de la Universidad Johns Hopkins, en Laurel, Maryland. Azufre, por ejemplo, podría haber producido una firma de radar similar.

Ahora, tres diferentes líneas de evidencia ofrecen la interpretación de hielo de agua. Pulsos de láser infrarrojo disparados por MESSENGER a través del altímetro láser hacia el planeta Mercurio han revelado regiones brillantes dentro de nueve cráteres oscuros cercanos al polo norte del planeta. Estas regiones brillantes, consideran que el hielo de agua, se alinean perfectamente con lugares fríos, de acuerdo con un modelo térmico del planeta, que toman en cuenta la topografía de Mercurio, no deben ser más calientes que -170° C.

Un tercer equipo, utilizando Espectrómetro de Neutrones de MESSENGER, ha visto la firma inequívoca de hidrógeno -que piensan que está encerrado en el hielo de agua- en esas mismas regiones. "No sólo es agua la mejor explicación, sino que no vemos ninguna otra explicación que puede reunir todos los datos juntos", explica Lawrence, autor principal del estudio espectrómetro.

¿De dónde proviene el agua? Los puntos brillantes de hielo identificados por el láser de MESSENGER está rodeado por terrenos más oscuro que reciben poca luz del Sol y calor. Las mediciones de neutrones sugieren que esta zona más oscura es una capa de material alrededor de 10 centímetros de espesor que se encuentra en la parte superior de más hielo, lo aislante.

Materiales oscuros


Este material oscuro alrededor de los puntos brillantes se compone de hidrocarburos complejos expulsados ​​de impactos de cometas o asteroides, explica David Paige, científico planetario de la Universidad de California, Los Angeles, y primer autor del documento sobre el modelo térmico.

Paige y sus colegas sugieren que cuando estos cuerpos de hielo golpearon Mercurio, sus componentes migraron con el tiempo - de forma repetida a través de la vaporización y la precipitación - a los polos más fríos, donde quedaron atrapados en los fríos cráteres polares.

Pero incluso allí, la luz del sol a veces llega a las partes de los cráteres "interiores, vaporizando el hielo de agua y dejando atrás los depósitos" de hidrocarburos que poco a poco se vuelven más espesos y más oscuros, conforme son alterados químicamente por la luz solar.

Impactos pequeños debían haber enterrado bajo la superficie el hielo si proveniera de hace mil millones de años, no obstante los investigadores en MESSENGER creen que podría ser mucho más joven, tal vez de hace 50 millones de años.

"Los depósitos de hielo que estamos viendo no son antiguos", explica Paige.

Referencia:

viernes, 23 de noviembre de 2012

Visualización en un mapa de todos los terremotos desde 1898

Earthquakes since 1898. Resolución a 3410 x 2058. Credítos: IDVsolutions.

Reuniendo todos los datos de terremotos registrados en una base de datos por Advanced National Seismic System del Servicio Geológico de los Estados Unidos y haciéndolos coincidir con una imagen de la Tierra proporcionada por Visible Earth se obtiene un mapa como el que acompaña esta entrada, la cual esta disponible en varios tamaños.

Como se aprecia la imagen se centra en el Pacífico, la zona con mayor actividad, lo cual es hasta cierto punto inusual en los mapas pero sirve para comprender la distribución de las placas tectónicas.

Referencia:

domingo, 18 de noviembre de 2012

Mesones B muestran que el tiempo tiene una flecha en las escalas más pequeñas.


Detector BaBar. Créditos: UCSB.
A diferencia de nuestra experiencia cotidiana, en el mundo de la física de partículas elementales es mayormente simétrico el tiempo. Haga correr el reloj hacia atrás en su día y no funcionará; haga lo mismo en un proceso en física de partículas y las cosas estarán bien. Sin embargo, para preservar ciertos aspectos fundamentales de espacio-tiempo el modelo estándar predice que ciertos eventos reversibles tienen diferentes probabilidades de que ocurran, dependiendo de la forma en que vayan. Esta inversión temporal de asimetría es notablemente difícil de observar en la práctica, ya que implica medidas de partículas altamente inestables.

Los nuevos resultados del detector BaBar en el Stanford Linear Accelerator Center (SLAC) han descubierto esta asimetría en el tiempo. Los investigadores midieron las transformaciones de pares entrelazados de partículas, incluyendo las tasas a las cuales estas transformaciones ocurrían. A través del análisis de más de 10 años de datos, encontraron de forma clara inversión temporal asimetríca con un error de sólo una parte en 1043, un descubrimiento claro para cualquier estándar. Estos resultados son una confirmación fuerte de las predicciones del Modelo Estándar, llenando en uno de los últimos detalles que faltan en esta teoría.

Una consecuencia directa de la relatividad en física de partículas es la presencia de tres simetrías relacionadas, conocidas como CPT: carga, paridad y tiempo. Simetría de carga (C) incluye operaciones en donde las partículas se intercambian con sus antipartículas, paridad (P) se ocupa de las interacciones que pueden depender de la dirección que en el espacio tienen lugar. Inversión de tiempo (T) es quizás el más sutil de los tres: algunos procesos se prevé que se produzcan de forma diferente en función de su orden en el tiempo. Si bien nuestra vida cotidiana demuestran que el tiempo tiene una dirección definida (que nos hacemos mayores y más decrépitos, una pizza que cae al suelo trágicamente no vuelve a su estado previo  de forma espontánea y de nuevo es un delicioso bocado, entre otros), los procesos fundamentales que involucran partículas son casi todos reversible.

Juntos, CPT parece ser una verdadera simetría de la naturaleza, lo mejor de nuestra capacidad para probarlo. Sin embargo, algunas interacciones que involucran la interacción débil (una de las cuatro fuerzas fundamentales, junto con la interacción fuerte, electromagnetismo y gravedad) violan la simetría CP. Eso significa que para preservar CPT, estas interacciones también debe violar la Inversión de Tiempo (T) -pero que ha demostrado ser muy difícil demostrar experimentalmente-.

La clave para encontrar violaciones T radica en los procesos para encontrar partículas en las cuales las identidades cambian a través de las oscilaciones que pueden ir en cualquier dirección. (Esto es en contraste con el decaimiento de mesones B, que es irreversible.) Los nuevos resultados de BaBar examinaron las transiciones de diferentes tipos de mesones B que pueden transformarse en otros tipos, y se mide la probabilidad de que ocurra cada proceso. Para citar un ejemplo: la partícula B- puede transformarse en B0, y viceversa. Si la simetría T es violada, entonces la probabilidad de un cambiar B a un B0 será diferente de el proceso inverso.

El equipo de BaBar realizo mediciones en 468 millones de pares de mesones B y B, producidos en la descomposición de mesones Υ (4S) (epsilon). Observaron violación T en cuatro procesos diferentes y su inversión:

1. B- → B0
2. B0 → B-
3. B+ → B0
4. B0 → B+


(Los mesones son denotados con el subíndice "+" o "-". No se refieren a la composición de quarks, sino a la forma particular en que decaen) Estos procesos ya eran conocidos por violar CP, por lo que eran los principales candidatos para buscar violación T también. Además, cada uno de los decaimiento de una Υ (4 S) produjo un par B B , en virtud de su origen común, tuvieron un e entrelazamiento: la medición de estado espín de un meson reveló el resultado de la medición de su pareja.

Al identificar el tipo B particular (su "Sabor" en el lenguaje de la física de partículas) y determinar el proceso de deterioro que cada par produce, los investigadores midieron la tasa de transición de un mesón tipo B a otro. Dado que cada par se entrelazo en la producción, el segundo mesón esta necesariamente en un estado complementario en todo momento, lo que permite la medición con precisión de las rutas de transición diferentes enumerados anteriormente. El entrelazamiento es generalmente el dominio de la información cuántica y teoría de la medición, por lo que su aplicación al problema reversión-T se vuelve emocionante y único.

Gracias a más de 10 años de datos, el equipo midió BaBar violación-T al nivel 14 sigma, lo que significa que sólo hay una posibilidad entre 1043 que este efecto no sea real. (En comparación, una detección positiva del bosón de Higgs en verano pasado se anunció en el nivel 5 sigma). Estos resultados son una fuerte verificación de las predicciones del Modelo Estándar en partículas, lo que demuestra que, al menos para algunos procesos de partículas elementales -la dirección del tiempo es importante-.

Física de fondo


Los mesones son partículas constituidas por un quark y un antiquark. Los mesones B de varias clases contienen un antiquark. Quarks bottom son el segundo quark más masivo, y además son muy inestables. Como resultado, los mesones B se transforman rápidamente en otras partículas. Los diferentes tipos de partículas B se determinan por el segundo quark que contienen: B0 tiene un quark abajo, por ejemplo. Las antipartículas correspondientes se denotan B, y contienen quarks bottom. En términos generales, no se va a distinguir entre mesones y los anti-mesones refiriéndose a ambos como mesones B por simplicidad.

Además, algunos tipos de mesones B pueden oscilar en diferentes tipos, un proceso similar a lo que vemos con los neutrinos. Esta oscilación es la clave para medir el tiempo de reversión asimetría en los nuevos resultados de Babar.

Referencia:

martes, 13 de noviembre de 2012

Un estudio sugiere que los comportamientos complejos se dictaron durante decenas de miles de años.
Microlito. Créditos: Simen Oestmo.

A pesar de la intensa investigación científica, todavía hay grandes lagunas en nuestro conocimiento sobre la vida humana temprana. Una cuestión importante que sigue sin respuesta: ¿cuándo fue la primera vez que los seres humanos emplearon cognición compleja? En otras palabras, ¿cuándo los primeros seres humanos desarrollaron sofisticadas capacidades cognitivas, tales como la asignación de prioridades y la transmisión cultural, que reconoceríamos hoy?

Un nuevo estudio en la revista Nature aborda esto, después de seis años de excavaciones, los arqueólogos han descubierto herramientas de piedra tecnológicamente avanzadas que se crearon hace 71,000 años atrás. Este hallazgo aumenta nuestro conocimiento sobre la historia del uso de herramientas humanas, lo que sugiere que las capacidades cognitivas sofisticadas estuvieron presentes relativamente tempranas en la historia humana. También plantea la posibilidad de que las herramientas pueden haber dado los primeros humanos una ventaja para aventurarse fuera de África.

Los instrumentos antiguos, llamados microlitos, fueron encontrados en un sitio llamado Pinnacle Point en Sudáfrica. Microlitos son pequeñas herramientas de piedra de menos de 50 mm de longitud, que fueron tratadas con calor y recortadas en formas específicas. Los "hojitas" que se encuentran en el punto de Pinnacle se parecen mucho a las herramientas de otros sitios que fueron utilizados como puntas de flechas y otras armas de proyectiles compuestos. Sin embargo, técnicas de datación ópticas sugieren que las herramientas de Pinnacle Point son de 6,000 a 10,000 años más antigüas que las halladas en otros sitios. Así que los humanos pueden haber creado y utilizado arcos además de flechas antes de lo que se pensaba.

No sólo es este hallazgo interesante en términos de armamento, pero el complejo proceso necesario para hacer microlitos sugiere que estos primeros humanos tenían capacidades cognitivas sorprendentemente modernas. Los primeros humanos habrían tenido que identificar y recoger el mineral necesario para la hoja y la madera necesaria para la fuente de calor, preparar las palas, crear y mantener el fuego controlado para tratar térmicamente la hoja, reformar las cuchillas calentadas en microlitos, tallar la madera de los ejes, y montar el microlito en el eje para formar un compuesto de herramienta. Además, los investigadores creen que la tecnología microlíticas persistiron en Pinnacle Point durante al menos 11,000 años, lo que indica que este complejo proceso debe haber sido transmitido a través de varias generaciones. Durante este tiempo fueron capaces de la previsión, priorización de tareas y transmisión cultural. Todos estos son ciertamente sofisticadas capacidades cognitivas.

Otros estudios han utilizado la representación simbólica, como los adornos corporales y decoraciones talladas, como ejemplo de la mente humana moderna. Estos tipos de objetos en general, aparecen en el registro arqueológico hace 100,000 a 60,000 años. Sin embargo, los críticos han argumentado los pensamientos que motivan la creación y el uso de estos objetos no es clara, y por lo tanto no son un buen indicador de la cognición avanzada. Los autores del estudio de Nature no está de acuerdo, diciendo que las ideas complejas y de transmisión son la mejor manera de medir lo que hace una mente humana "moderna". Curiosamente, la edad de los microlitos de Pinnacle Point -71,000 años-, entra de lleno en el rango de cuando los científicos creen que la representación simbólica apareció por primera vez en la escena.

Los investigadores afirman las habilidades asociadas con la realización microlitos habría sido muy beneficioso para los primeros humanos. Armas de proyectiles como arcos y flechas que permitirían matar con mayor precisión además de aprovechar largas distancias. Tecnología microlíticas puede haber dado los primeros humanos modernos una ventaja sobre presas y neandertales, ayudando a su migración desde África y tal vez permitiendo su propagación eventual todo el mundo.

Referencia:

domingo, 11 de noviembre de 2012

IV

"[...] El contexto asigna costos a diversos tipos de acciones y beneficios a otros. Así es como se vive. No se puede evitar. Vivimos en un contexto que privilegia los esfuerzos para obtener ganancias personales...

Las personas tienen que tomar ese tipo de decisiones y las toma dentro de estructuras existentes. Dentro del marco de estructuras ya existentes y aunque lastima a todo el mundo a largo plazo, las opciones de un individuo consisten en maximizar su ganancia personal...

Sólo si todos hacemos algo de manera diferente podemos beneficiarnos conjuntamente en mayor medida. Los costos que puede tener para el individuo el esfuerzo para crear las posibilidades de hacer conjuntamente pueden ser muy altos. Sólo si muchas personas comienzan a hacerlo, y a hacerlo en serio, se pueden obtener beneficios reales[...]."

[Noam Chomsky, "Como mantener a raya a la plebe"]

viernes, 9 de noviembre de 2012

Estadísticas ganan en las elecciones de EE.UU.

El neurocientífico Sam Wang dice que la predicción de los ganadores es fácil si usted sabe matemáticas.
Edificio de Spire State se torno azúl con la victoria de Obama. Créditos: Lisa Bettany/Flickr.

Aparte de los principales resultados de las elecciones presidenciales pasadas EE.UU. donde el voto concuerda, también se reivindico o vilipendio a un grupo de estadísticos blogs. Por lo menos en los tres últimos ciclos electorales, algunos bloggers han predicho el ganador de las elecciones presidenciales en cada estado, con una precisión que parece rayar en la magia. ¿Su secreto? La agregación de docenas de encuestas nacionales y estatales llevadas a cabo a lo largo de la campaña electoral, y la aplicación de la estadística.

Mucha atención se prestó a la estadística Nate Silver, quien escribe el popular blog ​​FiveThirtyEight para The New York Times. Pero el neurocientífico Sam Wang, de la Universidad de Princeton en Nueva Jersey, no sólo igualo la precisión de Silver en la carrera presidencial, también la superó mediante el correcto resultado de dos reñidas contiendas en el Senado que Silver perdio. Nature habló con Wang sobre su pasatiempo, como abordo su investigación y si él piensa que alguna vez habrá sorpresas en las carreras políticas de nuevo.

¿Qué hacer para celebrar el éxito de sus predicciones?



Lo curioso de todo esto es que la calidad de la información es tan alta que la noche electoral en sí es un poco decepcionante. Teniendo en cuenta lo bien que los estados están correlacionados entre sí, una vez vi que New Hampshire tenía resultados [a favor de Barack Obama], estaba bastante seguro de que las encuestas eran tan precisas como lo habían hecho en años anteriores. Por lo tanto, mi incertidumbre terminó a eso de las 9.30 pm.

¿Cómo te metiste en el ambito?

En 2004 estaba viendo la política porque estaba muy interesado y me di cuenta de que mi frustración se basaba en el ruido incesante de las encuestas, donde habría una encuesta de Ohio, una encuesta de Pennsylvania y tal vez otra de Pennsylvania que contradecían la primera. Y cada encuesta fue acompañado por una nota periodística sin aliento diciendo cómo de repente [el senador John] Kerry estaba a la cabeza o de repente [George W.] Bush estaba en la delantera. Me molestó como científico, porque las personas basan sus jucios en los puntos de datos individuales.

Lo que yo quería era una medida que podría decirme como iba una carrera presidencial en cualquier momento dado. Así que inicie un meta-análisis empleando todos los datos y diseñe un modelo probabilístico que ofreciera un resultado más fiable. Se convirtió en lo que yo llamaría un termómetro electoral que pueda ofrecer datos sobre la carrera y sus altibajos en el tiempo.

¿Su trabajo como neurocientífico ha ayudado a su modelo?



Un poco. Al igual que muchos neurofisiólogos, uso métodos estadísticos para tratar de extraer la señal de los conjuntos de datos ruidosos. Y eso es un problema común en las neurociencias, como es el análisis de datos de series de tiempo.

¿Está usando herramientas estadísticas especiales para generar predicciones?



Yo diría que se trata de matemáticas básicas como la mediana basados ​​en estadísticas de robustez, el cálculo de probabilidades, un poco de análisis estadístico Bayesiano [PDF] -pero en realidad, las cosas que son bastante simples y al alcance de cualquier aficionado-.

Lo que sucede en el modelo de datos, además de la encuesta ¿Son también indicadores económicos predictivo?


Los datos económicos no desempeñan ningún papel en el análisis. Creo que la mejor medida de la opinión es encuestadores que son expertos en su oficio, que llaman a las personas y preguntan cuáles son sus opiniones. Y así, el cálculo que hago es puramente basado en las encuestas estatales. Llamé a 50 de 50 estados [correctamente, incluyendo el Distrito de Columbia] y el estado 51, Florida, es esencialmente un empate. De las 10 carreras electorales del Senado, 10 de ellas fueron correctas. Entonces, eso es un punto de referencia que sugiere que el método funciona bien y no necesita ningún vudú econométrico.

¿Las encuestas ponderadas estan basadas en los prejuicios inherentes?


No, es más como poner un dedo en la escala ... Las personas que estén interesadas en las encuestas, tanto profesionales como aficionados, a menudo se envuelven en los detalles. Una de las cosas que trato de demostrar al hacer esto es que muchas veces esos detalles no son importantes y es mejor dar un paso atrás y mirar el cuadro completo. Es poco sentimental, pero funciona sorprendentemente bien.

Nate Silver presto atención de blogs de estadisticas ¿Era una molestia o una bendición?



Ciertamente hizo esta actividad en su conjunto el perfil más alto. En las elecciones de 2008, dio comentario del color e hizo un comentario interesante a las encuestas. Un gran número de nosotros lo hacía desde 2004, y nuestro enfoque general fue poner los agregados a la encuesta y no hablar de ellos. Hizo la innovación de dar un seguimiento -que tiene un fondo en los deportes- y lo hacía divertido.

¿Qué podría cambiar la capacidad de este tipo de método para predecir los ganadores?



La profesión de votación está cambiando. Como las personas se vuelve menos accesibles a través de teléfonos fijos, se convierte en más que un reto para llegar a las personas -ya sea por teléfono móvil o a través de Internet-.

¿Qué tan bien [los encuestadores] tendrán éxito determinando la calidad de la fuente de datos?


Otra cosa que va a salir es si la fuente de datos sigue siendo de alta calidad. Puede haber un día en que estos datos dejen de estar dominados y/o alimentados por organizaciones partidistas, u otras organizaciones que buscan controlar el flujo de información. Si eso ocurre, entonces hay una pregunta en cuanto a la integridad del conjunto de datos. En términos generales, todo depende de tener una fuente de datos de alta calidad.

¿Usted lo ve como una victoria para las matemáticas?


Creo que, en principio, debería conseguir que los periodistas y los expertos piensen dos veces antes de despedir a las personas que tienen una buena comprensión cuantitativa de las carreras políticas. Creo que fue un buen escaparate para comprender la contribución que una encuesta puede tener.

Refrerencia:

Related Posts Plugin for WordPress, Blogger...