sábado, 31 de marzo de 2012

Pistas en las cenizas para descubrir los orígenes de la cocina

Ceniza de plantas y animales se encuentran a treinta metros en el interior de la Cueva Wonderwerk, más allá del alcance de un rayo. Créditos:Greatstock Photografic Library/Alamy
 Descubrimientos de Ash en cuevas sudafricanas permitirían datar el uso de fuego para cocinar por los seres humanos un millón de años atrás.

Su descubrimiento es la evidencia más temprana encontrada aún para el uso de esta tecnología revolucionaria, añaden los investigadores responsables del hallazgo. Sin embargo, algunos expertos advierten que se necesitan más pruebas antes de la conclusión de que los seres humanos estaban cocinando con regularidad en esta fecha.

Francisco Berna, un arqueólogo de la Universidad de Boston en Massachusetts, y sus colegas encontraron cenizas de hierba quemada, hojas, arbustos y fragmentos de hueso en los sedimentos a 30 metros en el interior de la Cueva Wonderwerk en la provincia de Northern Cape. La cueva es uno de los sitios más antiguos conocidos de la vida humana, que muestra huellas de haber sido habitada desde hace casi dos millones de años.

No es posible decir con certeza que las especies de homínidos que habitaron la cueva hace un millón de años, pero el equipo cree que probablemente fue el Homo erectus.

Los rastros de ceniza, que van desde unos pocos milímetros a unos centímetros de largo, están bien conservados. Tienen los bordes dentados, que demuestran que no se quemaron en otro lugar y el viento o el agua en la cueva, habría traído después.

Berna y sus colegas buscaron en los sedimentos heces de murciélagos, ya que grandes pilas de descomposición del guano pueden llegar a calentarse lo suficiente como para prenderse espontáneamente. Pero no había rastros de excrementos de estos.

"Esto nos dejó con la conclusión de que el fuego tuvo que haber sido creado por los homínidos", dice Berna. Las pruebas se publican hoy en Proceedings of the National Academy of Sciences.

Cocinar hace que los alimentos sean fáciles de masticar y digerir, por lo que los primeros seres humanos podrían obtener más energía de la misma cantidad de alimentos y dedicar menos tiempo a alimentarse. Pero ha sido difícil determinar cuando los seres humanos hicieron este salto.

A diferencia de las herramientas de piedra, la evidencia del fuego, tales como cenizas y carbón de leña, se destruye fácilmente por el viento y la lluvia. Y aun cuando tales restos se encuentran, para determinar si el fuego fue natural o provocado por el hombre es difícil.

Materiales quemados encontrados datan de 1 millón a 1,5 millones de años atrás, en el sitio Swartkrans en Sudáfrica, y de 700,000 a 800,000 años atrás, en un sitio en Israel llamado Gesher Benot Ya `aqov. Pero estos dos sitios se encuentran en lugares expuestos, donde un rayo pudo haber encendido el fuego.

Eso no podría haber ocurrido en la cueva Wonderwerk. Sin embargo, el uso del fuego y el dominio no son la misma cosa, advierte Wil Roebroeks, un arqueólogo de la Universidad de Leiden en los Países Bajos.

"Creo que es probable que los humanos usaban el fuego en este sitio, pero no creo que esto significa que estos homínidos usaban habitualmente el fuego. Para constatar un descubrimiento como el que se hizo, tendríamos que ver fogones y chimeneas, aspecto que no se ha cubierto", dice. "Si pudiéramos descubrir otros sitios donde se uso el fuego en este momento en la historia y encontrar que los incendios naturales son claramente diferentes, apoyaría una nueva hipótesis sobre la cocción, pero no estamos allí todavía".

La primera evidencia inequívoca para cocinar humana regular se remonta hace 400,000 años.

Paola Villa, arqueóloga del Museo de Historia Natural en Boulder, Universidad de Colorado, argumenta se necesitan más búsquedas. "Hallazgos aislados no son concluyentes. Se requieren más argumentos, capas de sedimentos de muchos sitios diferentes del mismo período de tiempo deben ser analizados", considera ella.

Berna considera que más evidencia se puede encontrar. "El fuego sólo se confirmó cuando el sedimento se analiza a nivel microscópico. Es posible que la razón por la que todavía no hemos visto más pruebas de la utilización precoz de fuego se debe a que no hemos estado utilizando los métodos adecuados", finaliza.

Referencia:

viernes, 30 de marzo de 2012

El aumento de alergias relacionadas con la Guerra de bacterias

Créditos: Ars Technica
"Las enfermedades alérgicas han alcanzado niveles de pandemia", de esta forma comienza el nuevo trabajo de David Artis en la revista Nature Medicine. Artis viene a decir que, mientras todo el mundo sabe que las alergias son causadas por una combinación de factores que involucran tanto la naturaleza y la crianza, el conocimiento no nos ayuda a identificar lo que es culpable, no es del todo claro exactamente de qué se trata, o cómo los ciertos factores relevantes desencadenan respuestas alérgicas.

Hay evidencia de que una de las causas se encuentra dentro de nuestras entrañas. Los estudios epidemiológicos han relacionado los cambios en los billones de microorganismos presentes de bacterias comensales que residen en nuestro colon para el desarrollo de enfermedades alérgicas. (Por lo general, entre 1,000 y 15,000 especies diferentes de bacterias viven en nuestros intestinos.) E inmunólogos saben que las moléculas de señalización producidas por algunas células del sistema inmune intervienen en la inflamación alérgica.

Los estudios en animales han proporcionado la relación entre estos dos, que muestra que las bacterias comensales promueven la inflamación alérgica. Sin embargo, estos investigadores querían saber más acerca de cómo hacerlo.

Para averiguarlo, Artis y sus colegas en la escuela de Penn estudiaron ratones tratados con Medicina Veterinaria usando una amplia gama de antibióticos por vía oral para disminuir o agotar sus bacterias comensales y luego examinaban diferentes parámetros inmunológicos. Se utilizó una combinación de cinco antibióticos distintos, que van desde la ampicilina a la vancomicina.

Ellos encontraron que los ratones tratados con antibióticos tenían niveles elevados de anticuerpos  importantes en las alergias y el asma (clase de antibióticos IgE). Los anticuerpos elevados a su vez aumentaron los niveles de los basófilos, células inmunes que juegan un papel en la inflamación, tanto alérgicas como de otro tipo.

Esta conexión no sólo se aplica a ratones sino también a los seres humanos que tienen altos niveles de IgE por razones genéticas. Las personas con niveles genéticamente elevados de IgE son hipersusceptibles de eccma y las infecciones, en tanto los anticuerpos que neutralizan la IgE se utilizan para tratar el asma.

Los tratamientos con antibióticos y de IgE no actuan mediante la promoción de la supervivencia de los basófilos maduros, sino más bien mediante la promoción de la proliferación de células precursoras de los basófilos en la médula ósea. Las bacterias comensales limitan esta capacidad proliferativa.

Este descubrimiento es la visión real aportada por este trabajo. Se ha sabido durante algún tiempo lo que medía las alergias IgE. Pero nadie sabía que las bacterias que viven en el intestino se pueden utilizar para controlar el crecimiento de las células precursoras inmunes de la médula ósea. El hallazgo podría tener implicaciones amplias que ayudarían a dar sentido a otros estados de enfermedades crónicas inflamatorias que también han sido asociadas con cambios en esta población bacteriana. Las bacterias comensales podrían afectar estas condiciones inflamatorias, incluyendo otros tipos de cáncer, infección y trastornos autoinmunes a través de este mecanismo, también.

Los expertos se han preguntado por la enorme explosión de asma y alergias en los últimos años y han sido incapaces de identificar la causa. Este artículo sugiere que tal vez el uso excesivo de productos antibacterianos podría ser el culpable.

Referencia:

jueves, 29 de marzo de 2012

Los biólogos reflexionar sobre descubrimientos fundamentales en Biología que podrían coincidir con la emoción del descubrimiento del bosón de Higgs. Créditos: B. Monroe/Nature.

Los biólogos tienen poco que envidiar a los físicos -por lo general disfrutan de una financiación más generosa, más los intereses comerciales y mayor apoyo popular-. Pero podrían haber tenido un momento de envidia a los físicos en diciembre pasado cuando, tras una semana de acumulación y  especulación, los investigadores en el Gran Colisionador de Hadrones (LHC) cerca de Ginebra, en Suiza hicieron un anuncio a un nutrido auditorio.

Los científicos tenían fuertes indicios del bosón de Higgs: lo que algunos llaman la "partícula de Dios", la última pieza que falta en el modelo estándar que explica el comportamiento de las partículas subatómicas. El descubrimiento, de confirmarse, marcaría la culminación de una cacería que ha tomado años y costado miles de millones de dólares y daría forma al conocimiento sobre la materia en los próximos años. La comunidad de investigadores estaban eufóricos. "Había un montón de rumores alrededor de lo importante que era la señal", añade Lisa Randall, física de partículas teórica en la Universidad de Harvard en Cambridge, Massachusetts, que se levantaba a las 4 de la mañana a hablar con la prensa antes de ver el webcast de la presentación en el LHC. "Fue muy emocionante."

Todo esto llevó a preguntarme: ¿qué descubrimientos fundamentales de la biología podrían haber inspirado la misma emoción? Para ello le preguntamos a los expertos en diversos campos. La biología no es ajena a las colaboraciones internacionales para grandes y nobles objetivos,  -la carrera por secuenciar el genoma humano logro un esfuerzo internacional-. Pero la mayoría de las misiones biológicas carecen de la precisión matemática y la satisfacción de sí hay o no respuestas que caracterizan a la búsqueda del bosón de Higgs. "La mayoría de lo que es importante esta desordenado y no da para un momento en el que se planta una bandera y se rompe el champán", añade Steven Hyman, un neurocientífico en el Instituto Broad en Cambridge, Massachusetts.

Sin embargo, nuestra encuesta informal muestra que el campo no tiene escasez de preguntas fundamentales que podrían llenar un auditorio con anticipación. Estas cuestiones se refieren a dónde y cómo empezó la vida, y por qué termina.

¿Hay vida en otros lugares?

En 1964, el paleontólogo George Gaylord Simpson escribió un artículo interesante en exobiología, la búsqueda de vida en otros planetas. "Esta 'ciencia' aún tiene que demostrar que su objeto de estudio existe", escribió. La crítica punzante causo que muchos investigadores en el naciente campo se alejaran de la exobiología.

Pero no era justo, añade el científico planetario Christopher Chyba de la Universidad de Princeton en Nueva Jersey. Chyba durante años ha realizado búsqueda de vida en otros planetas similar a la búsqueda del bosón de Higgs: otra misión, cuyo tema nunca se ha demostrado que existe. "¿Por qué de repente se ríen por nada cuando está en juego la biología, en lugar de la física?" Escribió Chyba en una refutación de 2005 al ataque de Simpson.

La búsqueda de vida extraterrestre puede ser descrito como una manera de probar "un modelo estándar de la biología", dice el astrobiólogo Chris McKay de la NASA Ames Research Center en Moffett Field, California. "Es el modelo del ADN, de aminoácidos, proteínas y un código genético", añade. "Son las características comunes de toda la biología y el marco de todo lo que sabemos acerca de en que se basa la vida". Si la vida es diferente de este modelo estándar - tal vez confiando en una bioquímica tremendamente diferente - al encontrarse en otro planeta, demostraría que no es más que una manera de producir un sistema vivo, añade.

Otros dicen que no necesitan pruebas de esa "segunda génesis" para conseguir una emoción similar al descubrimiento de Higgs -desde la perspectiva de vida en otros planetas-. "Si encontramos nuestra misma biología, pero en Marte, sería muy emocionante", dice el bioquímico Gerald Joyce, del Instituto de Investigación Scripps en La Jolla, California. "Entonces la pregunta sería: ¿de dónde provienen en primer lugar?".

Pero mientras que los cazadores del bosón de Higgs en Ginebra tienen una buena idea de qué buscar, los astrobiólogos buscan formas alternativas de vida frente a un desafío logístico más grande: averiguar que pistas son reveladoras. Las firmas químicas de compuestos que se asocian comúnmente con la vida, como el metano o el agua líquida, podría identificar planetas en donde buscar. Pero las firmas atmosféricas de vida son poco probables que sean convincentes, considera Chyba.

Dentro del Sistema Solar, McKay pone su apuesta en tres hábitats, con más probabilidades de albergar vida: Encelado, una luna helada que órbita alrededor de Saturno que, de acuerdo a la nave espacial Cassini de la NASA, probablemente tiene agua líquida y está arrojando material orgánico de las grietas en su superficie; Marte, pero no el viejo Marte, Marte hoy en día y la luna de Júpiter, Europa, cuya superficie helada tiene tentadores mares de agua. El Laboratorio Científico de Marte, programado para aterrizar en el planeta rojo en agosto, contará con un espectrómetro de masa simple y un espectrómetro láser, lo que le permitirá detectar el metano y podría revelar signos preliminares de la vida. Pero la misión no está diseñada para proporcionar una evidencia definitiva.

Otra forma de búsqueda de vida es la búsqueda de moléculas orgánicas que son demasiado complejas para haber surgido por síntesis química simple, sin la ayuda de enzimas. "Digamos que usted viene a la tierra y recoge la materia", dice McKay. "Se iba a encontrar todo esto de la clorofila y el ADN. Moléculas grandes y complejas que están claramente en abundancia y muy diferente de lo que usted esperaría de una mezcla química" Encontrar esto requiere de equipo sofisticado, libre de contaminantes terrestres y, en la actualidad, no existen planes concretos para incluir el equipo en  propuestas de viaje de la NASA a Marte o Europa. "Mi sensación es que las personas están tratando de evitarlo el mayor tiempo posible", añade Chyba. "El dinero es muy poco, pero en algún momento tendremos que hacerlo".

La búsqueda de fósiles en otros planetas es otra propuesta popular, considera Jeffrey Bada, un geoquímico planetario en el Instituto Scripps de Oceanografía en La Jolla. "Eso es bastante fácil", dice. "Pero si no los encuentran, ¿eso dice que la vida nunca existió allí?" McKay afirma que la evidencia fósil es una prueba para convencer a un campo. "En última instancia, tendrá que tener un cuerpo", dice. "No tiene por qué ser vivo, pero usted tendrá que tener un cuerpo".

¿Hay vida extraña en la Tierra?

Vida en otros planetas - puede ser un momento Higgs - pero también la vida puede estar al acecho cerca de casa. Algunos han postulado la existencia de una "biosfera en la sombra" en la Tierra, llena de vida que se ha pasado por descubrir ya que los científicos simplemente no saben dónde buscar. Podría contener vida que se basa en una bioquímica diferente, con diferentes formas de aminoácidos o incluso nuevas maneras de almacenar, reproducir y ejecutar la información hereditaria que no se basa en el ADN o las proteínas.

La idea no es tan descabellada como podría parecer, añade Steven Benner, químico de la Fundación para la Evolución Molecular Aplicada, en Gainesville, Florida. Los investigadores han encontrado biosferas en la sombra. La invención del microscopio reveló nuevos mundos, dice Benner, y el descubrimiento de un nuevo reino de los microorganismos, las Archaea, abrió una ventana a otra biosfera. "La pregunta es: ¿va a suceder de nuevo?"

El truco es decidir qué buscar y cómo detectarlo. La forma habitual de la búsqueda por investigadores de nuevos organismos - por secuenciación del ADN o ARN - no recoge la vida que no depende de ellos.

Algunos científicos han especulado que el barniz del desierto, un peculiar revestimiento color oscuro de origen desconocido, encontrado en las rocas del desierto, podría ser un producto de una biosfera en la sombra. Benner sugiere buscar en los rincones y grietas que no soportan la vida convencional, como las zonas con temperaturas extremadamente altas, los niveles de radiación o ambientes químicos agresivos.

Felisa Wolfe-Simon, ahora en el Laboratorio Nacional Lawrence Berkeley en Berkeley, California, y sus colegas tomaron este enfoque cuando se buscaban vida en un medio ambiente rico en arsénico del lago Mono en California. A finales de 2010, se informó sobre el descubrimiento de una forma de vida que podría usar arsénico en lugar de fósforo en su ADN y las proteínas. Pero al menos un intento de reproducir el resultado ha fallado.

Otro enfoque es buscar con base en su tamaño. Si las células fueron liberadas de su dependencia a ribosomas voluminosas y las proteínas, podrían ser mucho más pequeñas, agrega Benner, puede haber vida escondida en rocas con poros de sólo nanómetros de ancho. Esa es la razón de ser de un proyecto que Juan Atkins, un genetista molecular de la Universidad de Utah en Salt Lake City, está llevando a cabo con Richard Herrington del Museo de Historia Natural de Londres. Planean secuenciar los contenidos de las rocas de diferentes edades y orígenes, con poros de menos de 100 nanómetros de diámetro. En la detección de secuencias de ácidos nucleicos que carecen de código para las proteínas de los ribosomas, existe la esperanza de encontrar una forma de vida libre de proteínas que tenga sus raíces en el ARN, como se conoce la vida, probablemente sí, pero que surgió de forma independiente. "El mundo de ARN se cree que se originó, en términos geológicos, de forma relativamente rápida", dice Atkins. "¿Por qué no podría haber surgido de nuevo varias veces?"
¿Cómo empezó la vida?

Aunque las formas de vida alternativas eluden a los científicos, una visión más completa de como se originó la vida en la Tierra sin duda tendría un efecto dominó en la biología.

Joyce dice que llegará un punto en el que los investigadores aprendan a sintetizar la evolución, una replicación desde cero. Llegar allí no tendrá un "monolítico, la gran marcha a través de la ciencia" que ha caracterizado a la búsqueda del bosón de Higgs, advierte. Pero va a responder a una cuestión biológica clave: ¿qué se necesita para crear vida a partir de una sopa primordial? Y eso podría dar una idea de cómo la vida en la Tierra comenzó. "Nunca sabremos a ciencia cierta, pero al menos se puede probar la hipótesis plausible", dice James Collins, biólogo sintético en la Universidad de Boston, en Massachusetts.

Varios laboratorios ya han avanzado. Joyce y sus colaboradores han sido pioneros en el trabajo sobre el concepto del mundo de ARN, en el que las moléculas de ARN son capaces de codificar la información y catalizar reacciones químicas, replicando y evolucionado más rápido lo degradado. El ARN es muy inestable, y la idea es que con el tiempo, este sistema dio paso a ADN, un sistema más robusto para almacenar información, y las proteínas, de un modo más versátil de las reacciones que catalizan. "La transición al ADN y las proteínas crearon el potencial para evolucionar hacia cosas más complejas", explica Bada.

En 2009, un documento del laboratorio de Joyce informó el desarrollo de un sistema de moléculas de ARN que se sometía a un sistema auto-sostenible de evolución darwiniana. Sin embargo, las enzimas y una mano humana eran necesarias para crear secuencias de ARN para empezar la reacción, dice Joyce, y hasta ahora su laboratorio no ha encontrado las condiciones que permitan que el sistema se forme espontáneamente. "Todavía estamos un poco consternados", dice. "Pero el sistema está funcionando cada vez de forma más eficiente".

Jack Szostak y sus colegas de la Harvard Medical School en Boston, han adoptado un enfoque diferente, que encierra moléculas de ARN en vesículas de ácidos grasos, como un primer paso hacia la creación de una célula primitiva. Las vesículas crecen y se dividen de forma espontánea, pero el material genético no se replica sin la ayuda de una enzima.

Algunos creen que el ARN puede haber tenido un precursor. Ramanarayanan Krishnamurthy en el Instituto de Investigación Scripps, está probando nuevos polímeros de productos químicos orgánicos que pudieron haberse formado en la sopa primordial, en busca de los que podrían replicarse y evolucionar. "ARN no fue la primera entidad viviente", dice Bada. "Es demasiado complejo. Algo tuvo que preceder el ARN, y ahí es donde esta el interés en estos momentos".

...¿Podemos retrasar el final?

En una revisión de 1993, Partridge, Linda y Nicolás Barton, investigadores en envejecimiento en la Universidad de Edimburgo, Reino Unido, pronunciaron "un mensaje funesto" para el campo de la gerontología. La complejidad de las redes biológicas que influyen en el envejecimiento, escribieron, significa que "es muy poco probable que la ingeniería en unos pocos genes o la intervención en un puñado de vías fisiológicas evitará que el proceso se produzca".

Las cosas han cambiado "yo podía tolerar el debate hace 20 años", dice Richard Miller, que estudia el envejecimiento en la Universidad de Michigan en Ann Arbor. "Pero ahora es un error."

Unos ocho meses después de la publicación de la revisión de Barton, Cynthia Kenyon y sus colegas de la Universidad de California en San Francisco, informó que las mutaciones en un solo gen permite al nematodo Caenorhabditis elegans a vivir más de dos veces su promedio de vida. Tres años más tarde, un grupo dirigido por Andrzej Bartke, que estudia el envejecimiento en la Southern Illinois University en Springfield, informó que los ratones con una mutación única provocaba deficiencias hormonales a la altura de un 68% que en los ratones sin la mutación.

Ambos documentos, y un montón de trabajos, han sugerido que podría ser posible reducir significativamente el envejecimiento humano y sus enfermedades asociadas. Esta intervención podría tener un tremendo impacto en la sociedad, añadiendo años de salud y la productividad económica, pero la creación de nuevas cepas en una sociedad que tiene para apoyar a las personas mayores muchas más. Y científicamente, la capacidad de retardar el envejecimiento es igual que las preguntas fundamentales sobre la vida humana: ¿Por qué envejecemos, hay vías para controlarlo, y cuáles son las consecuencias si se apaga?

Hay indicios de que estas intervenciones puedan existir. En 2010, Miller y sus colegas demostraron que la alimentación de los ratones con un fármaco llamado rapamicina alargaba su vida media en un 10% para los hombres y 18% para las mujeres. Y recortar la ingesta de calorías en un 25-40% puede prolongar la vida en ratones y otros mamíferos. Pero no hay ninguna prueba de que estos enfoques funcionan en los seres humanos y, aunque lo hicieran, tampoco es posible engancharnos a la rapamicina para suprimir el sistema inmune, y pocas personas pueden tolerar la restricción en la dieta brutal.

Un desafío importante para el campo es demostrar que un supuesto agente de prolongación de la vida realmente funciona - algo que en seres humanos podría tomar 60 años o más-. Jay Olshansky, que estudia el envejecimiento en la Universidad de Illinois en Chicago, dice que el campo debe establecer un objetivo concreto: un retraso de siete años en la aparición y progresión de enfermedades relacionadas con la edad. "Si nos fijamos en el riesgo de que la mayoría de las cosas van mal con nosotros a medida que envejecemos, relacionadas con la edad que se duplica aproximadamente cada siete años", dice. "Si se elimina una duplicación, se reduce el riesgo de que todo a la mitad. Sería monumental".

Miller tiene una meta diferente. "Vamos a tener la respuesta cuando tengamos algo que se puede clocar en la comida para perros extiende la vida útil del perro promedio de un 15 a un 20%", dice. Los perros ofrecen un ideal intermedio entre ratones y seres humanos, dice Miller: se les considera una especie de larga vida y viven lado a lado con los seres humanos.

Pero las observaciones de Partridge y Barton acerca de la complejidad del envejecimiento siguen vigentes. La mayoría de los investigadores reconocen que se están empezando a entender las redes moleculares que regulan el envejecimiento y sus enfermedades asociadas. "No creo que haya una causa de envejecimiento", dice Brian Kennedy, presidente del Instituto Buck de Investigación del Envejecimiento en Novato, California. "Sin embargo, existen vías que están diseñadas para modular muchas cosas a la vez. Creo que muchos de los genes y las drogas que estamos estudiando están recurriendo a ellos".

En este punto, un tratamiento que prolonga la vida parece una perspectiva mucho más distante de la confirmación del bosón de Higgs. El mes pasado, los investigadores anunciaron un bache en los datos del Tevatron, el colisionador de partículas del Fermilab en Batavia, Illinois, que es consistente con los resultados del LHC. Se ha añadido a la excitación de los físicos que están en el umbral del descubrimiento.

El envejecimiento, sin embargo, "es casi la inversa completa de la situación de la partícula de Higgs", reflexiona Thomas Kirkwood, un líder en el campo de la Universidad de Newcastle, Reino Unido. "Todo lo que estamos aprendiendo nos dice que es muy poco probable que encontremos una causa unitaria única".

Referencia:

lunes, 19 de marzo de 2012

La esquizofrenia: Un cuento de dos mitades

Desde la década de 1960, los investigadores han estado examinando grupos de pacientes que se sometieron a un tipo radical de la cirugía cerebral. El estudio de grupos ha sido una bendición para la neurociencia - pero pronto dejará de ser útil. Créditos: Nature.

En los primeros meses después de su cirugía, las compras en el supermercado se volvieron exasperantes. De pie en el pasillo de un supermercado, Vicki miraba un objeto en los anaqueles y pese a que ella quería colocarlo en su carro - no podía-. "Me gustaría hacerlo con la derecha, pero la izquierda lo hacía y había un tipo de pelea", dice ella. "Casi como imanes que se repelen." Hacer la compra de la comida para la semana era un calvario de dos, a veces tres horas. Vestirse planteaba un desafío similar: Vicki no podía conciliar entre lo que quería poner en sus manos con lo que estaban haciendo. A veces, ella terminaba colocando tres combinaciones a la vez. "Tenía que colocar toda la ropa en la cama, recuperar el aliento y empezar de nuevo".

De un modo crucial, sin embargo, Vicki maneja su auto mejor que antes de la cirugía. Ella ya no es sacudido por convulsiones epilépticas, que eran tan graves que habían hecho de su vida insoportable. En una ocasión se derrumbó sobre la barra de un horno antiguo, produciendo ardor y cicatrices en su espalda. "Realmente no podía vivir", dice ella. Cuando, en 1978, su neurólogo le dijo acerca de una cirugía radical, pero peligrosa, que podría ayudar, apenas dudó. Si lo peor llegaba a suceder, sabía que sus padres se harían cargo de su pequeña hija. "Pero por supuesto que me preocupo", dice ella. "Saber que su cerebro fue dividido y que no volverá e estar unido".

En junio de 1979, en un procedimiento que duró casi 10 horas, los médicos crearon una separación para contener las convulsiones de Vicki cortando a través de su cuerpo calloso, el haz de fibras neuronales que conectan los dos lados de su cerebro. Este procedimiento drástico, llamado cuerpo calloso, desconecta los dos lados de la neocorteza, la casa del lenguaje, el pensamiento consciente y el control del movimiento. La situación de Vicki en el supermercado era consecuencia de un cerebro que se comportaba en cierto modo como si se tratara de dos mentes separadas.

Después de un año, las dificultades de Vicki disminuyeron. "Puedo hacer cosas con las manos juntas", dice ella. Ahora puede: cortar verduras, atarse los cordones de los zapatos, jugar a las cartas, incluso el esquí acuático.

Pero lo que Vicki no podía saber era que la cirugía se convertiría en una estrella accidental de la neurociencia. Ella es uno de los pacientes de menos de una docena de "cerebro dividido", cuyos cerebros y comportamientos han sido objeto de incontables horas de ensayos, cientos de artículos científicos y referencias en casi todos los libros de texto de psicología de la generación pasada. Y ahora su número está disminuyendo.

A través de estudios de este grupo, los neurocientíficos saben ahora que el cerebro sano puede verse como dos máquinas muy diferentes, conectadas entre sí con un intercambio de datos. Pero cuando el cable principal se corta, la información -una palabra, un objeto, una imagen- que se presenta a un hemisferio pasa desapercibido en el otro. Michael Gazzaniga, neurocientífico cognitivo de la Universidad de California en Santa Bárbara y padrino de la moderna ciencia de la división del cerebro, dice que incluso después de trabajar con estos pacientes durante cinco décadas, todavía le resulta emocionante observar los efectos de desconexión de primera mano. "Uno ve a un paciente con el cerebro dividido sólo hacer una cosa normal -le muestra una imagen y no puede decir lo que es. Pero puede tirar de ese mismo objeto de un cajón", dice Gazzaniga. 

Trabajar con los pacientes que han burlado las diferencias entre los dos hemisferios, ha revelado por ejemplo, que el lado izquierdo por lo general se enfoca en el habla y el lenguaje, y el derecho se especializa en el procesamiento visual-espacial y el reconocimiento facial. "El trabajo de división realmente mostró que los dos hemisferios son muy competentes en la mayoría de las cosas, pero nos proporcionan dos instantáneas distintas del mundo", dice Richard Ivry, director del Instituto de Ciencias Cognitivas y del Cerebro en la Universidad de California, Berkeley . La idea de la conciencia dicotómica cautivó al público y ha sido muy exagerada en la noción del "cerebro derecho creativo". Sin embargo, nuevas pruebas con pacientes de cerebro dividido dio una imagen más matizada. El cerebro no es como una computadora, con secciones específicas de hardware encargado de tareas específicas. Es más como una red de ordenadores conectados por grandes cables de banda ancha. La conectividad entre las regiones cerebrales activas se están convirtiendo en un elemento importante, si no más que la operación de las distintas partes. "Con los pacientes de cerebro dividido, se puede ver el impacto de desconectar una gran parte de esa red, pero sin dañar los módulos particulares", agrega Michael Miller, un psicólogo de la Universidad de California en Santa Bárbara.

David Roberts, jefe de neurocirugía en el Dartmouth-Hitchcock Medical Center en el Líbano, New Hampshire, ve una lección importante en la investigación de la división del cerebro. Operó a algunos de los miembros del grupo y ha trabajado en estrecha colaboración con Gazzaniga. "En la escuela de medicina y ciencia en general, no hay tanto énfasis en grandes cantidades, laboratorios, diagnósticos y significación estadística", dice Roberts - que son clave cuando, por ejemplo, evalua un nuevo medicamento. Sin embargo, el grupo de cerebros divididos trajo a casa a lo mucho que se puede extraer de un solo caso. "Yo vine a saber que un individuo, bien estudiado y con cuidado podría llegar a conclusiones que se aplican a toda la especie humana", dice.

Hoy en día, los pacientes con cerebro dividido han entrado en años, algunos han muerto, uno ha tenido un derrame cerebral y la edad, en general, ha hecho a todos menos aptos para sesiones de investigación sobre observación y concentración. La cirugía, ya muy rara, ha sido reemplazada por tratamientos con fármacos y procedimientos quirúrgicos menos drásticos. Mientras tanto, tecnologías que emplean imagen por computadora se han convertido en la mejor manera de mirar a la función del cerebro, los científicos sólo puede ver qué áreas del cerebro están activas durante una tarea.

Sin embargo, para Miller, Ivry, Gazzaniga y otros, los pacientes con el cerebro dividido siguen siendo un recurso muy valioso. Herramientas de imágenes puede confirmar, por ejemplo, que el hemisferio izquierdo es más activo que el derecho al procesar el lenguaje. Pero esto es más dramático en un paciente con el cerebro dividido, que no puede ser capaz de leer en voz alta una palabra como 'pan' cuando se le presenta en el hemisferio derecho, pero puede señalar el dibujo correspondiente. "Eso le da un sentido de la capacidad del hemisferio derecho para leer, incluso si no pueden acceder al sistema del motor para producir el habla", dice Ivry. "La imagen es muy buena porque dice que algo pasa", añade, "mientras que el trabajo del paciente puede decir cómo algo sucede."

Un corte de cable

La ruptura del cuerpo calloso se utilizó por primera vez como un tratamiento para la epilepsia severa en la década de 1940, en un grupo de 26 personas en Rochester, Nueva York. El objetivo era limitar el uso de energía eléctrica en el cerebro. Al principio, no parecía funcionar. Pero en 1962, un paciente mostró una mejoría significativa. Aunque el procedimiento nunca se convirtió en una estrategia masiva -debido a que es invasiva y arriesgada además de que los medicamentos pueden aliviar los síntomas en muchas personas- en décadas posteriores, no obstante, se convirtió en una técnica como último recurso para el tratamiento de la epilepsia intratable.

Para Roger Sperry, a continuación, un neurobiólogo y neuropsicólogo del Instituto de Tecnología de California, y Gazzaniga, un estudiante graduado en el laboratorio de Sperry, consideran que los pacientes con cerebro dividido presentan una oportunidad única para explorar la naturaleza del cerebro humano. En el momento, la opinión sobre el asunto fue dividido. Los investigadores que estudiaron los primeros pacientes con cerebro dividido en la década de 1940 llegaron a la conclusión de que la separación no afectaba de forma notable el pensamiento o la conducta. (Gazzaniga y otros sospechan que estas primeras secciones estaban incompletos, lo que también podría explicar por qué no ayudaba a detener los ataques.) Por el contrario, los estudios realizados por Sperry y sus colegas en la década de 1950 revelaron funciones alteradas en gran medida de animales que se habían sometido a cortes del cuerpo calloso. Sperry y Gazzaniga se obsesionaron con esta inconsistencia y vio en los pacientes con cerebro dividido una manera de encontrar respuestas.

El primer paciente era un hombre conocido como WJ, un ex paracaidista de la Segunda Guerra Mundial que había comenzado a tener convulsiones después de que un soldado alemán lo golpeo en la cabeza con la culata de un rifle. En 1962, después de la operación a WJ, Gazzaniga llevo a cabo un experimento en el que pedía a WJ pulsar un botón cada vez que veía una imagen. Los investigadores entonces mostraban imágenes de letras, explosiones de luz y otros estímulos a su campo de vista fuera izquierda o derecha. Debido a que el campo de la izquierda de la vista es procesado por el hemisferio derecho y viceversa, el uso de imágenes de forma rápida a un lado o el otro proporciona la información únicamente para el hemisferio en uso

Para los estímulos entregados en el hemisferio izquierdo, WJ no mostró cuelgues, simplemente presiona el botón y dijo a los científicos lo que vio. Con el hemisferio derecho, WJ, dijo que no veía nada, pero su mano izquierda mantiene pulsando el botón cada vez que apareció una imagen. "La izquierda y la derecha no sabía lo que estaba haciendo el otro", dice Gazzaniga. Fue un descubrimiento paradigma de chorro que demuestra que el cerebro está más dividida de lo que nadie había predicho una .

De repente, se pretendió profundizar en el mundo de la función lateralizada. Pero la búsqueda de más pacientes para el estudio resultó difícil. Gazzaniga estima que al menos 100 pacientes, y posiblemente muchos más, pasaron por esta operación. Sin embargo, los individuos considerados para la operación tienden a tener otros problemas significativos en el desarrollo o cognitivos y sólo unos pocos fueron operados con cortes limpios y son neurológicamente lo suficientemente sanos como para ser útiles a los investigadores. Durante un tiempo, Sperry, Gazzaniga y sus colegas no sabían si encontrarían alguien más como WJ.

Pero después de ponerse en contacto con los neurocirujanos, en asociación con centros de epilepsia y la evaluación de muchos pacientes potenciales, fueron capaces de identificar a algunas personas adecuadas en California, incluyendo a Vicki. A través de las décadas de 1970 y principios de 1980, la división del cerebro se expandió la investigación y los neurocientíficos se interesaron particularmente en las capacidades del hemisferio derecho - el que convencionalmente se cree que es incapaz de procesar el lenguaje y la producción del habla.

Gazzaniga se muestra como un abuelo orgulloso de hacer una votación nominal de los nietos, WJ, AA, RY, LB, NG. Por la confidencialidad médica, se les conoce en la literatura por sus iniciales solamente. (Vicki accedió a ser identificado en este artículo, siempre que su apellido y su ciudad natal no fueron publicados).

En el escenario en mayo pasado, dando un discurso en la reunión anual de la Sociedad de Cirujanos Neurológicos en Portland, Oregon, Gazzaniga mostró un par de clips de película de un experimento de 1976 con el paciente PS, que sólo tenía 13 ó 14 años en ese momento. Los científicos querían ver mediante sus respuestas, si sólo su hemisferio derecho veía las palabras escritas.

En el vídeo de Gazzaniga, al niño se le pregunta: ¿quién es tu chica favorita?, mientras la palabra chica brilla sólo para el hemisferio derecho. Como se predijo, el niño no puede responder verbalmente. Se encoge de hombros y sacude la cabeza, indicando que él no ve ninguna palabra, tal como había sido el caso de WJ. Pero luego se ríe. Es una de esas risitas adolescentes reveladoras -una banda sonora para un rubor-. Su hemisferio derecho ha visto el mensaje, pero la verbal del hemisferio izquierdo permanece inconsciente. Entonces, usando su mano izquierda, el niño poco a poco selecciona tres fichas de Scrabble de la variedad frente a él. Él les alinea para deletrear Liz: el nombre, podemos asumir con seguridad, de la linda chica de su clase. "Eso nos dijo que él era capaz de la comprensión del lenguaje en el hemisferio derecho", Gazzaniga me dijo más tarde. "Él fue uno de los primeros casos, la confirmación de que usted podría conseguir el lenguaje bilateral -para responder a las consultas que utilizan el lenguaje de uno y otro lado-".

Las implicaciones de estas observaciones iniciales fueron "enormes", dice Miller. Demostraron que "el hemisferio derecho está experimentando su propio aspecto del mundo que ya no puede expresar, excepto a través de gestos y de control de la mano izquierda". Unos años más tarde, los investigadores encontraron que Vicki también tenía una capacidad del hemisferio derecho para el habla. Pese a recibir una callosotomía completa, como resultado de una desconexión universal, los individuos también se ven afectados de modo muy distinto.

En 1981, Sperry fue galardonado con el Premio Nobel de Fisiología o Medicina por los descubrimientos sobre cerebro dividido. ("Se lo merecía", agrego Gazzaniga.) Sperry murió en 1994, pero en ese momento, Gazzaniga se hizo cargo de la investigación. A la vuelta de siglo, él y otros investigadores de cerebro dividido han vuelto su atención a otro misterio: a pesar de los dramáticos efectos en el cuerpo calloso, WJ y los pacientes no reportaron sentirse más tarde nada menos la unidad. Como Gazzaniga escribió muchas veces: los hemisferios no se pierden uno al otro.

Gazzaniga desarrolló lo que él llama la teoría de la intérprete para explicar por qué la gente -incluidos los pacientes con el cerebro dividido- tiene un sentido unificado de la vida propia y mental. Tal teoría se desarrolló a partir de las tareas en las que pedía a una persona con el cerebro dividido de explicar con palabras, como utilizaba el hemisferio izquierdo, una acción que había sido dirigida y realizada sólo por el derecho. "El hemisferio izquierdo formado por una respuesta post hoc que se adapta a la situación." En uno de los ejemplos favoritos de Gazzaniga, en el que brilla la palabra "sonrisa" al hemisferio derecho del paciente y la palabra "cara" en el hemisferio izquierdo y se le pide al paciente dibujar lo que había visto. "Su mano derecha dibujó una cara sonriente", recordó Gazzaniga. "'¿Por qué hiciste eso?' Le pregunté. Él dijo, ¿Qué quieres, una cara triste? ¿Quién quiere una cara triste por aquí? '". El lóbulo izquierdo es intérprete, agrega Gazzaniga, es lo que todo el mundo utiliza para buscar explicaciones para los acontecimientos, sirve como una barrera para la información recibida y la construcción de narrativas que ayudan a dar sentido a todo el mundo.

Los estudios del cerebro dividido constituyen "un increíble cuerpo de trabajo", dijo Robert Breeze, un neurocirujano del Hospital de  la Universidad de Colorado en Aurora, después de escuchar la conferencia de Gazzaniga el año pasado. Sin embargo, Breeze, al igual que muchos otros neurocientíficos, ve la investigación con el cerebro dividido como anticuado "Ahora tenemos tecnologías que nos permiten ver estas cosas" -herramientas tales como la resonancia magnética funcional (fMRI) que muestran la función cerebral con gran detalle.

Miller, sin embargo, no está de acuerdo. "Este tipo de pacientes nos pueden decir las cosas que la fMRI no nos pueden decir", añade.

Tema de interés

Sentado en un pequeño óvalo de la mesa del comedor, Vicki se enfrenta a una computadora portátil apoyada en un soporte y a una consola con un botón rojo grande y unos pocos botones verdes. David Turk, un psicólogo de la Universidad de Aberdeen, Reino Unido, ha estado con ella una semana para ejecutar una serie de experimentos.

El pelo gris-blanco de Vicki esta recogido en una coleta. Lleva zapatillas blancas y sencillas, a pesar del frío en otoño, lleva pantalones cortos. Ella no quiere que se caliente demasiado: cuando esto sucede le puede dar sueño y perder la atención, lo que puede arruinar un día entero de la investigación.

Durante un receso, Vicki obtiene un viejo álbum de fotos. En una fotografía, tomada poco después de su cirugía, ella está sentada en la cama del hospital. Su cabello negro comienza a crecer de nuevo como la paja, ella y su hija tienen amplias sonrisas. Otra página del álbum tiene una impresión un poco descolorida de un documento de 1981 de The Journal of Neuroscience: el informe publicado con la primera participación en el que los investigadores describen cómo ella, como PS, tenía una cierta capacidad para el lenguaje en su hemisferio derecho.

Cuando se ofrece a compartir el aspecto más difícil de su vida en la ciencia, Vicki perpetuamente optimista dice que tendría que ser un aparato llamado el rastreador doble de Purkinje. Este dispositivo de aspecto medieval requiere que el usuario lo muerda para ayudar a mantener la cabeza quieta, mientras los investigadores pueden presentar una imagen que sólo puede observar el campo de la izquierda o la derecha. Es muy posible que Vicki ha pasado más de sus horas de vigilia con uno de esos aparatos que nadie en el planeta.

Al poco tiempo, es hora de volver al trabajo. Turk utiliza un poco de cinta doble cara para fijar un par de gafas de tres dimensiones en la parte frontal de los finos lentes de Vicki, con montura de oro bifocales. El experimento que se está ejecutando tiene como objetivo separar el papel del cuerpo calloso en el procesamiento visual de las más profundos conexiones afectadas por el calloso. Centrándose en el centro de la pantalla, Vicki se le dice vea como poco a poco la imagen cambia entre una casa y diferentes caras - y pulse el botón cada vez que vea el cambio de imagen. Ajusta su asiento, mira hacia abajo del puente de la nariz en la pantalla y le dice a Turk que ella está lista para comenzar.

Conexiones profundas

Otros investigadores están estudiando el papel de la comunicación subcortical en los movimientos coordinados de las manos. Pacientes con cerebro dividido tienen pocas dificultades con las tareas  bimanuales, y Vicki, y al menos otros paciente son capaces de conducir un coche. En el año 2000, un equipo dirigido por Liz Franz en la Universidad de Otago en Nueva Zelanda pidió a los pacientes con cerebro dividido llevar a cabo tareas bimanuales, tanto conocidas como nuevas. Un paciente que era un pescador experimentado, encontraron, que era sencillo atar un hilo de pescar, pero no una tarea poco familiar como enhebrar una aguja. Franz llegó a la conclusión de que habilidades bimanuales bien practicadas se coordinan a nivel subcortical, por lo que personas con cerebro dividido son capaces de hacer actividades sin problemas con ambas manos.

Miller y Gazzaniga también han comenzado a estudiar el papel del hemisferio derecho en el razonamiento moral. Es la función de más alto nivel que se supone el hemisferio izquierdo la realiza. Pero en los últimos años, los estudios de imagen han demostrado que el hemisferio derecho está muy involucrado en el procesamiento de las demás emociones, intenciones y creencias -lo que muchos científicos han llegado a entender como la "teoría de la mente"-. Para Miller, el campo de la investigación ilustra perfectamente el valor de los estudios de cerebro dividido, porque las respuestas no se puede encontrar por medio de herramientas de imagen sola.

En un trabajo que comenzó en 2009, los investigadores presentaron a dos pacientes con cerebro dividido una serie de historias, en la que cada intervenía un daño accidental o intencional. El objetivo era averiguar si los pacientes percibían si alguien tenía la intención de envenenar a su jefe, pero falla porque confunde el azúcar con veneno para ratas, con el fundamento moral de igualdad con alguien que mata accidentalmente a su jefe usando veneno de ratas que confunde con azúcar. (Para la mayoría tiene como conclusión de que el primero es moralmente reprobable). Los investigadores leen las historias en voz alta, lo que significa que la entrada se dirige al hemisferio izquierdo y pide respuestas verbales, por lo que el hemisferio izquierdo, es guiado como mecanismo de intérprete, para crear y entregar una respuesta. De esta forma ¿los pacientes con el cerebro dividido emitieron un juicio moral convencional usando sólo ese lado del cerebro?

No. Los pacientes razonaron que ambos casos fueron moralmente iguales. Los resultados sugieren que ambos lados de la corteza son necesarias para este tipo de tareas de razonamiento.

Sin embargo, este hallazgo plantea un enigma adicional, porque los familiares y amigos de pacientes con cerebro dividido, no se dan cuenta de un razonamiento presenta un inusual déficit de teoría de la mente. El equipo de Miller especula que, en la vida cotidiana, otros mecanismos de razonamiento puede compensar los efectos de la desconexión que se exponen en el laboratorio. Es una idea que planea poner a prueba en el futuro.

Como las oportunidades para la investigación la división del cerebro disminuyen, Gazzaniga está ocupado tratando de digitalizar el archivo de grabaciones de los ensayos con miembros del grupo, algunos de los cuales datan de más de 50 años. "Con esto cada escena es tan fácil de recordar para mí" dice. "Estábamos observando las cosas asombrosas y otros deben tener la misma oportunidad a través de estos vídeos." Tal vez, dice, otros investigadores, incluso van a descubrir algo nuevo.

Otros pacientes con cerebro dividido pueden estar disponibles - hay un pequeño grupo en Italia, por ejemplo. Pero con la competencia de investigación de imágenes y muchos de los más grandes descubrimientos sobre el cerebro dividido detrás, Gazzaniga admite que los días de gloria de este campo de la ciencia probablemente se han ido. "Se está llegando a los pacientes en términos de frecuencia probadas" No obstante, añade: "Se me hace difícil decir que todo ha terminado."

Y puede que no sea - siempre y cuando no son los científicos que empujan para hacer frente a nuevas preguntas sobre la función del cerebro lateralizado, la conectividad y la comunicación, y mientras Vicki y sus compañeros miembros de grupo todavía existen y los participantes siguen dispuestos en la ciencia. Su participación en los últimos años, Vicki dice, nunca fue realmente de ella. "Siempre se trataba de obtener información de mi parte que podría ayudar a los demás."

Referencia:

martes, 13 de marzo de 2012

Una porción del experimentoo utilizado para atrapar y manipular el estado de de átomos de antihidrógeno. Créditos Ars Technica.
¿Cuán diferentes son la materia y la antimateria? Esta es una pregunta que llega al corazón de la física moderna de partículas y la cosmología de principios del universo. Los objetos de la experiencia cotidiana están hechos de materia ordinaria. Mientras que algunos procesos naturales producen cantidades limitadas de antimateria, todas las estrellas y la galaxia conocida parecen estar basadas en materia.

Si materia y antimateria son espejos físicos uno del otro, en consecuencia, un átomo de antihidrógeno se comportará de la misma manera que un átomo de hidrógeno normal. Sin embargo, si existe una asimetría entre materia y antimateria, entonces las fuerzas de la naturaleza pueden actuar de manera diferente en la materia y la antimateria.

Un experimento reciente por C. Amole y su equipo ha utilizado átomos de antihidrógeno atrapados para medir una transición cuántica de antihidrógeno. La inversión del spín implica la colocación de antihidrógeno en una cavidad resonante de microondas para manipular las orientaciones relativas de los giros de antiprotones y positrones. Si bien el experimento carece de la precisión necesaria para distinguir las diferencias entre materia y antimateria, pone de relieve cómo proceder en caso de que se tenga que realizar una medición con éxito en un futuro.

Si hay diferencias entre materia y antimateria, podrían hacer sentir su presencia a través de diferencias en el comportamiento de antihidrógeno, que consiste en un positrón (la versión de antimateria de un electrón) y un antiprotón. Sin embargo, para medir esto, tenemos que atrapar suficientes átomos de antimateria para su estudio, que se ha demostrado es difícil. Sin embargo, el CERN está logrando mantener átomos de antihidrógeno el suficiente tiempo para hacer algunas mediciones detalladas sobre las mismos.

Entonces, ¿qué se tiene que medir para ayudarnos a determinar si los átomos y las antiátomos se comportan de manera diferente? Los protones y los electrones interactúan a través de las fuerzas eléctricas que mantienen unidos a los átomos. Pero también interactúan magnéticamente a través de la orientación relativa de sus giros. En el hidrógeno, la alteración de uno o ambos sentidos de giro cambia la energía en el interior del átomo ligeramente, produciendo un fotón con una longitud de onda de 21 centímetros (en la porción de microondas del espectro). La transición se conoce como la inversión del espín, y el pequeño cambio relativo en energía se conoce como la estructura hiperfina del átomo de hidrógeno.

La energía precisa de la inversión del espín puede medirse mediante la colocación de hidrógeno neutro en una cavidad y usando bombardeo de microondas. La frecuencia resonante corresponde a la energía precisa en la inversión del spin.

Debido a la relativa simplicidad de las interacciones implicadas, la estructura hiperfina de hidrógeno es uno de los números más precisamente determinados de toda la ciencia. Por lo tanto, tiene mucho sentido comprobar si los inversión de spin en el antihidrógeno se produce en la misma energía que en el hidrógeno. Desde el punto de vista teórico, si la inversión del espín se produce incluso con una energía ligeramente diferente para antihidrógeno con respecto al hidrógeno, lo que significa una asimetría fundamental en la naturaleza.

El primer obstáculo se está solucionando, el cual consiste en atrapar los suficientes átomos de antihidrógeno para llevar a cabo una medición absoluta. Utilizando el aparato desacelerador de antiprotones del CERN, los investigadores sacrifican antiprotones a baja velocidad (con una temperatura equivalente de 0,5 grados sobre el cero absoluto) y los mezcla con los positrones en frío. Cada ensayo combinado de aproximadamente 2 millones de positrones, con aproximadamente 20,000 antiprotones, ha permitido obtener 6,000 átomos de antihidrógeno. El uso de campos magnéticos para confinar los antiátomos (una técnica estándar que se utiliza en muchos experimentos), ha permitido a Amole y su equipo lograr atrapar un promedio de un átomo de antihidrógeno en cada serie.

Con cantidades tan pequeñas de antiátomos que trabajar, el experimento divide el problema en dos partes: la determinación de si el antihidrógeno tiene una frecuencia de resonancia que corresponde aproximadamente a la estructura hiperfina y medir si esa transición se produce en el mismo lugar para el hidrógeno. Debido al pequeño número de átomos atrapados, los investigadores fueron incapaces de realizar la segunda medición, pero identificaron 23 antiátomos (de los 110 intentos) que sobrevivieron en una frecuencia fuera de la resonancia y 2 (de un total de 103) que sobrevivieron a la frecuencia de resonancia. (Los investigadores también midieron la aniquilación de los antiátomos que se escaparon cuando se incidieron en una vaina que rodea de silicio).

Como reconocen los autores, este es un experimento de prueba de principio: se muestra como más adelante se pueden hacer exámenes para medir la estructura hiperfina real del antihidrógeno. Al aumentar el número de antiátomos atrapados en la cavidad y la reducción de la gama de frecuencias para determinar la frecuencia de resonancia, posteriores experimentos debe ser capaz de determinar si la simetría CPT es violada o no.

El Modelo Estándar de las partículas e interacciones no distingue entre materia y antimateria en cuanto a las fuerzas fundamentales se trate; las energías de las interacciones no se han modificado al intercambio de una partícula con su socia partícula de antimateria. Esta simetría particular se conoce como la CPT, para la carga, la paridad (intercambio de direcciones, como en un espejo), y el tiempo de la inversión. Si antihidrógeno tiene un espectro diferente de la estructura hiperfina de hidrógeno, entonces se viola la simetría CPT para el electromagnetismo, en desacuerdo con las predicciones distintas del Modelo Estándar.

Referencia:

sábado, 10 de marzo de 2012

La crisis nuclear de Japón: un legado de miedo en Fukushima

Yoichi Tao está ocupado paleando tierra en Iitate, una pequeña aldea a unos 40 kilómetros de las ruinas de la planta nuclear de Fukushima Daiichi. Créditos: AP.
Sin duda, es diferente a su trabajo diario. Tao tiene experiencia en física de altas energías y enseña a los estudiantes acerca de los sistemas de seguridad en información en la Universidad Kogakuin de Tokio. Pero en esta soleada mañana de febrero, él y una docena de voluntarios se han unido a los agricultores locales en la eliminación de los primeros centímetros de suelo radiactivo de los campos de arroz. "Cuando el suelo se congela, se puede quitar fácilmente, como un tablero", añade Tao. En una esquina del campo, donde se descargan el suelo hay un agujero alineado con hojas absorbentes. "Cuando llega la primavera, el hielo se derrite, pero el cesio [radioactivo] será absorbido, por lo que se puede proteger el escape", explica.
Los voluntarios, la mayoría son investigadores, de manera informal se llaman a sí mismos Saisei-no Kai Fukushima (que podría traducirse como la asociación de revitalización deFukushima) y están armados con detectores de radiación montados en el automóvil y contadores Geiger que integran el Sistema de Posicionamiento Global. Sólo en una de las sociedades tecnológicamente más avanzadas del mundo puede un grupo ad hoc con los medios para hacer frente a la descontaminación radiactiva.

Pero hay un motivo oculto en los esfuerzos de Tao: él está allí porque él y muchos otros han perdido fe en su gobierno. "Desde el 11 de marzo, las personas no han confiado en los científicos que reciben fondos del gobierno", agrega Tao. "Ellos confían en las personas que actúan sin la financiación del gobierno y que trabajan con ellos".

Un año después de la crisis nuclear de Japón comenzó, los investigadores consultados por Nature dice que basados en la evidencia y comprensión del accidente, los riesgos de los reactores siguen planteando dudas. Los hallazgos podrían informar las decisiones sobre la salud pública, la recuperación de limpieza ambiental y económica. Pero los observadores externos e incluso algunos críticos en Japón, están cada vez más preocupados de que la pérdida de la confianza pública, conjuntamente con la desesperación de los políticos para recuperar espacios, podría socavar la toma racional de decisiones sobre la limpieza y el reasentamiento. Están en juego el futuro de más de 100,000 residentes que han sido desplazados de la zona alrededor de la planta y miles de millones de dólares en actividad económica en toda la región.

Deshielo

La crisis comenzó el 11 de marzo de 2011, cuando un terremoto de magnitud 9,0 en el Pacífico envió un enorme muro de agua la costa japonesa. Los tres reactores operativos en Fukushima Daiichi se apagaron automáticamente en los momentos después del terremoto, pero 41 minutos después el tsunami irrumpió a través de las defensas de la planta e inundó los edificios de los reactores. El agua inundó los generadores de urgencia, dejando la planta sin energía eléctrica por los sistemas de refrigeración, mientras que la desintegración radiactiva continuó calentando los núcleos. En la sala de control, los trabajadores lucharon para ejecutar instrumentos cruciales, con antorchas y baterías de automóviles rescatados de los vehículos cercanos. En los días siguientes, la última línea de los sistemas de emergencia fallaron y los tres reactores se fundieron. El proceso liberó el gas hidrógeno, lo que finalmente provocó explosiones en los edificios de los reactores. Volátiles químicos radiactivos, en particular el yodo-131 y cesio-137, comenzaron a dispersarse en el aire y el mar.

Cuando la unidad 4 de la central nuclear de Chernobyl explotó en 1986, el gobierno soviético impuso una censura estricta de información. La situación difícilmente podría haber sido más diferente de Fukushima: en las primeras 24 horas, el gobierno comenzó a reportar las lecturas de radiación. En los próximos días y semanas, la avalancha de información se hincharon con los datos de los investigadores universitarios, observadores militares, organizaciones internacionales, representantes del gobierno de los EE.UU. y los ciudadanos interesados, como Tao.

"Ya casi era demasiado", considera Malcolm Crick, secretario del Comité Científico de las Naciones Unidas sobre los Efectos de las Radiaciones Atómicas (UNSCEAR) en Viena. A petición de la ONU, el comité ha pasado los últimos seis meses tratando de analizar de donde provenían los datos y cómo se calibraron. El Comité emitirá sus conclusiones preliminares en mayo y Crick dice que debe ser capaz de decir acerca de la cantidad de radiactividad liberada, hacia donde se desplazo y cuanta fue recibida por los trabajadores y el público en general.

Niveles de dosis

Es evidente que la evacuación rápida y cuidadosa protegió a los ciudadanos de Fukushima del daño, explica Wolfgang Weiss, un físico de la Oficina Federal de Alemania para la Protección contra la Radiación en Munich y presidente del Comité Científico. Los primeros análisis informales por parte de sus colegas sugieren que ninguno de los miembros del público recibieron una dosis peligrosa de radiación.

Esta conclusión se apoya en un barrido de la salud pública el estudio se inició el verano pasado en la Universidad Médica de Fukushima. Con una inversión de 78,2 mil millones de dólares (EE.UU. aportó $ 958 millones de dólares del presupuesto), la encuesta está diseñada para monitorear la salud de unos 2 millones de personas de la región durante 30 años. Según las últimas estimaciones, publicadas el 20 de enero, el 99,3% de 9,747 personas que viven en ciudades o pueblos cercanos a la planta recibió menos de 10 milisievert (mSv) en dosis efectivas acumuladas en los cuatro primeros meses después del accidente. La dosis más alta registrada fue de 23 mSv, muy por debajo de los niveles de exposición aguda de 100 mSv vinculados a un ligero aumento en el riesgo de cáncer.

Sin embargo, la sospecha está obstaculizando la ambiciosa encuesta de salud, que aspira a concretar el impacto a largo plazo de Fukushima en los ciudadanos ordinarios. A pesar de los esfuerzos para promover el estudio entre los evacuados, la participación se sitúa en sólo el 21%. "La mayoría de las personas que he conocido aquí se niegan a llenar los cuestionarios. Ellos no encuentran credibilidad en lo que hace el gobierno, y dicen, 'esto es sólo una encuesta de conejillos de indias' ", añade Shizuko Otake de la organización sin ánimo de lucro Shalom, que apoya a los refugiados en la vecina Minamisoma e Iitate.




Las raíces de la desconfianza se remonta a los días de confusión inmediatamente después de las explosiones, cuando las autoridades hicieron una serie de declaraciones contradictorias, acerca de la emisión de lecturas de radiación que con frecuencia resultaron ser incorrectas. Como radioisótopos se extendieron desde la planta, el gobierno se vio obligado varias veces a aumentar los límites de seguridad recomendados para la exposición a la radiación por parte de ciudadanos y trabajadores, de lo contrario, hubiera sido legal obligarlos a evacuar el sitio inmediatamente. Como resultado, algunos japoneses creen que el gobierno es corrupto, mientras que otros piensan que es incompetente. El sentimiento que prevalece es que "lo que el gobierno dice siempre cambia", considera Otake.

Abel González, un experto en protección radiológica del Organismo de Reglamentación Nuclear de Argentina en Buenos Aires, dice que el gobierno se vio obligado a elevar los límites de seguridad, ya que se vio sujeto a una norma internacional que no tenía ninguna provisión para situaciones de accidente o para trabajadores de emergencia que podían recibir una mayor dosis. Sin directrices claras, el gobierno japonés sólo tuvo que aumentar los límites de seguridad que permitían a las personas a seguir trabajando para que la planta nuclear siguiera bajo control. La desventaja es que "cuando se relaja el régimen en medio de un accidente, se pierde la credibilidad de inmediato".

En un esfuerzo por recuperar la confianza de sus ciudadanos, el gobierno está planeando una de las más extensas y costosas operaciones de limpieza -un esfuerzo que algunos expertos ven como poco realista. El otoño pasado, anunció planes para llevar las dosis de radiación desde el accidente hasta por debajo de 1 mSv por año en la medida de que fuera posible en la zona de evacuación. Pero el objetivo se basa en una norma internacional para las dosis recibidas durante el funcionamiento normal de una central nuclear, no después de un accidente.

También es visto por los veteranos de los accidentes nucleares como muy ambicioso, sobre todo dado el terreno montañoso y boscoso en gran medida alrededor de Fukushima. "La mejor cosa que hacer, de acuerdo a Chernobyl, es limpiar un metro debajo del suelo", opina Weiss. "Pero si haces eso, te mataría todo el ecosistema."

Las autoridades japonesas reconocen el problema y ​​han comenzado a probar una variedad de métodos de limpieza en Fukushima. El proyecto piloto más destacado comenzó en noviembre pasado en el marco del Organismo Internacional de Energía Atómica de Japón (JAEA), con un presupuesto estimado de 10,900,000,000 ¥. La JAEA contrató a las empresas dirigidas por tres grandes empresas constructoras -Taisei, Obayashi y Kajima- que están probando varias tecnologías para limpiar los materiales radiactivos en 11 ciudades, pueblos y aldeas en las cuales los ciudadanos en su mayoría permanecen evacuadas.

"Estoy impresionado de cómo las empresas han llegado con nuevas ideas para eliminar el cesio empleando tecnologías existentes", describe Shinichi Nakayama, subdirector de Fukushima por el Centro de Seguridad Ambiental de JAEA. Por ejemplo, para fregar el cesio de las carreteras se emplea un chorro de agua a alta presión que se pensaba era insuficiente, ya que el agua contaminada sólo se extendía por todo el pavimento. Sin embargo, los ingenieros han modificado el sistema para recuperar el agua contaminada, mediante purificación y reciclaje.

Muchas comunidades están tomando el asunto en sus propias manos. Con la ayuda de investigadores independientes, como Tao, están eliminando suelos contaminados y realizando otras operaciones de limpieza. Pero sin un lugar de disposición central, considera Weiss, estas operaciones de limpieza crean un problema con los diferentes residuos. "No no se les permite el transporte de residuos, por lo que ponen todo en los agujeros de su propiedad".

Ambiciosas metas del gobierno para la descontaminación puede causar daño a los evacuados por incitar miedos innecesarios, describe Oleg Nasvit, un radioecologista en el Instituto Nacional de Estudios Estratégicos en Kiev, Ucrania, que ha estudiado el impacto del accidente nuclear de Chernobyl. En 1986, las autoridades soviéticas exigieron una "evacuación obligatoria" de los residentes que viven en regiones donde la exposición a la radiación adicional del accidente fue de más de 5 mSv por año. Los evacuados pasaron dificultades para hacer frente a su desplazamiento, y muchos fueron estigmatizados debido a que había llegado de una región contaminada. "Francamente, esto llevó a un daño a la gente más que un bien".

Dosis bajas de radiación, ya han perjudicando a la economía alrededor de Fukushima. A finales de este año, el Ministerio de Salud tenía la intención de bajar el nivel de seguridad para el cesio en las verduras, cereales y otros alimentos a partir de 500 becquerel por kilogramo (Bqkg -1) a 100 Bqkg por kilogramo. Tomoko Nakanishi, un investigador especializado en radiofisiología de la planta de la Universidad de Tokio, dice que los alimentos con radiactividad inferior a 500 Bqkg -1 no son perjudiciales para la salud humana y que las zonas que no están muy afectadas por radioisótopos de Fukushima pueden exceder los límites propuestos, sin riesgo debido a una lluvia radiactiva. Algunos hongos de la prefectura de Chiba, a más de 200 kilómetros al sur de Fukushima, con mediciones superiores a 100 Bqkg -1, por ejemplo, pero con cantidades relativas de isótopos radiactivos son característicos de la contaminación residual de las pruebas de armas nucleares en los años 1950 y 1960 o el accidente de Chernóbil, pero no provenientes de Fukushima.

La prefectura de Fukushima es uno de los mayores productores de arroz en Japón, pero el año pasado el Ministerio de Agricultura considera la prohibición absoluta de cultivos donde se excedieran más de 100 Bqkg -1 de cesio. Nakanishi y sus colegas en la Universidad de Tokio estaban preocupados de que las medidas de seguridad excesivamente estrictas podrían obstaculizar no sólo la recuperación de la agricultura de la región, sino también la recolección de datos científicos. "El cultivo continuo es muy importante para predecir lo que sucederá en el futuro. No sabemos si los campos que producen arroz tendrán también un alto nivel de cesio también este año", considera ella. Respaldado por la fuerte demanda de los agricultores, el Ministerio ha decidido recientemente permitir el cultivo en la mayoría de las áreas de Fukushima, siempre y cuando en las ciudades, pueblos y ciudades se impida la distribución de arroz que contenga más de 100 Bqkg -1 de cesio. Pero el ministerio sólo permitirá el cultivo experimental en las zonas que producían arroz que contenían más de 500 Bqkg -1 el año pasado.

En abril, el Ministerio de Medio Ambiente comenzará a a gran escala en la nación el programa de descontaminación, la parte central de una hoja de ruta que tiene un presupuesto de 990 mil millones de dólares. El Ministerio dice que quiere que la ciencia apoye su programa. "Nos gustaría hacer planes detallados basados ​​en la retroalimentación de los proyectos pilotos dirigidas por el gobierno, así como de otros datos científicos", afirma Kuniaki Makiya, un funcionario encargado de la hoja de ruta de descontaminación. El Ministerio ya ha decidido dar prioridad a las áreas de nivel medio de contaminación por encima de aquellos con niveles muy altos o muy bajos, una medida que Nasvit dice hace que el plan sea más creíble porque las áreas que más se benefician de la descontaminación se tratarán en primer lugar.

En la actualidad, no existe un plan claro para permitir que los residentes desplazados regresen a su casa. Aunque el objetivo del gobierno es asegurar que las personas no deben recibir una dosis superior a 1 mSv por año si regresan, no es una regla firme. De hecho, los lugareños ya puede ir a sus casa en a las aldeas fuera de la zona restringida de 20 kilómetros alrededor de la planta, si lo desean, pero muchos de los servicios públicos, como escuelas, no han vuelto a abrir todavía. Nasvit cree que los ciudadanos deberían moverse hacia atrás, incluso a las zonas donde podrían recibir hasta 20 mSv por año. González está de acuerdo, señalando que en algunas partes del mundo, los niveles naturales de radiación anuales están en el rango de 10-100 mSv.

Pero Tatsuhiko Kodama, director del Centro de Radioisótopos de la Universidad de Tokio, cree que el margen de seguridad no es tan clara. "Hay varias interpretaciones sobre qué hacer en el área de 1.20 mSv por año", dice. Él está de acuerdo, sin embargo, que en última instancia, el público debe elegir el curso de acción. "Lo más importante es respetar lo que piensan los residentes. Tenemos que proceder con los planes sobre la base de sus decisiones".

Fred Mettler, radiólogo en el panel de UNSCEAR, está de acuerdo. En lugar de establecer una serie estricta y de límite, añade, el debate debería ser más abierto. "Le decimos al pueblo lo que hay, le decimos cuáles son las consecuencias y deciden si acepta el riesgo".

Polvo radioactivo

Los riesgos persisten en los reactores y el medio ambiente.

Los reactores

Inmediatamente después del accidente, los operadores podían hacer poco más que limpiar los reactores recalentados con agua de mar utilizando un camión de bomberos como una bomba improvisada. Hoy en día, la situación en la planta ha mejorado dramáticamente. El agua corrosiva ha sido reemplazada con agua fresca que pasa a través de un sistema de filtración para eliminar cesio radiactivo antes de ser reciclado en los núcleos.

El sistema parece estar funcionando razonablemente bien. El año pasado, las temperaturas en los tres reactores cayo por debajo de los 100°C, lo que llevo a los funcionarios a anunciar que las plantas habían logrado una "parada fría". Pero los peligros permanecen. La planta sigue perdiendo agua y un análisis realizado por investigadores japoneses advierte que la actividad sísmica reciente podría indicar un terremoto inminente que pudiera poner en peligro la planta.

Mientras tanto, Japón ha desarrollado un 'test de estrés' para evaluar la seguridad de sus otras centrales nucleares. Pero por ahora, sólo dos de los 54 reactores del país están trabajando.

El entorno

Fukushima ha detenido la liberación de radioisótopos en el aire y la radiactividad en el mar parece haberse dispersado con poco efecto. Sin embargo, algunos organismos pueden seguir acumulando los materiales nucleares de la planta.

Los investigadores de Silvicultura y Productos Forestales del Instituto de Investigación de Tsukuba han encontrado que las lombrices de tierra contienen cerca de 20,000 bequerelios por kilogramo de cesio radiactivo en Kawauchi, a 26 kilómetros de la planta. Y las poblaciones locales de aves parecen haber disminuido en un tercio, según Tim Mousseau, radioecologista de la Universidad de Carolina del Sur en Columbia. En el océano, dice Ken Buesseler, un químico marino en el Instituto Oceanográfico Woods Hole en Massachusetts, el plutonio y el estroncio radiactivo parecen estar encontrando su camino en los peces y el fondo de los alimentadores que viven cerca del reactor.

Referencia:

martes, 6 de marzo de 2012

El brillo de la Tierra como ayuda en la búsqueda de vida en otros mundos

La luna sobre el Observatorio Europea Austral en Chile. Créditos: ESO/B.
Los científicos que estudiaron el brillo de la Tierra reflejada en la luna han concluido que, efectivamente, hay vida en nuestro planeta. Aunque el resultado es más que obvio, los hallazgos pueden ayudar en la búsqueda de vida en otros mundos.

Esta no es la primera vez que los investigadores han tratado de ver lo que la Tierra produce cuando se ve de forma remota. Por ejemplo, la nave espacial Voyager 1 obtuvo la famosa imagen de punto azul pálido que muestra a la Tierra a casi 4 mil millones de kilómetros, dando una idea aproximada a los telescopios que buscan vida extraterrestres de como podría lucir un planeta con vida.

El reciente estudio trató de obtener una perspectiva externa un poco más cerca de casa. Para ello estudiaron los rayos del Sol que llegan a la superficie de la Tierra y se reflejan a través de la atmósfera. La mayor parte de esa luz se escapa en la oscuridad del espacio, pero parte de ella rebota en la luna.

"Básicamente, usamos la luna como un espejo gigante para mirar hacia la Tierra", explica el astrónomo Michael Sterzik del Observatorio Europeo Austral en Chile, quien es coautor del nuevo estudio en Nature.

Esta luz contiene una gran cantidad de información. Estudiar la luz de una estrella distante hasta lograr un espectro puede determinar qué elementos están presentes.

En un futuro, cuando los científicos puedan detectar directamente la luz de un planeta como la Tierra, podrán comprobar si su atmósfera contiene cosas como oxígeno, nitrógeno y metano. Si está presente, estos gases pueden representar biofirmas de vida distante.

Además de comprobar el color del brillo de la Tierra, Sterzik y su equipo analizó la polarización o la dirección de las ondas de luz que rebotan en la Luna. Ellos fueron capaces de determinar la luz polarizada en diferentes modelos, donde en la superficie de nuestro planeta figuraban porcentajes posibles de objetos como son océanos, continentes y la vegetación.

El modelo que mejor se adaptó a la luz polarizada contenía una combinación de estos elementos que se veían exactamente igual en la Tierra. Aunque puede parecer trivial a primera vista, el hallazgo tiene profundas implicaciones en la búsqueda de vida extraterrestre, explica el astrónomo Darren Williams en The Behrend College, que no participó en el estudio.

"Es una demostración de que tenemos la oportunidad de aprender como puede figurar la vida en un planeta distante", explica.

Aunque la información sobre los biomas de la Tierra es útil, la vida lejana podría ser muy exótica. ¿Tiene sentido suponer que la vida en otros mundos será muy parecida a la nuestra?

"La Tierra es el único ejemplo que tenemos de un planeta con vida", añade Sterzik. "Se pueden considerar las características generales. Pero no es absurdo suponer que la vida ha seguido los mismos principios de evolución en otros lugares".

Referencia:

lunes, 5 de marzo de 2012

Más pruebas de la anomalía de la antimateria

La violación CP explicaría porque el Universo existe tal cual. Créditos: Science.
El Big Bang creó una gran cantidad de la materia, junto con la misma cantidad de antimateria, de haber ocurrido lo anterior hubiera arrasado con todo y llevado al Universo a un final prematuro. Eso es lo que la física teórica considera cierto aunque no funciono de esa manera. Ahora, los resultados de un acelerador de partículas en EE.UU. están proporcionando nueva evidencia de una diferencia sutil en las propiedades de la materia y la antimateria que podría explicar cómo el Universo temprano sobrevivió.

La primera evidencia de una diferencia entre materia y antimateria se encuentran en la década de 1960 en el decaimiento de partículas llamadas kaones neutros, lo que condujo a la concesión de un Premio Nobel de Física. En 2001, los aceleradores en los Estados Unidos y Japón encontraron más evidencia de una diferencia en partículas llamadas mesones B. El año pasado en el Gran Colisionador de Hadrones del CERN (LHC) cerca de Ginebra, Suiza, encontró evidencia de un tercer sistema, mesones D, pero no había datos suficientes para poder descartar una casualidad estadística. Los resultados de la que los nuevos mesones vienen del Detector Colisionador de Fermilab (CDF) el experimento cerca de Chicago que todavía no tienen pruebas concluyentes, pero que aportan las posibilidades de un golpe de suerte en uno de cada 10,000. "Estoy seguro que en pocos días todo el mundo en el campo se sentirá mucho más seguro de que esto es realmente cierto", agrega Giovanni Punzi, portavoz del experimento CDF.

Los físicos han sospechado durante mucho tiempo que una diferencia en las propiedades de la materia y la antimateria es la clave para la supervivencia de los primeros en los inicios del Universo de. Esta diferencia -técnicamente se conoce como violación de la carga-paridad (CP)- la cual habría permitido que la materia normal prevalezca sobre la antimateria, produjo el hecho que la materia normal pasara a formar todas las cosas que vemos en el Universo actual.

Para testigos de la violación CP, las partículas se estudian para ver si hay alguna diferencia en la tasa de descomposición entre las partículas normales y sus antipartículas. La teoría aceptada de las partículas elementales, el modelo estándar, permite un bajo nivel de violación CP -incluyendo el revelado en los descubrimientos de los años 1960 y 2000-, pero no suficientes para explicar la prevalencia de la materia normal. Aún así, los investigadores han estado tratando de encontrar casos en los que la violación de CP es mayor.

El detector LHCb del CERN, y CDF en el Fermilab, son dos experimentos de este tipo. Ellos rastrean los rutas de las partículas mesones D0 y sus antipartículas. Estos pueden decaer en pares de cualquiera de los piones o kaones y por medio del conteo de estos productos de descomposición, los equipos de LHCb y el MID pueden calcular la diferencia en las tasas de descomposición entre las partículas y antipartículas D0.

En noviembre, el equipo LHCb informó que las tasas de decaimiento diferían en un 0,8% -unas ocho veces la cantidad que el modelo estándar espera en general que lo permitan- y tal vez lo suficiente para ayudar a explicar el origen de la prevalencia de la materia sobre la antimateria. Desafortunadamente, la medida no fue muy precisa: La significación estadística fue de alrededor de 3 sigma, lo que significa que hay una posibilidad entre 100 de que se trata de un error aleatorio en los datos.

Los últimos resultados de la FCD -anunciados en estos días en una reunión en La Thuile, Italia-, disminuyeron drásticamente las probabilidades de un golpe de suerte. Apuntan a la violación de CP en el nivel de 0,6%, con una significación estadística de 2,7 sigma. En combinación con los últimos resultados del LHCb, los resultados de la FCD llevan el significado a alrededor de 3,8 sigma o una posibilidad entre 10,000 de que la violación de CP es un problema al azar.

Los resultados no pueden ser considerados como un descubrimiento de buena fe lo cual requiere una significación estadística de 5 sigma -o la posibilidad de que el resultado sea producto de lo aleatorio al menos de uno en un millón. Sin embargo, los físicos de partículas contentos. "Todavía no podemos decir con seguridad que es la violación de CP", dice Angelo Carbone, un miembro de la colaboración LHCb "Pero estamos cerca".

Paul Harrison, un físico de partículas experimental en la Universidad de Warwick en el Reino Unido, dice que el estándar de 5-sigma es importante porque ayuda a evitar los sesgos que surgen en las distribuciones estadísticas desequilibradas. Pero él piensa que los resultados tranquilizan al provenir de dos experimentos independientes. "No me espero un error en los experimentos en este momento", considera. "Estos chicos son gente seria....llevan en esto mucho tiempo y saben lo que están haciendo."

Para ver si la significación estadística puede ser mejorado a cinco sigma, los espectadores tendrán que esperar hasta finales de este año, cuando el equipo LHCb examine el resto de sus datos. Pero incluso si la violación de CP resulta ser real, la cuestión es si se trata de una "nueva física", en otras palabras, si el modelo estándar actual lo puede explicar.

EL teórico de partículas Sebastián Jaeger de la Universidad de Sussex en el Reino Unido cree que la respuesta es incierta, porque nadie está seguro de hasta qué punto el modelo estándar puede llegar. "El principal problema es que la [violación] CP es difícil de cuantificar, siendo bastante difícil, desde un punto de vista teórico, para hacer una predicción de que .... Así que incluso si el significado se convierte en 5 o 10 sigma, el modelo estándar todavía no puede ser descartado".

Referencia:

Related Posts Plugin for WordPress, Blogger...