sábado, 31 de diciembre de 2011

2011 en números y un ¡Feliz 2012!

Créditos: Cinismo ilustrado
2011 fue el año de la democracia en su forma más optimista, la primavera árabe puso de manifiesto que es posible cambiar lo establecido en busca del bien colectivo. El activismo representado en movimientos como los Indignados y Occupy no son menos importantes puesto que demuestran que la organización desinterasada puede y debe de lograr un mundo mejor para quienes lo habitamos.
En asuntos más mundanos durante este tiempo el blog recibió un total de 83,086 visitantes y se vieron 115,650 páginas. Se realizaron 163 comentarios que nutrieron e hicieron crecer el contenido, en 100 entradas siendo las más destacadas a lo largo de los meses:

Enero
Febrero

Marzo

Abril
Mayo
Junio

Julio
Agosto
Septiembre
Octubre
Noviembre
Diciembre

Los principales sitios de los cuáles provinieron las visitas (exceptuando motores de búsqueda, sitios colaborativos promotores de noticias, redes sociales y Wikipedia) fueron:

Por último y no menos importante, agradecer a cada una de las personas con las que he convivido a lo largo de este tiempo, las que permiten crecer, escuchar y ayudar a ser un mejor ser.

¡Un feliz 2012!, que durante esta Noche y todo las que restan puedan estar con las personas que aman. No claudiquemos.

lunes, 26 de diciembre de 2011

Mi historia sin mí

Mi Historia Sin Mí
(I'm Not There)
Director: Todd Haynes
Género: Biográfica/Drama
Duración: 135 min.
Año: 2007


Bob Dylan apareció en escena en la década de los 60 y desde ese momento se volvió influencia e icono del pasado y presente siglo. Un personaje que recurrió a la música para usarla como instrumento contra la guerra y mostrar a su juventud las preocupaciones sociales además de políticas que no sólo aquejaban sino que permanecen actuales a cuarenta años de su aparición.

Retratar su vida es sin duda una tarea titanica, Todd Haynes a su forma ha querido denotar la "música y las múltiples vidas de Bob Dylan" jugando con un guión arriesgado donde pasajes oníricos juegan con sucesos reales ¿Por qué de que otra forma se retrata a un poeta, profeta, proscrito, farsante, estrella de la electrónica, mártir del rock y cristiano reformado sin que sea abstracto pero también concreto?

De esta forma Haynes no sino crea un personaje empleando para ello seis distintos personajes encarnados en el mismo número de diversas situaciones. Cronológica al menos y a la vez surrealista se traduce en un abanico de imágenes para mostrar a Dylan como la persona que renunciaba a lo establecido incluso de si mismo.

Seis historias, reales, de ficción o surgidas de la imaginación para poder mostrar a uno de los grandes músicos que hemos tenido la oportunidad de conocer y con una personalidad para la cual se requiere más de una película para mostrarla fielmente.

viernes, 23 de diciembre de 2011

Avances científicos en el 2011

Con la culminación del año comienzan a aparecer listas para tratar de organizar y rescatar lo más significativo de este año. Science desde su perspectiva rescata a su vez los descubrimientos y avances más importantes del 2011 para la Ciencia.

Tratamiento para prevenir el VIH

Un estudio sobre el VIH, denominado HPTN 052, se considera este año el avance científico más importante.

Durante el ensayo clínico se llego a la conclusión de que personas seropositivas que fueron tratadas con antivirales (ARVs) reducían el riesgo de contagio en un 96% de acuerdo a una investigación que publica United National Institutes of Health.

El hallazgo sirve para confirmar los efectos positivos de los ARVs, por una parte para tratar a pacientes infectados y al mismo tiempo, reduce las tasas de infección. Consideran los científicos
que los antivirales pueden actuar tanto para tratar como para prevenir VIH.

Para lograr el estudio se tomo una muestra de 1,736 parejas heterosexuales en nueve países: Brasil, India, Tailandia, Estados Unidos, Botswana, Kenia, Malawi, Sudáfrica y Zimbabwe. En la cual uno de los dos tenía VIH. Durante el transcurso del estudio a la mitad de las personas se le administro antiretrovirales mientras la otra mitad desarrollaron niveles clínicos determinados, esto es, esperar que el nivel de glóbulos blancos estuvieran debajo de los 250 milímetros cúbicos antes de que se iniciara el tratamiento. Estar por debajo de los 200 señala SIDA.

Los resultados señalan que cuanto mayor sea el nivel de glóbulos blancos en la sangre, el tratamiento es más efectivo.

Por desgracia, los resultados están lejos de aplicarse a la población en general, puedo que "alrededor del 52% de personas no tienen acceso al tratamiento", lo que representa 7,6 millones de personas, de acuerdo a John Coen, redactor de la revista.

El estudio concluyen sirve para confirmar que al tener una eficacia cercana al 100% en la reducción de transmisión del VIH, se le puede considerar el Descubrimiento del Año.

2. Misión de la sonda Hayabusa

La Sonda japonesa que inició su misión en el 2003, partió con destino al asteroide Itokawa, a 390 millones de la Tierra, hasta alcanzarlo en el 2005. Una vez logrado tomo una muestra y volvió a casa. El polvo de asteroide es la primera muestra directa de un objeto en el Universo en 35 años.

Los análisis del polvo de asteroide han confirmado que los meteoritos más comunes hallados en la Tierra, los cóndrulos ordinarios,  provienen de estos asteroides.

3. Tras los orígenes humanos

El estudio del código genético tanto de antiguas muestras como de modernas, ha permitido encontrar en el genoma humano, vestigios de variaciones heredadas de grupos humanos como Denisova y otras muestras que no han sido catalogadas.

4. Proteína fotosintética

Científicos japoneses han obtenido la estructura del Fotosistema II (PSII), la proteína que utilizan las plantas para dividir el agua en Hidrógeno y Oxígeno. De esta forma, los científicos tienen acceso a una estructura esencial para la vida en la Tierra y una clave en la búsqueda de fuentes de energía limpia.

La estructura muestra el núcleo catalítico de la proteína y muestra la orientación que tienen los átomos dentro de esta.

5. Gas pristino en el espacio

Astronomos utilizando el telescopio Keck en Hawaii descubrieron dos nubes de gas Hidrógeno, las cuales han mantenida su química original luego de dos mil millones de años después del Big Bang.

Otros astronomos han descubierto una estrella que esta casi desprovista de metales, tal y como las estrellas primitivas cuando se formaron. Los descubrimientos indican que bolsas de materiahan persistido ilesas durante eones.


6. Conociendo el microbioma

Determinar los microbios que habitan en el intestino delgado ha demostrado que poseemos en el tubo digestivo: Bacteroides, Prevotella o Ruminococcus. La interacción y aumento de la población de un grupo de estas bacterias resulta en la predilección de dietas altas en proteínas o vegetarianas. Tales hallazgos han clarificado la interacción entre dietas y microbios.

7. Una vacuna contra la malaria

El desarrollo de un vacuna que pueda proteger a la mitad de los niños expuestos a la malaria, ha pasado a ser un hito en el desarrollo de pruebas clínicas en África. El ensayo, que se realizó en once centros de investigación de siete países de África subsahariana, ha mostrado que tres dosis de RTS,S han reducido el riesgo en un 56% de que los niños sufran malaria y un 47% malaria grave.

8. Sistemas solares extraños

Astronomos han observado sistemas planetarios dispersos descubriendo extraños fénomenos. Investigadores del observatorio Kepler han identificado un sistema solar con planetas que orbitán de forma tan distinta a los modelos convencionales.

También se descubrió un gigante de gas atrapado en una orbita retrograda, un planeta circulando un sistema estelar binario y 10 planetas que parece están flotando libremente en el espacio.

9. Zeolita de diseño

Tales minerales son usados como catalizadores, empleados para convertir aceite en gasolina o purificar el agua, filtrar aire y obtener detergentes de lavandería, por citar algunos ejemplos. En esta área los químicos han demostrado innovaciones al diseñar una gama de nuevas zeolitas más baratas, delgadas y mejor equipadas para procesar moléculas orgánicas más grandes.

10. Células senescentes

Un experimento reveló que al aislar estas células, o aquellas que ha dejado de dividirse, en los cuerpos de los ratones puede retrasar el comienzo de síntomas relacionados con la edad, como las cataratas o la debilidad muscular.

A los ratones cuyos cuerpos fueron limpiados de estas células no vivieron más tiempo que sus compañeros de jaula que no fueron tratados pero parece vivieron mejor. Futuros estudios considerarán si despojar células senescentes mejoraría nuestros años dorados.

Referencia:

martes, 20 de diciembre de 2011

Grupo de sismos mayores a 8 grados no indican una Tierra más activa

Créditos: Ars Technica.
En los últimos años hemos visto un número inusual de grandes terremotos épicos, varios en Sumatra, Chile, y Japón, alcanzando magnitudes de 8.0 grados, más o menos. Esto ha llevado a un número de personas a preguntarse si los grandes terremotos ahora son frecuentes y si lo hacen, si deberíamos comenzar a estar nerviosos acerca de cuándo sera el próximo movimiento. Un nuevo análisis de PNAS, sin embargo, sugiere que la elevada actividad no es nada inusual, aunque el largo tiempo transcurrido entre la actividad reciente y terremotos pasados ​​es estadísticamente improbable.

Los autores retomaron los registros históricos del Servicio Geológico de EE.UU., identificando cada terremoto con magnitud superior a 7.0 producido entre 1900 y 2011. Para eliminar las réplicas y la tensión causada por terremotos locales iniciales, los autores establecieron un límite: los terremotos más pequeños dentro de tres años y a una distancia de 1,000 km de un terremoto se consideraron réplicas y no fueron incluidos en el análisis. Esta es una definición bastante liberal de réplica, por ejemplo deja fuera dos terremotos del análisis, de más de 8.5 y cerca del sitio del primer terremoto de Sumatra. Pero es coherente con lo que sabemos acerca de cómo grandes terremotos pueden añadir tensión a las áreas a una distancia considerable de donde la falla realmente se rompió.

Los autores también justifican esta exclusión al señalar que en realidad importa si hay un incremento en los niveles globales de actividad, por lo que las agrupaciones locales de los temblores no deben alterar sus análisis. Además, señalan que algunas de las estadísticas son bastante insensibles a los criterios de selección, usted puede reducir la distancia en una tercera parte y aún así obtener resultados similares. Sin embargo, este es un corte bastante importante, ya que reduce en gran medida la frecuencia de los sismos recientes, de gran tamaño.

Una de las cosas que su análisis deja en claro es que el índice general de grandes terremotos, los mayores a magnitud 7.0 están en la media en estos momentos. Es mayor su frecuencia a sismos por encima de 8.0. Estamos experimentando un nivel récord de temblores mayores a 8.0, pero es sólo ligeramente por encima de los registros anteriores.

¿Es especialmente inusual el nivel de registro? Los autores al azar determinaron la sismicidad basados en registros 100,000 veces para tener una idea estadística de la agrupación típica del terremoto. Al seleccionar de magnitud 8.0 y superior, el 85 por ciento de estos grupos al azar contenía un terremoto similar al experimentado desde 2004. Cuando el tamaño del evento se elevó a 8.5, el 97 por ciento figuran en el grupo como el nuestro uno reciente. Una serie de pruebas adicionales indican que la distribución de lo que vemos es consistente con un proceso de Poisson, lo que indica que se están produciendo al azar.

La gran diferencia pone de relieve la importancia del corte que usted elija, en términos de magnitud. Para obtener un mayor sentido de esto, los autores tomaron su conjunto al azar y se realizó un análisis por etapas de la misma, a partir de una magnitud de 8,0 y la elevación del punto de corte de 0,1, en busca de grupos en cada corte. Tres cuartas partes de los conjuntos resultantes tenían un grupo que debe tener lugar sólo cinco por ciento del tiempo en un conjunto aleatorio simple. Casi un tercio había un grupo que debe tener lugar a menos de un uno por ciento del tiempo.

¿Hay algo inusual en el registro? Más o menos. No hubo eventos con magnitud mayor a 8.5 en 40 años, una brecha que se inició en 1965 después de un terremoto de Alaska. En la colección al azar, esto sólo se presentó en un 1.3 por ciento del conjuntos. Pero una vez más, los autores señalan que esto depende de establecer un corte muy específico. En cualquier caso, esa brecha inusualmente grande pudo haber hecho la reciente oleada de grandes terremotos más notables.

En general, los autores concluyen que a nivel global, los terremotos no se agrupan con el tiempo. Es posible que haya grupos locales que fueron eliminados por sus criterios de selección, pero tenemos mecanismos que pueden explicar por qué las agrupaciones locales deben ocurrir. Y pone de relieve otra cuestión que los autores tienen la idea de un grupo global: no sabemos de ningún mecanismo que podría crear uno.

El análisis estadístico es bastante convincente si acepta los criterios de selección. Pero eso depende de si la aceptación o no de la reciente serie de terremotos en Indonesia constituyen un evento independiente o no y no hay pruebas razonables de que están conectados. Y hay una cosa que el análisis de los autores concluye que no debería ser controversial: sólo tenemos un buen registro en el último siglo y que hace que sea muy difícil descartar nada definitivamente.

Referencia:

viernes, 16 de diciembre de 2011

¿Por qué los policías usan gas pimienta?

Créditos: Louise Macabitas.
Cuando el spray de pimienta se convirtió en una herramienta para la aplicación de la ley en la década de 1990, fue aclamado como una alternativa relativamente pacífica a la violencia física severa.

Sin embargo, como se demuestra durante los hechos ocurridos en la Universidad de California en contra de activistas de Occupy Wall Street, el spray de pimienta puede fácilmente convertirse en una herramienta en primera instancia excesivo.

"No puedo entrar en la cabeza de la gente que lo usa en Nueva York y en todo el país, pero parece que en lugar de recurrir a otras tácticas, a su vez es una herramienta sencilla", considero Geoffrey Alpert, profesor de criminología en la Universidad de Carolina del Sur. "Hay un exceso de confianza en la tecnología".

El incidente en la UC Davis, donde los oficiales de policía del campus rociaron Defense Technology 56895 MK-9 Stream (Tecnología de la Defensa 56895 MK-9) directamente a la cara y boca de los estudiantes que permanecían sentados, provocó tanto disgusto moral y una renovada atención a los peligros físicos del spray de pimienta. Lejos de lo que un "experto" en Fox News llamó un "producto alimenticio", la pimienta es una arma peligrosa y a veces mortal.

Recibió menos atención la psicología subyacente al usar gas pimienta, que no se ha estudiado mucho, pero es paralelo al uso de armas Taser. Como los aerosoles de pimienta, las Taser se supone que son herramientas de fuerza física intermedia, una alternativa a golpear a un sospechoso que se resiste. Sin embargo, las armas Taser también se convirtieron en alternativas a los menos violentos y se utilizan en situaciones en que los sospechosos no se habían resistido a la detención física.

En vez de hablar, la policía a menudo directamente recurre a la electricidad -y lo mismo puede suceder con el spray de pimienta-.

"Cuando uno tiene algo que esta fácilmente disponible, algo que está en tu cinturón como aerosol de pimienta y esta frente a una confrontación -lo primero que vamos a hacer, porque eres un ser humano-, es el uso de cualquier objeto", expreso Ana Yáñez-Correa, directora ejecutiva de la Coalición de Justicia Criminal de Texas, un grupo no partidista que ha cabildeado con éxito para que el spray de pimienta este menos disponible para los agentes del orden en el sistema correccional juvenil del estado.

"Todo el entrenamiento que usted puede utilizar, todo lo que le permite utilizar sus habilidades de otros, sale por la puerta", añadió Yáñez-Correa. "Lo primero que tienes que hacer es decir: Voy a rociar con spray de pimienta a ese chico. Esa es una respuesta natural".

En efecto, mientras que los eruditos en aplicación de la ley por unanimidad reconocen que, en función de cada violento incidente, los resultados del uso de spray de pimienta produce menos lesiones que la violencia física directa, la investigación sugiere que tener gas pimienta podría conducir a un mayor número de incidentes violentos.

En un análisis, criminólogos encontraron que el uso de la fuerza policial aumentó en un 33 por ciento en Concord, Carolina del Norte tras la aprobación del uso de spray de pimienta como una herramienta de aplicación de la ley. Después de que un detenido murió bajo custodia después de ser rociado, el uso de spray de pimienta fue restringido, mientras que el uso de la fuerza luego cayó en un 57 por ciento, a pesar de que las tasas de incidentes aumentaron en casi un 4 por ciento.

"Esto sugiere que el uso de spray no necesariamente puede ser una alternativa a la fuerza, sino que proporciona a los agentes la opción de usar más fuerza - tal vez innecesariamente. En otras palabras, si está allí, lo van a usar", escribieron en el estudio los co-autores, los criminólogos Pablo Friday y Richard Lumb, de la Universidad de Carolina del Norte.

El número de veces que la policía utiliza gas pimienta parecía desconectado de las amenazas al orden público lo que llevo a Friday y a Lumb plantear la hipótesis de que con spray de pimienta podría cambiar la forma de comportamiento de los policías.

"¿Son los funcionarios más asertivos en situaciones de enfrentamiento cuando sospechan que están armados "con una herramienta adicional? ¿La posesión de spray injustificadamente aumenta el sentido de auto-confianza, seguridad y crean así una profecía autocumplida de amenaza?", se preguntaron. "¿A pesar del pulverizador, cuando se utiliza, reduce las lesiones, no su mera posesión aumentan el potencial de la fuerza física al utilizarlo?"

Dos estudios realizados en los Países Bajos mostraron que el spray de pimienta fue útil para someter a sujetos violentos, pero en realidad no causaron situaciones de violencia que degeneraron en violencia -y un 10 por ciento de todos los usos se llevaron a cabo pese a que los sujetos no representaban un peligro-.

En una revisión trimestral de 2010 respecto al uso de la policía del Taser y seguridad, Alpert y el criminólogo Roger Dunham de la Universidad de Miami recomendaban estudios rigurosos de cómo llevar las armas Taser cambiaba la percepción de las amenazas por parte de policía. Los mismos estudios también podrían llevarse a cabo conn spray de pimienta.

Entender la psicología de la policía es también muy importante, añadió Dunham.

"En su cultura, es importante contar con autoridad. La mayoría de los policías llegan a decir que lo único que tienen que proteger es la autoridad y son muy sensibles a las personas que no respetan su autoridad ", dijo. "Cuando un funcionario se sube a la escena, el número uno en lo que se supone debe hacer es tomar el control" - y esa dinámica se acentúa cuando se sabe que otros policías juzgan sus acciones-".

"Si usted está sentado ahí, te doy una orden legal para moverse y si bloquea con los brazos, ¿es un acto de resistencia? Yo no lo veo de esa manera. Pero algunas personas lo hacen", considero Alpert.

A la luz de que las recomendaciones, contra el uso de gas pimienta sobre arrestos no violentos puede ser necesaria. Alrededor del 45 por ciento de agencias de policía en EE.UU. permiten ahora gas pimienta para ser usado en respuesta a la resistencia pasiva, como la que se observo en la UC Davis.

Restricciones a la utilización de pimienta spray podría obligar a la policía a replegarse en menos violentas tácticas, como desescalamiento verbal. En su defecto, Alpert dijo que la policía de California en Davis podría haber presionado a los puntos de presión de los manifestantes o utilizar porras para separarlos.

"No es necesario el nivel de dolor de una Taser, golpear con un bastón o gas pimienta", añadió Alpert. "En muchos sentidos, hay que volver a algunas formas más tradicionales de tratar con las personas. Si no se puede hablar o razonar con ellos y usted tiene la autoridad legítima para usar la fuerza, usted puede comenzar lento y ver qué va a pasar. Utilizar los cerebros, no la fuerza".

Referencia:

martes, 13 de diciembre de 2011

Experimento CMS. Créditos: CERN.
Antes de que acabe el año, los físicos pueden haber conseguido un premio largamente esperado con la última versión de los datos del Gran Colisionador de Hadrones, que muestra una señal posible del esquivo bosón de Higgs en ​​alrededor de 125 gigaelectronvoltios (GeV).

Dos experimentos independientes confirman un pequeño aumento en el número de ciertos eventos de descomposición de partículas que ocurren en un rango de energía en particular. Esto podría ser una señal de la partícula de Higgs, una manifestación del campo de Higgs que proporciona a las partículas subatómicas su masa.

El experimento ATLAS ve una señal consistente a 126 GeV, mientras que el detector CMS informa de un exceso de eventos a 124 GeV. (Un átomo de hidrógeno es de aproximadamente 1 GeV, por lo que si se tratara de la partícula de Higgs sería más o menos equivalente a la masa de un átomo de cesio). Incluso si esta señal no es de Higgs, ambos experimentos han reducido el rango en que el bosón de Higgs de partículas se podría manifestar, dejando sólo una pequeña área entre aproximadamente 115 y 130 GeV.

"Se está poniendo muy emocionante. Estamos entrando en un territorio interesante y estamos empezando a ver algunos resultados", expreso el físico Greg Landsberg de la Universidad Brown en Providence, Rhode Island, miembro del equipo CMS.

Aún más emocionante, un bosón de Higgs en el rango de masa especulado probablemente requeriría una nueva física más allá del Modelo Estándar -la cual describe las interacciones de todas las partículas subatómicas y las fuerzas conocidas- con el fin de ser estable. Una posible extensión, conocida como la supersimetría, postula la existencia de un compañero más pesado de todas las partículas subatómicas conocidas con el fin de resolver ciertos problemas con el modelo estándar.

Pero la espera de los físicos de largo para el bosón de Higgs no puede ser muy largo.

Hasta ahora, los resultados "no son muy significativos y en el mejor de los 50-50 (probablemente peor) que es real", escribió el físico Matt Strassler de la Universidad de Rutgers, quien no estuvo involucrado con el trabajo, en un correo electrónico. La observación no es mucho más que una "sugerencia vaga y no es ni clara ni convincente".

Aunque ambos experimentos observan una señal similar, los acontecimientos del deterioro de partículas observados podrían haber ocurrido por casualidad por lo que este aún no es un descubrimiento.

El año que viene, los experimentos producirán más o menos cuatro veces el conjunto de datos, dando un impulso adicional del 15 por ciento en términos de la calidad y potencia de los datos, indico Landsberg.

Como el matemático Peter Woit de la Universidad de Columbia , escribió en su blog el día antes del anuncio, "Una cosa que se puede predecir con certeza es una avalancha de papeles de los teóricos que afirman que sus modelos favoritos predicen esta particular masa del Higgs".

Referencia:

viernes, 9 de diciembre de 2011

Depósitos de yeso proporcionan pruebas definitivas de agua en Marte

Depósito Homestake. Créditos: NASA.
El Mars Science Laboratory en su camino hacia el planeta rojo, está previsto para su aterrizaje en agosto. Mientras tanto, Opportunity, que ha estado funcionando durante casi ocho años, sigue enviando de vuelta los resultados científicos. Su más reciente anuncio, comunicado en la reunión anual de la American Geophysical Union, ofrece una claro indicio de que el agua fluyó a través de fisuras subterráneas, lo que nos da una mejor imagen de la historia geológica de Marte.

Los hallazgos se basan en material recogido en "Homestake", que se encuentra cerca del borde del cráter Endeavour. El material con sólo un par de centímetros de ancho, pero de 50 cm de largo. Lecturas con espectrómetro indican que es una forma de sulfato de calcio y que contiene cantidades significativas de agua. Los cristales de yeso se forman cuando sulfato de calcio reacciona con agua, que tienden a disolvente fácilmente, pero por el clima seco de Marte permite sean estables. El material ha sido visto en otras partes de Marte, en forma de dunas de arena en la región polar norte.

El yeso se forma cuando el calcio que contiene el agua entra en contacto con sulfatos, ya sea de rocas o por la actividad volcánica. El sulfato de calcio precipitado, captura moléculas de agua dentro de la estructura de cristal en el proceso. La vena de yeso indica claramente que el agua fluía a través de las grietas debajo de la superficie de Marte en algún momento de su pasado. Steve Squyres de Cornell, lider científico del rover, lo llama un "Slam-dum"

Por ahora, la evidencia de agua líquida en la superficie de Marte en su pasado es tan extensa que probablemente se puede tratar como un hecho. Pero, al menos hasta ahora, no hemos encontrado una manera de determinar si el agua fue alguna vez sustento para criaturas vivientes. Sin embargo, el hallazgo en Homestake es otro indicio de que las aguas de Marte estuvieron presentes en una variedad de entornos, tanto en la superficie y también por filtrado por debajo de él.

Referencia:

martes, 6 de diciembre de 2011

5 sencillos pasos para hacer una letal pandemia

Virus H5N1

La gripe aviar H5N1 puede matar a seres humanos, pero no ha llegado la pandemia, ya que no puede propagarse fácilmente entre nosotros. Eso podría cambiar: cinco mutaciones en dos genes han permitido que el virus se propague entre mamíferos en el laboratorio. Es más, el virus es tan letal a pesar de las mutaciones.

"El virus se transmite de forma más eficaz que la gripe estacional", dice Ron Fouchier del Centro Médico Erasmus en Rotterdam, Países Bajos, que informó sobre el trabajo en una reunión científica sobre la gripe en Malta.

"Esto demuestra claramente que el H5 puede cambiar de un modo que permita la transmisión y todavía causar una enfermedad grave en humanos. Da miedo", considera Peter Doherty, ganador del premio Nobel 1996 por trabajos en inmunología viral.

H5N1 evolucionó en aves de corral en el este de Asia y se extendió a través de Eurasia desde 2004. En ese momento 565 personas se sabe que fueron contagiadas; 331 murieron. Ninguna cepa que se propaga fácilmente entre los mamíferos se ha convertido en este momento, a pesar de millones de aves infectadas, infecciones en personas, gatos y cerdos. Los esfuerzos por crear un virus en el laboratorio han fracasado y algunos virólogos piensan que H5N1 simplemente no puede hacerlo.

El trabajo del equipo de Fouchier sugiere lo contrario. Se dio por primera vez en H5N1 tres mutaciones que han sabido adaptarse a la gripe aviar a los mamíferos. Esta versión del virus mató a los hurones, que reaccionan a los virus de la gripe de una manera similar a los humanos. El virus no se transmite entre ellos, sin embargo.

A continuación, los investigadores dieron virus de los hurones enfermos a más hurones - una técnica estándar para la fabricación de agentes patógenos basados en la adaptación a un animal. Se repite esto 10 veces, con la contención estricta. La décima ronda de hurones arrojo una cepa H5N1 que se extendió a los hurones en jaulas separadas  y los mato.

El proceso arrojó virus con muchas mutaciones nuevas, pero dos estaban en todas las cepas. Los tres más la añadida deliberadamente "sugieren que tan sólo cinco son necesarias para que el virus este en el aire", añade Fouchier. Ahora pondrá a prueba H5N1 hizo con sólo esos cinco.

Todas las mutaciones han sido vistas por separado en el virus H5N1 de las aves. "Si se presenta por separado, pueden ocurrir juntas", considera Fouchier. Malik Peiris, de la Universidad de Hong Kong, un virólogo de la gripe, dice que esto significa que la H5N1 transmisible entre los seres humanos puede desarrollarse en las aves, en el que está circulando ya, sin necesidad de pasar tiempo en los mamíferos como los cerdos.

Peter Palese, especialista en gripe en el Centro Médico Mount Sinai en Nueva York, que ha expresado sus dudas de que el H5N1 pueda adaptarse a los mamíferos, no está convencido.

"Los hurones no son seres humanos", agrega. "El H5N1 ha estado presente por mucho tiempo" y no muta en una forma que puede saltar entre las personas.

"Que no se ha adaptado no significa que no se puede", responde Jeffery Taubenberger de los EE.UU. del Instituto Nacional de Salud en Bethesda, Maryland, que estudia cómo la gripe aviar se convirtió en la pandemia mortal de 1918.

"Simplemente quiero decir que hasta ahora no. Por fortuna nuestra".

Referencia:

viernes, 2 de diciembre de 2011

¿Podría haber un anuncio inminente del Bosón de Higss desde el LHC?

Experimento ATLAS. Créditos: Marcelloni/CERN.

Los físicos en el Gran Colisionador de Hadrones podrían estar recibiendo un regalo de Navidad: el bosón de Higgs. Según los últimos rumores, los científicos del LHC están revisando una señal que podría corresponder a la partícula de Higgs con una masa de 125 GeV (un protón es de poco menos de 1 GeV).

Charlas públicas están programadas para discutir los últimos resultados de ATLAS y CMS, dos de los principales experimentos del LHC, el 13 de diciembre. Esto es un día después de una reunión a puerta cerrada del consejo del CERN donde los funcionarios obtendrán una vista previa de los resultados, cualesquiera que sean.

"Hay muchas posibilidades (no estrictamente al 100%) de que las conversaciones puedan anunciar un descubrimiento (de facto o de iure) o alguna exclusión de largo alcance que va a ser muy cualitativa e inesperada", escribió el físico teórico Lubos Motl en su blog.

Motl también mencionó que en un correo electrónico interno enviado a la comunidad CERN se sugiere que los resultados sobre el escurridizo bosón de Higgs -requerido en el modelo estándar de física de partículas para proporcionar masa a las partículas diferentes- es concluyente. Esto podría significar que el hallazgo se encuentra por debajo del umbral de cinco sigma necesarios para declarar definitivamente un descubrimiento en la física.

Pero si los rumores son ciertos y el bosón de Higgs se ha visto a 125 GeV, podría reforzar la idea de que hay física más allá del Modelo Estándar que describe el comportamiento de las partículas subatómicas. 125 GeV Higgs es más ligero de lo previsto en los modelos más simples y probablemente requeriría teorías más complejas, tales como la supersimetría, que postula la existencia de un compañero más pesado de todas las partículas conocidas.

Referencia:

miércoles, 30 de noviembre de 2011

¿Por qué los físicos buscan el bosón de Higgs?

En este momento el bosón de Higss es tema de atención, por lo que es necesario explicar algunas cosas, retomar los propósitos de los detectores ATLAS y CMS y considerar porque es díficil estar seguro de lo que se ha visto.

Para crear el bosón de Higgs (y todas las demás partículas que produce), el LHC destruye protones en un proceso de alta energía, que convierte parte de esa energía a la masa. Esto producirá una ráfaga de partículas, muchas de las cuales son residuos y también inestables. Por la vez que algo llega al detector de hardware actual, a menudo decae varias retiradas de las partículas producidas en las colisiones reales. Los investigadores tratan de usar las partículas que llegan a los detectores de trabajar su camino de regreso e inferir las partículas que decayó en su producción.

Los modelos teóricos de Higgs indican que tiene varias formas de descomposición; un ejemplo es la producción de dos fotones de alta energía. El problema es que muchos otros procesos también pueden producir dos fotones de alta energía. ¿Cómo sabe usted cuando está buscando el producto de la partícula de Higgs? La respuesta corta es averiguar todos los otros eventos que pueden producir una señal de tipo Higgs y la frecuencia típica en la que se va a producir. Si ve más de estas señales que sugieren esas frecuencias, entonces usted sabe que tiene algo que se parece al bosón de Higgs.

Pero no podemos aceptar cualquier exceso de señal como una señal de una partícula, muchos eventos son probabilísticos, así que siempre hay una posibilidad de un exceso de eventos que ocurren al azar. ¿Cómo sabemos cuando tenemos suficiente señal para decir con confianza que hemos visto el bosón de Higgs?

Tirar los dados ... una y otra vez

La forma más sencilla de explicar esto es por analogía. Imagínese que usted está usando una serie de 60 dados. La mayoría de ellos son normales, pero sospecha que uno o dos son inusuales -que tienen el mismo número en todas sus caras. Por ejemplo, usted piensa que tiene cinco en cada una de sus caras-. Pero hay un problema: no se puede mirar los dados (al igual que los detectores no pueden ver el Higgs directamente, sólo sus productos de desintegración). Todavía es posible saber si sus sospechas son correctas, aunque el truco está en tirar la serie de 60 dados lo suficiente y hacer un seguimiento de los resultados.

Si usted tiro todo el conjunto una vez, espera que la mayoría de los números aparezcan en los resultados unas 10 veces. Pero no se espera exactamente 10. Ya que es un proceso aleatorio, puede ver distintos resultados. Incluso si su dado con sólo caras de cinco estaba presente, todavía hay una posibilidad de que volvería a ver menos de 10 cinco tirados. Usted puede medir la cantidad de variación en torno a su resultado esperado 10 con un valor estadístico llamado desviación estándar. Y, en este ejemplo, incluso si su inusual dado esta presente, la señal de este, el número de cinco es probable que estaría dentro de una desviación estándar de lo que esperaría de un juego puramente al azar.

Por lo que se requiere tirar todo el conjunto de nuevo. Y otra vez. Con cada lanzamiento, la desviación estándar reduce el número total de eventos, como las fluctuaciones aleatorias da la oportunidad de comenzar a cancelar el uno al otro. Y, si los dados especiales están presentes, usted debe comenzar a ver un exceso de caras cinco que se destaca del ruido aleatorio, que puede terminar en dos o más desviaciones estándar de lo que cabría esperar. Estadísticamente, sabemos que hay una posibilidad del 95 por ciento de que cualquier resultado al azar estará dentro de dos desviaciones estándar de lo esperado. Pero que aún deja un cinco por ciento de probabilidad de que una señal de dos desviaciones estándar sea resultado de la casualidad. No es lo suficientemente bueno pero es lo que se puede encontrar.

A medida que se tiran los dados cada vez más, una de dos cosas puede suceder. En algunos casos, es posible que los resultados estén tan cerca del valor esperado para la búsqueda de una señal que sería muy poco probable -que puede acabar necesitando tirar 500 dados de dos en dos en una fila con el fin de obtener una señal más de dos desviaciones estándar lejos del valor esperado-. Esto permite una regla. En este ejemplo, podemos decir con seguridad que en nuestro conjunto, no tiene dos en dos en cada cara. La otra cosa es que las señales reales que terminan siendo más fáciles de distinguir de azar de fondo -que debe ser un mayor número de desviaciones estándar del valor esperado-.

¿Fotones, bosones, o qué?

Por lo tanto, de vuelta a la física de partículas. Para una energía dada, es posible estimar el número de eventos de un determinado tipo de dos fotones, un bosón W y Z, -que se podrían obtener a partir de procesos que ya conocemos-. Y se puede medir el número de eventos de este tipo que realmente ve. Al comparar los dos, usted puede decir si los hechos que se ven son una desviación estándar o más lejos del resultado esperado. O usted puede ver si el valor está muy cerca de lo que se espera que puede decir con seguridad el bosón de Higgs no es esa energía.

El año pasado, ATLAS y CMS registró un número de eventos en diversas energías donde creemos que el bosón de Higgs podría estar oculto. En su mayor parte, estos han sido en torno al número de eventos que había predicho. En este punto, es muy poco probable que veamos un exceso de pronto -no va a hacer el equivalente de 100 rodando dos en dos en una fila-, lo que los físicos han concluido que se puede excluir a estas energías como la ubicación de la partícula de Higgs. Pero hay algunas zonas, sobre todo en el rango de 120 a 140GeV, donde las cosas son ambiguas. Hay indicios de una señal, pero la señal esta dentro de dos desviaciones estándar a partir de los antecedentes.

Ahora, tenemos mucho más datos gracias a una impresionante racha de este año, tenemos una cantidad de datos que se tomaron  de Tevatron antes de que concluyera. Los equipos detrás de los dos detectores esperan que dentro del procesamiento de datos aparezca una señal. Las expectativas son que uno se ha elevado a cerca de tres desviaciones estándar (lo que comúnmente se llama "tres sigma") desde el fondo de los acontecimientos del modelo estándar. Tres sigma es considerada como "evidencia" de la existencia del bosón de Higgs. Se tarda un máximo de cinco sigma antes de que se este dispuesto a declarar el descubrimiento y nadie espera que vayamos a tener ese nivel de certeza en un tiempo próximo.

Referencia:

viernes, 25 de noviembre de 2011

9 ecuaciones que deberíamos al menos fingir saber

Incluso para aquellos de nosotros que terminamos álgebra con una oración, hay algo atractivo en las ecuaciones. Complejidades del mundo y la incertidumbre se destilan y se ponen en cifras ordenada, con un puñado de personajes se basta para captar el universo mismo.

Para su disfrute, se han reunido nueve ecuaciones favoritas. Algunos representan el universo, mientras que otras, la naturaleza de la vida. Una representa el límite de las ecuaciones.

La ecuación más hermosa: La identidad de Euler


También se llama relación de Euler o de análisis complejo, fue propuesta por el matemático suizo Leonhard Euler quien escribió por primera vez la igualdad, que vincula la geometría, el álgebra, y cinco de los símbolos más esenciales en las matemáticas - 0, 1, i, Pi y e - herramientas esenciales en el trabajo científico.

El físico teórico Richard Feynman era un gran fan y lo llamó una "joya" y una " notable fórmula ". Los aficionados de hoy se refieren a ella como "la ecuación más bella".

El universo entero en cifras: las ecuaciones de Friedmann
Derivadas de la teoría de Einstein de la Relatividad General, las dos ecuaciones de Friedmann describen la vida de todo el universo, desde el Big Bang a la muerte fría mediante la expansión acelerada.

Las fórmulas contienen un término extraño conocido como la constante cosmológica, un principio introducido por Einstein para contrarrestar la gravedad y mantener el universo eternamente inmutable. Cuando las observaciones mostraron que el cosmos estaba en realidad en expansión, Einstein llamó a esta inserción su mayor error. Experimentos recientes han reivindicado Einstein, demostrando que hay una fuerza grande y misteriosa conocida como energía oscura que acelera la expansión del universo. Su descubrimiento fue el tema del más reciente Premio Nobel de Física, a pesar de la comprensión de cómo funciona hasta ahora ha eludido a los científicos.
Créditos: NASA / WMAP Science Team


Fórmula de la entropía de Boltzmann

La naturaleza ama el caos cuando empuja a los sistemas hacia el equilibrio, llamándole entropía a este fenómeno.

El físico austríaco Ludwig Boltzmann sentó las bases estadísticas de la entropía, su trabajo fue tan importante que el gran físico Max Planck sugirió que su versión de la fórmula de Boltzmann fuera grabada en la lápida de Boltzmann de Viena.

La ecuación describe la estrecha relación entre la entropía (S) y las miles de formas de partículas que en un sistema se pueden arreglar (k log W). La última parte es difícil. K es la constante de Boltzmann y W es el número de elementos microscópicos de un sistema (por ejemplo, el impulso y la posición de los átomos individuales de gas) en un sistema macroscópico en un estado de equilibrio (por ejemplo, el gas de sellado en una botella).

Nota: No se debe confundir con la otra ecuación de Boltzmann, que describe cómo los gases o fluidos se mueven en torno a la energía.
Créditos: Tom Schneider / NCI-Frederick

Electricidad y magnetismo: las ecuaciones de Maxwell

Sin estas cuatro ecuaciones, ningún lolcat en Internet podría existir. Por primera vez reunidas por James Clerk Maxwell en 1861, las fórmulas describen todos los comportamientos conocidos de la electricidad y el magnetismo mostrando la relación entre las dos fuerzas. Afirman que una carga en movimiento eléctrico genera un campo magnético, mientras que un campo magnético cambiante igualmente crea un campo eléctrico.

La segunda ecuación, la ley de Gauss para el magnetismo, también demuestra una profunda diferencia entre la electricidad y el magnetismo. Mientras que la electricidad existe como cargas separadas, en el magnetismo, siempre están unidas, nunca se puede separar el polo "norte" del "sur". Los últimos modelos físicos postulan que los imanes norte o sur (conocidos como los monopolos magnéticos) en realidad pueden estar presentes en pequeñas cantidades en el Universo y varios experimentos están buscando su existencia.
La máquina Z grande, generador de rayos X en el mundo. Créditos: Sandia National Laboratories

Incertidumbre: la ecuación de Schrödinger

La famosa ecuación de Erwin Schrödinger reina sobre los objetos más pequeños en el universo. Ilustra cómo las partículas subatómicas cambian con el tiempo bajo la influencia de una fuerza. Cualquier átomo o molécula particular, se describe por su función de onda, la probabilidad de dónde y cuándo aparece la partícula es representada por la letra griega psi.

Desafortunadamente, desde los primeros días de la mecánica cuántica, los físicos han estado en desacuerdo en cuanto a cómo interpretar exactamente la ecuación de Schrödinger. Algunos son partidarios de la idea de que la función de onda es más que una herramienta de cálculo útil, pero no corresponde a nada real. Otros dicen pone un límite a la cantidad a lo que podemos saber sobre el universo, ya que sólo se puede saber en qué estado se encuentra en una partícula, una vez que se mide.

Schrödinger argumentó que la función de onda representa un objeto real, físico. No estaba de acuerdo con la interpretación de las mediciones colapso de una partícula y su famoso experimento del gato estaba destinado en realidad a demostrar las deficiencias en la interpretación.
Las huellas fantasmales de las partículas subatómicas en una cámara de burbujas de hidrógeno. Créditos: CERN

Toda Vida es una isla: Biogeografía de Islas

A pesar de que los físicos describen la expansión del universo en unas pocas líneas, las propiedades básicas de la vida en la Tierra son mucho más difíciles de cuantificar. Durante la segunda mitad del siglo 20, los biólogos llegaron a la teoría de la biogeografía de islas, que describe la dinámica de las poblaciones de animales en las islas. A la izquierda de esta ecuación se haya el número de especies que una isla determinada puede soportar, a la derecha la abundancia de animales, las áreas disponibles además de las tasas de inmigración y emigración. La teoría se ha expandido más allá de las islas oceánicas que incluyen muchos tipos de ecología, especialmente aquellas aisladas por la actividad humana. Fuera de las regiones polares, casi toda la naturaleza existe ahora en grupos humanos definidos por las islas y la isla más grande de todos, por supuesto, es la Tierra.
La fauna del Río Caché en Arksansas, un aislado pantano donde se veía el extinto pájaro carpintero pico de marfil según los informes. Créditos: NASA.
La esencia de la evolución: capacidad de evolución de Nowak

En su nivel más básico, la vida es la que se reproduce - ¿pero cómo empezó? Es lo último del problema de la gallina y el huevo, ​​que los científicos que la estudian llamando pre-vida tratan de responder. En el lado izquierdo de esta ecuación, propuesta por la Universidad de Harvard el matemático biólogo Martin Nowak, expresa mediante un símbolo todas las posibles cadenas de moléculas, a la derecha la velocidad de las reacciones químicas, la tendencia de las cadenas más cortas es más común que las cadenas más largas, la presión y la velocidad de la adaptación. Nowak, como ha demostrado, todo lo necesario para que surja la vida son moléculas sujetas a fuerzas de la selección y mutación. Si se cumplen esas condiciones, la auto-replicación se verá con la inexorabilidad de la gravedad.
Amanecer en el Lago Mono de California, lugar caliente, sin oxígeno, rico en arsénico. Lago que los científicos creen que las condiciones imitan la Tierra primitiva. Créditos: NASA.

El filo de la infección: R-Cero

R0, que se pronuncia R-nada, es una figura muy sencilla: Se refiere al número medio de personas a las cuales un individuo infectado con un patógeno va a infectar. Si es menor que uno, la enfermedad se extingue pero si es mayor que uno, se extiende. En un mundo donde un virus de la gripe en México puede infectar a millones de personas en todo el mundo en cuestión de meses, esta ecuación es simbólica, ya que es sencilla.
Usuarios de Metro en la Ciudad de México durante el brote de gripe porcina 2009. Créditos: Eneas de Troya en Flirck


Hermoso o no: las matemáticas (limitadas) de la Belleza

No todo se puede cuantificar, sobre todo cuando se trata de asuntos del corazón y la mente humana. Durante décadas, los psicólogos y biólogos han tratado de representar la belleza física en forma de fórmula, pero incluso si algunas tendencias emergen cuando cientos de las preferencias individuales se miden, lo que cualquier persona considera bello es imposible de predecir.

La ecuación basada emplea un programa de computación israelí capaz de cuantificar el atractivo de un rostro . "Y" es la puntuación belleza empírica, en medidas adecuadas, diferentes de cómo las diferentes características en una cara en comparación con una cara de referencia. El programa se ha codificado de manera brillante, pero no funciona muy bien.
Créditos: Pierre Tourigny en Flick.
Extraterrestres: la ecuación de Dake

Hace cincuenta años, el astrónomo Frank Drake intentó estimar un número de civilizaciones extraterrestres detectables en nuestra galaxia.

En los estados de la ecuación de Drake, el número de civilizaciones extraterrestres de la Vía Láctea puede ser estimado al conocer varios factores, entre ellos, la tasa de formación estelar, el número de estrellas con planetas, el número de planetas que podrían albergar vida y esa fracción de planetas con vida capaces de evolucionar en seres inteligentes. Desde que fue escrita, los astrónomos han refinado algunos de los términos, como el número de exoplanetas cercanos, aunque muchos de los valores de esta fórmula están aún por determinar.

Referencia:

martes, 22 de noviembre de 2011

La mujer que continuo la labor de Darwin: Lynn Margulis (1938-2011)


Lynn Margulis a los 20 años había terminado la Licenciatura en la Universidad de Chicago, lugar donde también conocería a su esposo Carl Sagan y comenzaría su interés en la microbiología y la evolución.

Antes de los 30 años ya había publicado Origin of Mitosing Cells, obra en la cual proponía la teoría Endosimbiosis Serial (SAT) describiendo el origen de las células eucariotas, uno de los pasos más importantes en la evolución. Margulis considero que los organelos propios de una célula eucariota fueron adquiridos por endosimbiosis en cuatro momentos:
  1. La transición a un célula con núcleo.
  2. La adquisición de mitocondria, organelo encargado de la obtención de energía.
  3. Obtención de cloroplastos, organelo que en organismos autotrofos tiene la función de proporcionar nutrientes a partir de compuestos inorgánicos y energía luminica.
  4. Adquisición de flagelos y cilios, necesarios para la movilidad de la célula.
Margulis tenía claro que cada uno de los momentos previos habían sido resultado de la incorporación de bacterias mediante simbiosis, las cuales durante millones de años desarrollaron la capacidad para poder cohabitar. En la actualidad se ha comprobado que al menos el núcleo, mitocondria y cloroplastos fueron incorporados mediante este proceso.

Como en distintos momentos de la Ciencia, las ideas de Margulis fueron motivo de polémica. Defensores da la teoría de selección natural propuesta por Darwin consideran que mutaciones aleatorias dan origen al proceso de evolución. Margulis había ampliado este proceso al incorporar también la simbiosis.

Tambié fue una de las defensoras de la Teoría Gaia, la cual propuesta por Lovelock considera a la Tierra como un ser vivo, una entidad compleja en la cual la biosfera y atmósfera funcionan como un organismo autoregulador. Margulis no solo apoyaría la hipótesis de Lovelock sino que la ampliaría.

Por último y no menos importante fue su labor como divulgadora, de forma individual o en compañía con su hijo Dorion, tarea en la que destaco usando un lenguaje ameno y accesible para todos.

Con respeto y admiración Margulis.

martes, 15 de noviembre de 2011

LHC podría haber encontrado una grieta en la física moderna

LHCb. Créditos: Peter Ginter / CERN

A finales de 2008, una pocos espectadores creían que el Gran Colisionador de Hadrones (LHC) podría traer el fin del mundo. Tres años más tarde, nuestro planeta se mantiene intacto, pero el acelerador de partículas europeo puede haber hecho su primera grieta en la física moderna.

Si esta grieta resulta ser real, podría ayudar a explicar un misterio sin resolver del universo: ¿por qué hay materia normal, pero casi nada de la antimateria opuesta? "Si se sostiene, es emocionante", añade el físico de partículas Robert Roser del National Accelerator Laboratory Fermi en Batavia, Illinois.

Para entender por qué los físicos están entusiasmados, mire a su alrededor: Estamos rodeados de materia. Eso puede parecer obvio, pero los científicos se han preguntado por qué en su lugar no hay nada en absoluto. Las teorías aceptadas indican que el Big Bang debería haber producido cantidades iguales de materia y antimateria, que pronto se habrían aniquilado mutuamente. Es evidente que la balanza se inclinó a favor de la materia normal, lo que permite la creación de todo lo que vemos hoy en día, pero ¿cómo?, nadie está seguro.

Lo más probable, dicen los teóricos, que las propiedades de la materia y la antimateria no son tan simétricas. Técnicamente, esta disparidad se conoce como violación carga-paridad (CP) y debe surgir naturalmente cuando las partículas estan en decaimiento: o bien las partículas normales decaerían con más frecuencia que sus antipartículas lo hacen o viceversa. De acuerdo con la teoría aceptada de las partículas elementales, el modelo estándar, indica debe haber un bajo nivel de violación de CP, pero no suficiente para explicar la prevalencia de la materia normal. Así que los experimentos han estado tratando de encontrar casos en los que la violación CP es mayor.

Ahí es donde LHCb, uno de los seis detectores del LHC, puede haber sido exitoso. Se ha trazado el camino de las partículas conocidas como mesones D0, que, junto con sus antipartículas, puede decaer en los pares de cualquiera de los piones o kaones. Al contabilizar estos piones y kaones, los físicos han calculado empleando LHCb las tasas de decaimiento relativo entre las partículas y antipartículas D0. El resultado, reveló en una reunión en París esta semana, es sorprendente: las tasas difieren en 0,8%.

En vista de ello, este nivel de violación de CP es por lo menos ocho veces más alto de lo que el modelo estándar permite, por lo que podría ayudar a explicar por qué todavía hay materia en el Universo. Pero hay una advertencia: no es lo suficientemente precisa. Para los verdaderos descubrimientos, los físicos demandan una certeza estadística de al menos cinco sigma, lo que significa que debe haber menos de una posibilidad de 3 millones en el resultado que es un blip aleatorio de los datos. Actualmente, el equipo LHCb tiene una certeza de tres sigma, por lo que hay una posibilidad entre 100, el resultado es aún extraordinario.

Matthew Charles, físico de la Universidad de Oxford en el Reino Unido y portavoz de la colaboración de LHCb, es naturalmente cauteloso. "El próximo paso será analizar los datos restantes aportados en 2011", dice. "La muestra que hemos utilizado hasta ahora es sólo un 60 por ciento de lo que hemos grabado, por lo que hace falta es mejorar nuestra precisión un poco y obtener una pista sólida en cuanto a si el resultado va a sostener." Para el análisis, el público tendrá que esperar hasta el próximo año.

El físico de partículas Paul Harrison de la Universidad de Warwick en el Reino Unido, que trabaja en otros estudios LHCb, no está percibiendo esperanzas. "No estoy apostando mi pensión en este resultado por la posición de la prueba de los datos", dice. Él piensa que la incertidumbre es demasiado grande. "Desde que estamos midiendo cientos de cosas diferentes en el LHC, luego de vez en cuando uno de ellos dará un efecto de tres sigma como esta al azar".

Hay razones para ser positivos, sin embargo. El año pasado, basado en la colaboración CDF del Fermilab informó de una diferencia similar entre las tasas de decaimiento D0 de 0,46 por ciento. En ese momento, el resultado se consideró probable que sea un bache debido a la incertidumbre estadística de la FCD era bastante grande, pero en conjunto con el resultado de LHCb, podría ser visto con más peso. Y el MID, como el LHCb, todavía tiene más datos a través de distintas redes.

"Estamos, obviamente, muy motivado para extender el análisis a la muestra completa de datos y ver si podemos conseguir una confirmación independiente del resultado LHCb", dice Giovanni Punzi de la Universidad de Pisa en Italia, un portavoz de la colaboración CDF.

Referencia:

viernes, 11 de noviembre de 2011

Quasar. Créditos: NASA.

Una constante física fundamental como la relacionada con la carga del electrón o la velocidad de la luz dependerá del lugar en el universo donde estes, considera un equipo de astrónomos. Si es verdad, que la observación daría la vuelta a hipótesis básica de los científicos de que las leyes de la física son las mismas en todas partes del universo. Otros investigadores se muestran escépticos, sin embargo.

La constante en cuestión es llamada constante de estructura fina. Un número con un valor de alrededor de 1/137, la cual determina la constante sobre la intensidad de la fuerza electromagnética y, por tanto, determina la longitud de onda exacta de luz que un átomo absorbe. La idea de que la constante puede haber cambiado con la edad del universo no es nueva. El astrofísico John Webb, de la Universidad de New South Wales en Sydney, Australia, y sus colegas sonaron la campana en 1998, utilizando datos del telescopio de 10 metros en el Observatorio WM Keck en Mauna Kea, Hawaii.

En aquel entonces, el equipo analizó los centros brillantes de galaxias brillantes antiguas conocidas como quásares. La luz de los cuásares deben pasar a través de nubes de gases en sus varios millones de años de viaje a la Tierra y los átomos en el gas absorben longitudes de onda de luz específica. Por lo que el espectro de la luz de la Tierra alcanza esa falta de longitudes de onda y se ve un poco como un código de barras. El cambio general de las líneas dice a los investigadores lo lejos que esta una nube de gas y, por tanto, cuánto tiempo requiere que la luz pasa a través de ella. La separación relativa de las líneas les permite calcular la constante de estructura fina en ese momento. El análisis de estos datos, realizado por Webb y sus colegas argumentaron que la constante de estructura fina fue de aproximadamente 1 parte en 100,000 más pequeña hace 12 mil millones de años de lo que es hoy en día. Esa fue una propuesta radical, sobre como las leyes de la física se supone son las mismas no importando dónde este usted está en el universo.

El resultado no fue universalmente aceptado, sin embargo. En 2004, Patrick Petitjean, un astrónomo en el Instituto de Astrofísica de París y sus colegas utilizaron observaciones de 23 de las nubes desde el Very Large Telescope (VLT) de ESO en Cerro Paranal en Chile, ubicado en el hemisferio sur y no encontraron ninguna variación perceptible en la constante de estructura fina.

¿Caso cerrado? No del todo. Ahora Webb y sus colegas han rastreado el cielo del sur  utilizando el VLT. Sus 153 nubes sugieren una diferencia de 1 parte en 100,000 en la estructura fina constante hace 12 millones de años. Excepto en el cielo del sur, la constante parece ser más grande. Conectando los dos extremos en  una línea, el equipo encontró que los patrones de absorción de las nubes a lo largo de esa línea son consistentes con la estructura fina constante que ha cambiado lentamente a través del espacio -menor en el cielo del norte lejano y más grande en el lado sur-.

"El resultado es emocionante", dice el físico atómico Wim Ubachs de la Universidad Libre de Amsterdam, que no estuvo involucrado en el trabajo. "Podría ser un indicador de que el universo es diferente de lo que se pensaba". Ubachs dice que está abierto a la idea de que las constantes fundamentales en realidad podría cambiar con el tiempo y la posición, ya que los científicos no tienen una explicación decente de por qué las constantes fundamentales tienen los valores particulares de todos modos. Sin embargo, la afirmación de que un gran cambio en las constantes pone en evidencia que los nuevos datos no son suficientes, ya que incluso el equipo de Webb está de acuerdo. Dicen que las probabilidades de que las fluctuaciones estadísticas aleatorias en los datos podría producir una señal falsa, son menos de 1 en 15,000 informó el equipo en línea el 31 de octubre en Physical Review Letters. Para calificar como pruebas contundentes, esas probabilidades deben bajar a 1 de cada 2 millones de dólares.

No es de extrañar, Petitjean encuentra la sugerencia de que la estructura fina de los cambios constantes en el espacio es "muy difícil de creer." Argumenta que por sí mismos, los datos VLT del equipo de Webb no sería interesante. Webb reconoce que las posibilidades de que las fluctuaciones aleatorias en los nuevos datos del VLT podría producir una tendencia falsa es bastante grande, 1 en 34. Sin embargo, sostiene que los datos son convincentes, ya que dos telescopios independientes, que apuntan en direcciones diferentes, vio la constante de estructura fina cambiando al mismo ritmo y en la misma dirección. En cuanto a qué grupo de Petitjean no ve el aumento de sus propios datos desde el VLT, Webb dice que Petitjean y sus colegas estaban buscando en la dirección equivocada. El equipo de 23 nubes el cual Petitjean estudio no se ejecutan a lo largo de la línea a través del universo en el que la constante de estructura fina parece cambiar, dice Webb, por lo que no es ninguna sorpresa que ellos no vieron la misma tendencia.

Petitjean considera que el acuerdo es de manera diferente. Él dice que los resultados coinciden, porque la luz que llega hasta 10 mil millones de años y el equipo de Webb ve lo mismo: ningún cambio. Sólo el grupo de Webb analiza la luz mayor y que es la fuente de su tendencia. "Hasta que se confirme de forma independiente por los demás", advierte, "todo el mundo debe tener cuidado con el resultado".

Si se levanta, dice Webb, la demanda podría ayudar a responder a una pregunta conceptual grande: ¿Por qué las constantes fundamentales de asumir valores permiten que exista la vida cuando los cambios pequeños hacen la vida imposible? Si las constantes fundamentales varían en la medida de lo potencialmente infinito del universo, nuestro lugar en el universo, naturalmente, sería que las constantes están sintonizadas apenas a la derecha para hacer posible nuestra existencia -una versión del llamado principio antrópico-. En algunos círculos, sin embargo, el principio antrópico eleva las cejas aún más alto que la idea de cambiar las constantes físicas.

Referencia:

martes, 8 de noviembre de 2011

¿Qué volvió a los seres humanos sociables?

Babuinos Gelada (Theropithecus gelada) vive en grandes grupos. Créditos: Dave Watts/Flickr 
Mire a su alrededor y es imposible pasar por alto la importancia de las interacciones sociales en la sociedad humana. Constituyen la base de nuestras familias, nuestros gobiernos e incluso nuestra economía global. Pero, ¿cómo llegamos a ser sociales en primer lugar? Los investigadores siempre han creído que se trataba de un proceso gradual, pasando de las parejas a los clanes de las comunidades más grandes. Un nuevo análisis, sin embargo, indica que las sociedades de primates se expandieron, probablemente porque no había seguridad en números.

Es una idea controvertida, admite el antropólogo y autor del estudio, Susanne Shultz, de la Universidad de Oxford en el Reino Unido. "Es muy probable que esto va a causar un poco de problemas".

Durante las últimas décadas, los investigadores han obtenido caudales de información sobre la evolución de los grupos sociales en las abejas y las aves mediante su comparación con familiares con diferentes sistemas sociales. En estos animales, parece que las sociedades complejas se desarrollaron en etapas. Los individuos solteros o emparejados comenzaron a vivir con una escasa descendencia. Estos pequeños grupos poco a poco se hicieron más grande y más complicados, en última instancia ceden ante las organizaciones complejas. Algunos antropólogos han asumido una historia similar con los primates.

Shultz y sus colegas decidieron probar esta idea. Su primera tarea fue averiguar qué factores influyeron en la composición de las actuales sociedades de primates. Una hipótesis común es que el entorno local forma la estructura. Por ejemplo, la escasez de alimentos puede llevar a individuos a actuar en conjunto, para que puedan ayudarse unos a otros con la caza y la recolección. Sin embargo, después de peinar la literatura científica sobre 217 especies de primates, los investigadores notaron que las especies estrechamente relacionadas tienden a organizar a sus sociedades de la misma manera, no importa donde ellos vivan. Los babuinos y macacos, por ejemplo, viven en muchos lugares y hábitats, pero la mayor parte de ellos viven siempre en una empresa mixta de hembras y machos relacionados con no relacionados.

Debido a que la estructura del grupo no estaba en los caprichos del medio ambiente, Shultz y sus colegas, indicaron que debió ser transmitido en el tiempo evolutivo. Y de hecho, cuando miraron a través del árbol genealógico de los primates, encontraron que los comportamientos sociales actuales de una especie tienden a ser similares a la de sus antepasados.

Con esto en mente, los investigadores dedujeron cómo los antepasados ​​de estos primates vivían, tratando de llegar al escenario que requería la menor cantidad de cambios evolutivos para llegar a la distribución actual de las organizaciones sociales en el árbol familiar. Emplearon un modelo estadístico para determinar lo que sucedería, por ejemplo, si el último ancestro común de los monos y los simios vivió en pareja o vivía en grupos.

Para sorpresa de los investigadores, la solución más sensata sugiere que el ancestro solitario comenzó en grupos no en parejas, como los científicos habían pensado, sino como grupos sueltos de ambos sexos , como informó el equipo en línea en la revista Nature. Dada la distribución moderna de las organizaciones sociales, el momento más probable de este cambio fue alrededor de 52 millones de años atrás, cuando los antepasados ​​de los monos y simios se separaron de los antepasados ​​de los lémures y otros primates prosimios.

Shultz sospecha que, en este momento, los antepasados ​​de los primates nocturnos actuales se volvieron más activos durante el día. Es más fácil entrar por la noche cuando estás solo, dice ella, pero cuando empiezas a cazar durante el día, cuando los depredadores te ven con mayor facilidad, no hay seguridad en números.

Pero no todos los primates de hoy viven en grandes grupos mixtos. Unos pocos, como los monos titi del Nuevo Mundo, viven en parejas. Y algunos primates, como los gorilas, forman harenes con un macho y varias hembras. El análisis muestra que estas estructuras sociales se presentaron hace sólo unos 16 millones de años.

"Cuando leí el papel, estaba realmente muy golpeado al conocer una imagen diferente que nos dan", afirma Joan Silk, un antropólogo de la Universidad de California en Los Angeles. "[Algunos] modelos teóricos tendrán que ser revisados".

Bernard Chapais, un primatólogo de la Universidad de Montreal en Canadá que está impresionado con la manera en que se concluye sobre el comportamiento de muchos primates. "Está cerca del número total de especies en el orden de los primates". Está de acuerdo con el escenario de Shultz, pero le hubiera gustado que Shultz hubiera considerado más detalles, como el modo de reproducción, la clasificación de los sistemas sociales, algo que planea hacer. Incluso sin ese refinamiento, "estos análisis representan una adición bienvenida a este estudio de la evolución social", dice Peter Kappeler, un antropólogo de la Universidad de Göttingen en Alemania.

Referencia:

viernes, 4 de noviembre de 2011

¿Por qué es tan desagradable el sonido de uñas en un pizarrón?

Créditos: weegeebored/Flickr.

En el siglo pasado durante mucho tiempo, hubo estudios para comprender porqué el sonido de las uñas en una pizarrón es tan desagradable. Un nuevo estudio denota la importancia de la psicología y el diseño de los canales de nuestro oído.

Las investigaciones anteriores sobre el tema sugerían que el sonido era similar a la llamada de advertencia de un primate, pero esa teoría fue desacreditada después de que monos respondieron a la amplitud de concordancia de ruido blanco y otros sonidos de tono alto, mientras que los humanos no. Otro estudio, en 1986 , manipuló la grabación de raspado de un pizarrón y encontró que las frecuencias medias de tono son la fuente de la reacción adversa, en lugar de los tonos más altos (como se pensaba). La obra del autor Randolph Blake gano un Premio Ig Nobel en 2006.

El último estudio, realizado por musicólogos Michael Oehler , de la Universidad de Macromedia para Medios y Comunicación en Colonia, Alemania y Christoph Reuter de la Universidad de Viena, estudiaron otros sonidos que generaban una reacción similar - como la tiza en la pizarra, espuma de poliestireno chirridos, un la placa que se raspa con un tenedor y el viejo sonido de las uñas en el pizarrón-.

Algunos participantes describieron la verdadera fuente del sonido y otros dijeron que los sonidos eran parte de una composición de música contemporánea. Los investigadores preguntaron a los participantes para clasificar los peores sonidos y también supervisaron los indicadores físicos de la angustia - la frecuencia cardíaca, presión arterial y la conductividad eléctrica de la piel-.

Ellos encontraron que los sonidos perturbadores causan una reacción física mensurable, donde la conductividad de la piel cambia de manera significativa y que las frecuencias involucradas con sonidos desagradables están firmemente del rango del habla humana -entre 2.000 y 4.000 Hz-. La eliminación de las frecuencias del sonido hace mucho más fácil escuchar. Pero, curiosamente, la eliminación del ruido, raspando parte del sonido hace poca diferencia.

Un componente psicológico de gran alcance fue identificado. Si los oyentes sabían que el sonido era el de las uñas en el pizarrón, calificado como el más desagradable incluso aunque se les dijera que era de una composición musical, sin embargo, su conductividad en la piel había cambiado constantemente, lo que sugiere que la parte física de la respuesta se mantuvo.

La respuesta física es probablemente generada por la forma del canal auditivo humano, que investigaciones anteriores han mostrado amplifica las frecuencias en el rango de 2.000 a 4.000 Hz. Lo que parece ocurrir, los investigadores calculan, es que cuando un sonido en una pizarra se genera, el sonido es amplificado en nuestros oídos produciendo ese efecto doloroso.

El siguiente paso para los investigadores es estudiar más a fondo los parámetros de ruidos desagradables, con el objetivo final de tratar de enmascarar las frecuencias dentro de maquinaria de la fábrica, aspiradoras o equipos de construcción. Por el momento, sin embargo, probablemente es mejor mantenerse al margen de los pizarrones.

Referencia:

Related Posts Plugin for WordPress, Blogger...