miércoles, 30 de noviembre de 2011

¿Por qué los físicos buscan el bosón de Higgs?

En este momento el bosón de Higss es tema de atención, por lo que es necesario explicar algunas cosas, retomar los propósitos de los detectores ATLAS y CMS y considerar porque es díficil estar seguro de lo que se ha visto.

Para crear el bosón de Higgs (y todas las demás partículas que produce), el LHC destruye protones en un proceso de alta energía, que convierte parte de esa energía a la masa. Esto producirá una ráfaga de partículas, muchas de las cuales son residuos y también inestables. Por la vez que algo llega al detector de hardware actual, a menudo decae varias retiradas de las partículas producidas en las colisiones reales. Los investigadores tratan de usar las partículas que llegan a los detectores de trabajar su camino de regreso e inferir las partículas que decayó en su producción.

Los modelos teóricos de Higgs indican que tiene varias formas de descomposición; un ejemplo es la producción de dos fotones de alta energía. El problema es que muchos otros procesos también pueden producir dos fotones de alta energía. ¿Cómo sabe usted cuando está buscando el producto de la partícula de Higgs? La respuesta corta es averiguar todos los otros eventos que pueden producir una señal de tipo Higgs y la frecuencia típica en la que se va a producir. Si ve más de estas señales que sugieren esas frecuencias, entonces usted sabe que tiene algo que se parece al bosón de Higgs.

Pero no podemos aceptar cualquier exceso de señal como una señal de una partícula, muchos eventos son probabilísticos, así que siempre hay una posibilidad de un exceso de eventos que ocurren al azar. ¿Cómo sabemos cuando tenemos suficiente señal para decir con confianza que hemos visto el bosón de Higgs?

Tirar los dados ... una y otra vez

La forma más sencilla de explicar esto es por analogía. Imagínese que usted está usando una serie de 60 dados. La mayoría de ellos son normales, pero sospecha que uno o dos son inusuales -que tienen el mismo número en todas sus caras. Por ejemplo, usted piensa que tiene cinco en cada una de sus caras-. Pero hay un problema: no se puede mirar los dados (al igual que los detectores no pueden ver el Higgs directamente, sólo sus productos de desintegración). Todavía es posible saber si sus sospechas son correctas, aunque el truco está en tirar la serie de 60 dados lo suficiente y hacer un seguimiento de los resultados.

Si usted tiro todo el conjunto una vez, espera que la mayoría de los números aparezcan en los resultados unas 10 veces. Pero no se espera exactamente 10. Ya que es un proceso aleatorio, puede ver distintos resultados. Incluso si su dado con sólo caras de cinco estaba presente, todavía hay una posibilidad de que volvería a ver menos de 10 cinco tirados. Usted puede medir la cantidad de variación en torno a su resultado esperado 10 con un valor estadístico llamado desviación estándar. Y, en este ejemplo, incluso si su inusual dado esta presente, la señal de este, el número de cinco es probable que estaría dentro de una desviación estándar de lo que esperaría de un juego puramente al azar.

Por lo que se requiere tirar todo el conjunto de nuevo. Y otra vez. Con cada lanzamiento, la desviación estándar reduce el número total de eventos, como las fluctuaciones aleatorias da la oportunidad de comenzar a cancelar el uno al otro. Y, si los dados especiales están presentes, usted debe comenzar a ver un exceso de caras cinco que se destaca del ruido aleatorio, que puede terminar en dos o más desviaciones estándar de lo que cabría esperar. Estadísticamente, sabemos que hay una posibilidad del 95 por ciento de que cualquier resultado al azar estará dentro de dos desviaciones estándar de lo esperado. Pero que aún deja un cinco por ciento de probabilidad de que una señal de dos desviaciones estándar sea resultado de la casualidad. No es lo suficientemente bueno pero es lo que se puede encontrar.

A medida que se tiran los dados cada vez más, una de dos cosas puede suceder. En algunos casos, es posible que los resultados estén tan cerca del valor esperado para la búsqueda de una señal que sería muy poco probable -que puede acabar necesitando tirar 500 dados de dos en dos en una fila con el fin de obtener una señal más de dos desviaciones estándar lejos del valor esperado-. Esto permite una regla. En este ejemplo, podemos decir con seguridad que en nuestro conjunto, no tiene dos en dos en cada cara. La otra cosa es que las señales reales que terminan siendo más fáciles de distinguir de azar de fondo -que debe ser un mayor número de desviaciones estándar del valor esperado-.

¿Fotones, bosones, o qué?

Por lo tanto, de vuelta a la física de partículas. Para una energía dada, es posible estimar el número de eventos de un determinado tipo de dos fotones, un bosón W y Z, -que se podrían obtener a partir de procesos que ya conocemos-. Y se puede medir el número de eventos de este tipo que realmente ve. Al comparar los dos, usted puede decir si los hechos que se ven son una desviación estándar o más lejos del resultado esperado. O usted puede ver si el valor está muy cerca de lo que se espera que puede decir con seguridad el bosón de Higgs no es esa energía.

El año pasado, ATLAS y CMS registró un número de eventos en diversas energías donde creemos que el bosón de Higgs podría estar oculto. En su mayor parte, estos han sido en torno al número de eventos que había predicho. En este punto, es muy poco probable que veamos un exceso de pronto -no va a hacer el equivalente de 100 rodando dos en dos en una fila-, lo que los físicos han concluido que se puede excluir a estas energías como la ubicación de la partícula de Higgs. Pero hay algunas zonas, sobre todo en el rango de 120 a 140GeV, donde las cosas son ambiguas. Hay indicios de una señal, pero la señal esta dentro de dos desviaciones estándar a partir de los antecedentes.

Ahora, tenemos mucho más datos gracias a una impresionante racha de este año, tenemos una cantidad de datos que se tomaron  de Tevatron antes de que concluyera. Los equipos detrás de los dos detectores esperan que dentro del procesamiento de datos aparezca una señal. Las expectativas son que uno se ha elevado a cerca de tres desviaciones estándar (lo que comúnmente se llama "tres sigma") desde el fondo de los acontecimientos del modelo estándar. Tres sigma es considerada como "evidencia" de la existencia del bosón de Higgs. Se tarda un máximo de cinco sigma antes de que se este dispuesto a declarar el descubrimiento y nadie espera que vayamos a tener ese nivel de certeza en un tiempo próximo.

Referencia:

viernes, 25 de noviembre de 2011

9 ecuaciones que deberíamos al menos fingir saber

Incluso para aquellos de nosotros que terminamos álgebra con una oración, hay algo atractivo en las ecuaciones. Complejidades del mundo y la incertidumbre se destilan y se ponen en cifras ordenada, con un puñado de personajes se basta para captar el universo mismo.

Para su disfrute, se han reunido nueve ecuaciones favoritas. Algunos representan el universo, mientras que otras, la naturaleza de la vida. Una representa el límite de las ecuaciones.

La ecuación más hermosa: La identidad de Euler


También se llama relación de Euler o de análisis complejo, fue propuesta por el matemático suizo Leonhard Euler quien escribió por primera vez la igualdad, que vincula la geometría, el álgebra, y cinco de los símbolos más esenciales en las matemáticas - 0, 1, i, Pi y e - herramientas esenciales en el trabajo científico.

El físico teórico Richard Feynman era un gran fan y lo llamó una "joya" y una " notable fórmula ". Los aficionados de hoy se refieren a ella como "la ecuación más bella".

El universo entero en cifras: las ecuaciones de Friedmann
Derivadas de la teoría de Einstein de la Relatividad General, las dos ecuaciones de Friedmann describen la vida de todo el universo, desde el Big Bang a la muerte fría mediante la expansión acelerada.

Las fórmulas contienen un término extraño conocido como la constante cosmológica, un principio introducido por Einstein para contrarrestar la gravedad y mantener el universo eternamente inmutable. Cuando las observaciones mostraron que el cosmos estaba en realidad en expansión, Einstein llamó a esta inserción su mayor error. Experimentos recientes han reivindicado Einstein, demostrando que hay una fuerza grande y misteriosa conocida como energía oscura que acelera la expansión del universo. Su descubrimiento fue el tema del más reciente Premio Nobel de Física, a pesar de la comprensión de cómo funciona hasta ahora ha eludido a los científicos.
Créditos: NASA / WMAP Science Team


Fórmula de la entropía de Boltzmann

La naturaleza ama el caos cuando empuja a los sistemas hacia el equilibrio, llamándole entropía a este fenómeno.

El físico austríaco Ludwig Boltzmann sentó las bases estadísticas de la entropía, su trabajo fue tan importante que el gran físico Max Planck sugirió que su versión de la fórmula de Boltzmann fuera grabada en la lápida de Boltzmann de Viena.

La ecuación describe la estrecha relación entre la entropía (S) y las miles de formas de partículas que en un sistema se pueden arreglar (k log W). La última parte es difícil. K es la constante de Boltzmann y W es el número de elementos microscópicos de un sistema (por ejemplo, el impulso y la posición de los átomos individuales de gas) en un sistema macroscópico en un estado de equilibrio (por ejemplo, el gas de sellado en una botella).

Nota: No se debe confundir con la otra ecuación de Boltzmann, que describe cómo los gases o fluidos se mueven en torno a la energía.
Créditos: Tom Schneider / NCI-Frederick

Electricidad y magnetismo: las ecuaciones de Maxwell

Sin estas cuatro ecuaciones, ningún lolcat en Internet podría existir. Por primera vez reunidas por James Clerk Maxwell en 1861, las fórmulas describen todos los comportamientos conocidos de la electricidad y el magnetismo mostrando la relación entre las dos fuerzas. Afirman que una carga en movimiento eléctrico genera un campo magnético, mientras que un campo magnético cambiante igualmente crea un campo eléctrico.

La segunda ecuación, la ley de Gauss para el magnetismo, también demuestra una profunda diferencia entre la electricidad y el magnetismo. Mientras que la electricidad existe como cargas separadas, en el magnetismo, siempre están unidas, nunca se puede separar el polo "norte" del "sur". Los últimos modelos físicos postulan que los imanes norte o sur (conocidos como los monopolos magnéticos) en realidad pueden estar presentes en pequeñas cantidades en el Universo y varios experimentos están buscando su existencia.
La máquina Z grande, generador de rayos X en el mundo. Créditos: Sandia National Laboratories

Incertidumbre: la ecuación de Schrödinger

La famosa ecuación de Erwin Schrödinger reina sobre los objetos más pequeños en el universo. Ilustra cómo las partículas subatómicas cambian con el tiempo bajo la influencia de una fuerza. Cualquier átomo o molécula particular, se describe por su función de onda, la probabilidad de dónde y cuándo aparece la partícula es representada por la letra griega psi.

Desafortunadamente, desde los primeros días de la mecánica cuántica, los físicos han estado en desacuerdo en cuanto a cómo interpretar exactamente la ecuación de Schrödinger. Algunos son partidarios de la idea de que la función de onda es más que una herramienta de cálculo útil, pero no corresponde a nada real. Otros dicen pone un límite a la cantidad a lo que podemos saber sobre el universo, ya que sólo se puede saber en qué estado se encuentra en una partícula, una vez que se mide.

Schrödinger argumentó que la función de onda representa un objeto real, físico. No estaba de acuerdo con la interpretación de las mediciones colapso de una partícula y su famoso experimento del gato estaba destinado en realidad a demostrar las deficiencias en la interpretación.
Las huellas fantasmales de las partículas subatómicas en una cámara de burbujas de hidrógeno. Créditos: CERN

Toda Vida es una isla: Biogeografía de Islas

A pesar de que los físicos describen la expansión del universo en unas pocas líneas, las propiedades básicas de la vida en la Tierra son mucho más difíciles de cuantificar. Durante la segunda mitad del siglo 20, los biólogos llegaron a la teoría de la biogeografía de islas, que describe la dinámica de las poblaciones de animales en las islas. A la izquierda de esta ecuación se haya el número de especies que una isla determinada puede soportar, a la derecha la abundancia de animales, las áreas disponibles además de las tasas de inmigración y emigración. La teoría se ha expandido más allá de las islas oceánicas que incluyen muchos tipos de ecología, especialmente aquellas aisladas por la actividad humana. Fuera de las regiones polares, casi toda la naturaleza existe ahora en grupos humanos definidos por las islas y la isla más grande de todos, por supuesto, es la Tierra.
La fauna del Río Caché en Arksansas, un aislado pantano donde se veía el extinto pájaro carpintero pico de marfil según los informes. Créditos: NASA.
La esencia de la evolución: capacidad de evolución de Nowak

En su nivel más básico, la vida es la que se reproduce - ¿pero cómo empezó? Es lo último del problema de la gallina y el huevo, ​​que los científicos que la estudian llamando pre-vida tratan de responder. En el lado izquierdo de esta ecuación, propuesta por la Universidad de Harvard el matemático biólogo Martin Nowak, expresa mediante un símbolo todas las posibles cadenas de moléculas, a la derecha la velocidad de las reacciones químicas, la tendencia de las cadenas más cortas es más común que las cadenas más largas, la presión y la velocidad de la adaptación. Nowak, como ha demostrado, todo lo necesario para que surja la vida son moléculas sujetas a fuerzas de la selección y mutación. Si se cumplen esas condiciones, la auto-replicación se verá con la inexorabilidad de la gravedad.
Amanecer en el Lago Mono de California, lugar caliente, sin oxígeno, rico en arsénico. Lago que los científicos creen que las condiciones imitan la Tierra primitiva. Créditos: NASA.

El filo de la infección: R-Cero

R0, que se pronuncia R-nada, es una figura muy sencilla: Se refiere al número medio de personas a las cuales un individuo infectado con un patógeno va a infectar. Si es menor que uno, la enfermedad se extingue pero si es mayor que uno, se extiende. En un mundo donde un virus de la gripe en México puede infectar a millones de personas en todo el mundo en cuestión de meses, esta ecuación es simbólica, ya que es sencilla.
Usuarios de Metro en la Ciudad de México durante el brote de gripe porcina 2009. Créditos: Eneas de Troya en Flirck


Hermoso o no: las matemáticas (limitadas) de la Belleza

No todo se puede cuantificar, sobre todo cuando se trata de asuntos del corazón y la mente humana. Durante décadas, los psicólogos y biólogos han tratado de representar la belleza física en forma de fórmula, pero incluso si algunas tendencias emergen cuando cientos de las preferencias individuales se miden, lo que cualquier persona considera bello es imposible de predecir.

La ecuación basada emplea un programa de computación israelí capaz de cuantificar el atractivo de un rostro . "Y" es la puntuación belleza empírica, en medidas adecuadas, diferentes de cómo las diferentes características en una cara en comparación con una cara de referencia. El programa se ha codificado de manera brillante, pero no funciona muy bien.
Créditos: Pierre Tourigny en Flick.
Extraterrestres: la ecuación de Dake

Hace cincuenta años, el astrónomo Frank Drake intentó estimar un número de civilizaciones extraterrestres detectables en nuestra galaxia.

En los estados de la ecuación de Drake, el número de civilizaciones extraterrestres de la Vía Láctea puede ser estimado al conocer varios factores, entre ellos, la tasa de formación estelar, el número de estrellas con planetas, el número de planetas que podrían albergar vida y esa fracción de planetas con vida capaces de evolucionar en seres inteligentes. Desde que fue escrita, los astrónomos han refinado algunos de los términos, como el número de exoplanetas cercanos, aunque muchos de los valores de esta fórmula están aún por determinar.

Referencia:

martes, 22 de noviembre de 2011

La mujer que continuo la labor de Darwin: Lynn Margulis (1938-2011)


Lynn Margulis a los 20 años había terminado la Licenciatura en la Universidad de Chicago, lugar donde también conocería a su esposo Carl Sagan y comenzaría su interés en la microbiología y la evolución.

Antes de los 30 años ya había publicado Origin of Mitosing Cells, obra en la cual proponía la teoría Endosimbiosis Serial (SAT) describiendo el origen de las células eucariotas, uno de los pasos más importantes en la evolución. Margulis considero que los organelos propios de una célula eucariota fueron adquiridos por endosimbiosis en cuatro momentos:
  1. La transición a un célula con núcleo.
  2. La adquisición de mitocondria, organelo encargado de la obtención de energía.
  3. Obtención de cloroplastos, organelo que en organismos autotrofos tiene la función de proporcionar nutrientes a partir de compuestos inorgánicos y energía luminica.
  4. Adquisición de flagelos y cilios, necesarios para la movilidad de la célula.
Margulis tenía claro que cada uno de los momentos previos habían sido resultado de la incorporación de bacterias mediante simbiosis, las cuales durante millones de años desarrollaron la capacidad para poder cohabitar. En la actualidad se ha comprobado que al menos el núcleo, mitocondria y cloroplastos fueron incorporados mediante este proceso.

Como en distintos momentos de la Ciencia, las ideas de Margulis fueron motivo de polémica. Defensores da la teoría de selección natural propuesta por Darwin consideran que mutaciones aleatorias dan origen al proceso de evolución. Margulis había ampliado este proceso al incorporar también la simbiosis.

Tambié fue una de las defensoras de la Teoría Gaia, la cual propuesta por Lovelock considera a la Tierra como un ser vivo, una entidad compleja en la cual la biosfera y atmósfera funcionan como un organismo autoregulador. Margulis no solo apoyaría la hipótesis de Lovelock sino que la ampliaría.

Por último y no menos importante fue su labor como divulgadora, de forma individual o en compañía con su hijo Dorion, tarea en la que destaco usando un lenguaje ameno y accesible para todos.

Con respeto y admiración Margulis.

martes, 15 de noviembre de 2011

LHC podría haber encontrado una grieta en la física moderna

LHCb. Créditos: Peter Ginter / CERN

A finales de 2008, una pocos espectadores creían que el Gran Colisionador de Hadrones (LHC) podría traer el fin del mundo. Tres años más tarde, nuestro planeta se mantiene intacto, pero el acelerador de partículas europeo puede haber hecho su primera grieta en la física moderna.

Si esta grieta resulta ser real, podría ayudar a explicar un misterio sin resolver del universo: ¿por qué hay materia normal, pero casi nada de la antimateria opuesta? "Si se sostiene, es emocionante", añade el físico de partículas Robert Roser del National Accelerator Laboratory Fermi en Batavia, Illinois.

Para entender por qué los físicos están entusiasmados, mire a su alrededor: Estamos rodeados de materia. Eso puede parecer obvio, pero los científicos se han preguntado por qué en su lugar no hay nada en absoluto. Las teorías aceptadas indican que el Big Bang debería haber producido cantidades iguales de materia y antimateria, que pronto se habrían aniquilado mutuamente. Es evidente que la balanza se inclinó a favor de la materia normal, lo que permite la creación de todo lo que vemos hoy en día, pero ¿cómo?, nadie está seguro.

Lo más probable, dicen los teóricos, que las propiedades de la materia y la antimateria no son tan simétricas. Técnicamente, esta disparidad se conoce como violación carga-paridad (CP) y debe surgir naturalmente cuando las partículas estan en decaimiento: o bien las partículas normales decaerían con más frecuencia que sus antipartículas lo hacen o viceversa. De acuerdo con la teoría aceptada de las partículas elementales, el modelo estándar, indica debe haber un bajo nivel de violación de CP, pero no suficiente para explicar la prevalencia de la materia normal. Así que los experimentos han estado tratando de encontrar casos en los que la violación CP es mayor.

Ahí es donde LHCb, uno de los seis detectores del LHC, puede haber sido exitoso. Se ha trazado el camino de las partículas conocidas como mesones D0, que, junto con sus antipartículas, puede decaer en los pares de cualquiera de los piones o kaones. Al contabilizar estos piones y kaones, los físicos han calculado empleando LHCb las tasas de decaimiento relativo entre las partículas y antipartículas D0. El resultado, reveló en una reunión en París esta semana, es sorprendente: las tasas difieren en 0,8%.

En vista de ello, este nivel de violación de CP es por lo menos ocho veces más alto de lo que el modelo estándar permite, por lo que podría ayudar a explicar por qué todavía hay materia en el Universo. Pero hay una advertencia: no es lo suficientemente precisa. Para los verdaderos descubrimientos, los físicos demandan una certeza estadística de al menos cinco sigma, lo que significa que debe haber menos de una posibilidad de 3 millones en el resultado que es un blip aleatorio de los datos. Actualmente, el equipo LHCb tiene una certeza de tres sigma, por lo que hay una posibilidad entre 100, el resultado es aún extraordinario.

Matthew Charles, físico de la Universidad de Oxford en el Reino Unido y portavoz de la colaboración de LHCb, es naturalmente cauteloso. "El próximo paso será analizar los datos restantes aportados en 2011", dice. "La muestra que hemos utilizado hasta ahora es sólo un 60 por ciento de lo que hemos grabado, por lo que hace falta es mejorar nuestra precisión un poco y obtener una pista sólida en cuanto a si el resultado va a sostener." Para el análisis, el público tendrá que esperar hasta el próximo año.

El físico de partículas Paul Harrison de la Universidad de Warwick en el Reino Unido, que trabaja en otros estudios LHCb, no está percibiendo esperanzas. "No estoy apostando mi pensión en este resultado por la posición de la prueba de los datos", dice. Él piensa que la incertidumbre es demasiado grande. "Desde que estamos midiendo cientos de cosas diferentes en el LHC, luego de vez en cuando uno de ellos dará un efecto de tres sigma como esta al azar".

Hay razones para ser positivos, sin embargo. El año pasado, basado en la colaboración CDF del Fermilab informó de una diferencia similar entre las tasas de decaimiento D0 de 0,46 por ciento. En ese momento, el resultado se consideró probable que sea un bache debido a la incertidumbre estadística de la FCD era bastante grande, pero en conjunto con el resultado de LHCb, podría ser visto con más peso. Y el MID, como el LHCb, todavía tiene más datos a través de distintas redes.

"Estamos, obviamente, muy motivado para extender el análisis a la muestra completa de datos y ver si podemos conseguir una confirmación independiente del resultado LHCb", dice Giovanni Punzi de la Universidad de Pisa en Italia, un portavoz de la colaboración CDF.

Referencia:

viernes, 11 de noviembre de 2011

Quasar. Créditos: NASA.

Una constante física fundamental como la relacionada con la carga del electrón o la velocidad de la luz dependerá del lugar en el universo donde estes, considera un equipo de astrónomos. Si es verdad, que la observación daría la vuelta a hipótesis básica de los científicos de que las leyes de la física son las mismas en todas partes del universo. Otros investigadores se muestran escépticos, sin embargo.

La constante en cuestión es llamada constante de estructura fina. Un número con un valor de alrededor de 1/137, la cual determina la constante sobre la intensidad de la fuerza electromagnética y, por tanto, determina la longitud de onda exacta de luz que un átomo absorbe. La idea de que la constante puede haber cambiado con la edad del universo no es nueva. El astrofísico John Webb, de la Universidad de New South Wales en Sydney, Australia, y sus colegas sonaron la campana en 1998, utilizando datos del telescopio de 10 metros en el Observatorio WM Keck en Mauna Kea, Hawaii.

En aquel entonces, el equipo analizó los centros brillantes de galaxias brillantes antiguas conocidas como quásares. La luz de los cuásares deben pasar a través de nubes de gases en sus varios millones de años de viaje a la Tierra y los átomos en el gas absorben longitudes de onda de luz específica. Por lo que el espectro de la luz de la Tierra alcanza esa falta de longitudes de onda y se ve un poco como un código de barras. El cambio general de las líneas dice a los investigadores lo lejos que esta una nube de gas y, por tanto, cuánto tiempo requiere que la luz pasa a través de ella. La separación relativa de las líneas les permite calcular la constante de estructura fina en ese momento. El análisis de estos datos, realizado por Webb y sus colegas argumentaron que la constante de estructura fina fue de aproximadamente 1 parte en 100,000 más pequeña hace 12 mil millones de años de lo que es hoy en día. Esa fue una propuesta radical, sobre como las leyes de la física se supone son las mismas no importando dónde este usted está en el universo.

El resultado no fue universalmente aceptado, sin embargo. En 2004, Patrick Petitjean, un astrónomo en el Instituto de Astrofísica de París y sus colegas utilizaron observaciones de 23 de las nubes desde el Very Large Telescope (VLT) de ESO en Cerro Paranal en Chile, ubicado en el hemisferio sur y no encontraron ninguna variación perceptible en la constante de estructura fina.

¿Caso cerrado? No del todo. Ahora Webb y sus colegas han rastreado el cielo del sur  utilizando el VLT. Sus 153 nubes sugieren una diferencia de 1 parte en 100,000 en la estructura fina constante hace 12 millones de años. Excepto en el cielo del sur, la constante parece ser más grande. Conectando los dos extremos en  una línea, el equipo encontró que los patrones de absorción de las nubes a lo largo de esa línea son consistentes con la estructura fina constante que ha cambiado lentamente a través del espacio -menor en el cielo del norte lejano y más grande en el lado sur-.

"El resultado es emocionante", dice el físico atómico Wim Ubachs de la Universidad Libre de Amsterdam, que no estuvo involucrado en el trabajo. "Podría ser un indicador de que el universo es diferente de lo que se pensaba". Ubachs dice que está abierto a la idea de que las constantes fundamentales en realidad podría cambiar con el tiempo y la posición, ya que los científicos no tienen una explicación decente de por qué las constantes fundamentales tienen los valores particulares de todos modos. Sin embargo, la afirmación de que un gran cambio en las constantes pone en evidencia que los nuevos datos no son suficientes, ya que incluso el equipo de Webb está de acuerdo. Dicen que las probabilidades de que las fluctuaciones estadísticas aleatorias en los datos podría producir una señal falsa, son menos de 1 en 15,000 informó el equipo en línea el 31 de octubre en Physical Review Letters. Para calificar como pruebas contundentes, esas probabilidades deben bajar a 1 de cada 2 millones de dólares.

No es de extrañar, Petitjean encuentra la sugerencia de que la estructura fina de los cambios constantes en el espacio es "muy difícil de creer." Argumenta que por sí mismos, los datos VLT del equipo de Webb no sería interesante. Webb reconoce que las posibilidades de que las fluctuaciones aleatorias en los nuevos datos del VLT podría producir una tendencia falsa es bastante grande, 1 en 34. Sin embargo, sostiene que los datos son convincentes, ya que dos telescopios independientes, que apuntan en direcciones diferentes, vio la constante de estructura fina cambiando al mismo ritmo y en la misma dirección. En cuanto a qué grupo de Petitjean no ve el aumento de sus propios datos desde el VLT, Webb dice que Petitjean y sus colegas estaban buscando en la dirección equivocada. El equipo de 23 nubes el cual Petitjean estudio no se ejecutan a lo largo de la línea a través del universo en el que la constante de estructura fina parece cambiar, dice Webb, por lo que no es ninguna sorpresa que ellos no vieron la misma tendencia.

Petitjean considera que el acuerdo es de manera diferente. Él dice que los resultados coinciden, porque la luz que llega hasta 10 mil millones de años y el equipo de Webb ve lo mismo: ningún cambio. Sólo el grupo de Webb analiza la luz mayor y que es la fuente de su tendencia. "Hasta que se confirme de forma independiente por los demás", advierte, "todo el mundo debe tener cuidado con el resultado".

Si se levanta, dice Webb, la demanda podría ayudar a responder a una pregunta conceptual grande: ¿Por qué las constantes fundamentales de asumir valores permiten que exista la vida cuando los cambios pequeños hacen la vida imposible? Si las constantes fundamentales varían en la medida de lo potencialmente infinito del universo, nuestro lugar en el universo, naturalmente, sería que las constantes están sintonizadas apenas a la derecha para hacer posible nuestra existencia -una versión del llamado principio antrópico-. En algunos círculos, sin embargo, el principio antrópico eleva las cejas aún más alto que la idea de cambiar las constantes físicas.

Referencia:

martes, 8 de noviembre de 2011

¿Qué volvió a los seres humanos sociables?

Babuinos Gelada (Theropithecus gelada) vive en grandes grupos. Créditos: Dave Watts/Flickr 
Mire a su alrededor y es imposible pasar por alto la importancia de las interacciones sociales en la sociedad humana. Constituyen la base de nuestras familias, nuestros gobiernos e incluso nuestra economía global. Pero, ¿cómo llegamos a ser sociales en primer lugar? Los investigadores siempre han creído que se trataba de un proceso gradual, pasando de las parejas a los clanes de las comunidades más grandes. Un nuevo análisis, sin embargo, indica que las sociedades de primates se expandieron, probablemente porque no había seguridad en números.

Es una idea controvertida, admite el antropólogo y autor del estudio, Susanne Shultz, de la Universidad de Oxford en el Reino Unido. "Es muy probable que esto va a causar un poco de problemas".

Durante las últimas décadas, los investigadores han obtenido caudales de información sobre la evolución de los grupos sociales en las abejas y las aves mediante su comparación con familiares con diferentes sistemas sociales. En estos animales, parece que las sociedades complejas se desarrollaron en etapas. Los individuos solteros o emparejados comenzaron a vivir con una escasa descendencia. Estos pequeños grupos poco a poco se hicieron más grande y más complicados, en última instancia ceden ante las organizaciones complejas. Algunos antropólogos han asumido una historia similar con los primates.

Shultz y sus colegas decidieron probar esta idea. Su primera tarea fue averiguar qué factores influyeron en la composición de las actuales sociedades de primates. Una hipótesis común es que el entorno local forma la estructura. Por ejemplo, la escasez de alimentos puede llevar a individuos a actuar en conjunto, para que puedan ayudarse unos a otros con la caza y la recolección. Sin embargo, después de peinar la literatura científica sobre 217 especies de primates, los investigadores notaron que las especies estrechamente relacionadas tienden a organizar a sus sociedades de la misma manera, no importa donde ellos vivan. Los babuinos y macacos, por ejemplo, viven en muchos lugares y hábitats, pero la mayor parte de ellos viven siempre en una empresa mixta de hembras y machos relacionados con no relacionados.

Debido a que la estructura del grupo no estaba en los caprichos del medio ambiente, Shultz y sus colegas, indicaron que debió ser transmitido en el tiempo evolutivo. Y de hecho, cuando miraron a través del árbol genealógico de los primates, encontraron que los comportamientos sociales actuales de una especie tienden a ser similares a la de sus antepasados.

Con esto en mente, los investigadores dedujeron cómo los antepasados ​​de estos primates vivían, tratando de llegar al escenario que requería la menor cantidad de cambios evolutivos para llegar a la distribución actual de las organizaciones sociales en el árbol familiar. Emplearon un modelo estadístico para determinar lo que sucedería, por ejemplo, si el último ancestro común de los monos y los simios vivió en pareja o vivía en grupos.

Para sorpresa de los investigadores, la solución más sensata sugiere que el ancestro solitario comenzó en grupos no en parejas, como los científicos habían pensado, sino como grupos sueltos de ambos sexos , como informó el equipo en línea en la revista Nature. Dada la distribución moderna de las organizaciones sociales, el momento más probable de este cambio fue alrededor de 52 millones de años atrás, cuando los antepasados ​​de los monos y simios se separaron de los antepasados ​​de los lémures y otros primates prosimios.

Shultz sospecha que, en este momento, los antepasados ​​de los primates nocturnos actuales se volvieron más activos durante el día. Es más fácil entrar por la noche cuando estás solo, dice ella, pero cuando empiezas a cazar durante el día, cuando los depredadores te ven con mayor facilidad, no hay seguridad en números.

Pero no todos los primates de hoy viven en grandes grupos mixtos. Unos pocos, como los monos titi del Nuevo Mundo, viven en parejas. Y algunos primates, como los gorilas, forman harenes con un macho y varias hembras. El análisis muestra que estas estructuras sociales se presentaron hace sólo unos 16 millones de años.

"Cuando leí el papel, estaba realmente muy golpeado al conocer una imagen diferente que nos dan", afirma Joan Silk, un antropólogo de la Universidad de California en Los Angeles. "[Algunos] modelos teóricos tendrán que ser revisados".

Bernard Chapais, un primatólogo de la Universidad de Montreal en Canadá que está impresionado con la manera en que se concluye sobre el comportamiento de muchos primates. "Está cerca del número total de especies en el orden de los primates". Está de acuerdo con el escenario de Shultz, pero le hubiera gustado que Shultz hubiera considerado más detalles, como el modo de reproducción, la clasificación de los sistemas sociales, algo que planea hacer. Incluso sin ese refinamiento, "estos análisis representan una adición bienvenida a este estudio de la evolución social", dice Peter Kappeler, un antropólogo de la Universidad de Göttingen en Alemania.

Referencia:

viernes, 4 de noviembre de 2011

¿Por qué es tan desagradable el sonido de uñas en un pizarrón?

Créditos: weegeebored/Flickr.

En el siglo pasado durante mucho tiempo, hubo estudios para comprender porqué el sonido de las uñas en una pizarrón es tan desagradable. Un nuevo estudio denota la importancia de la psicología y el diseño de los canales de nuestro oído.

Las investigaciones anteriores sobre el tema sugerían que el sonido era similar a la llamada de advertencia de un primate, pero esa teoría fue desacreditada después de que monos respondieron a la amplitud de concordancia de ruido blanco y otros sonidos de tono alto, mientras que los humanos no. Otro estudio, en 1986 , manipuló la grabación de raspado de un pizarrón y encontró que las frecuencias medias de tono son la fuente de la reacción adversa, en lugar de los tonos más altos (como se pensaba). La obra del autor Randolph Blake gano un Premio Ig Nobel en 2006.

El último estudio, realizado por musicólogos Michael Oehler , de la Universidad de Macromedia para Medios y Comunicación en Colonia, Alemania y Christoph Reuter de la Universidad de Viena, estudiaron otros sonidos que generaban una reacción similar - como la tiza en la pizarra, espuma de poliestireno chirridos, un la placa que se raspa con un tenedor y el viejo sonido de las uñas en el pizarrón-.

Algunos participantes describieron la verdadera fuente del sonido y otros dijeron que los sonidos eran parte de una composición de música contemporánea. Los investigadores preguntaron a los participantes para clasificar los peores sonidos y también supervisaron los indicadores físicos de la angustia - la frecuencia cardíaca, presión arterial y la conductividad eléctrica de la piel-.

Ellos encontraron que los sonidos perturbadores causan una reacción física mensurable, donde la conductividad de la piel cambia de manera significativa y que las frecuencias involucradas con sonidos desagradables están firmemente del rango del habla humana -entre 2.000 y 4.000 Hz-. La eliminación de las frecuencias del sonido hace mucho más fácil escuchar. Pero, curiosamente, la eliminación del ruido, raspando parte del sonido hace poca diferencia.

Un componente psicológico de gran alcance fue identificado. Si los oyentes sabían que el sonido era el de las uñas en el pizarrón, calificado como el más desagradable incluso aunque se les dijera que era de una composición musical, sin embargo, su conductividad en la piel había cambiado constantemente, lo que sugiere que la parte física de la respuesta se mantuvo.

La respuesta física es probablemente generada por la forma del canal auditivo humano, que investigaciones anteriores han mostrado amplifica las frecuencias en el rango de 2.000 a 4.000 Hz. Lo que parece ocurrir, los investigadores calculan, es que cuando un sonido en una pizarra se genera, el sonido es amplificado en nuestros oídos produciendo ese efecto doloroso.

El siguiente paso para los investigadores es estudiar más a fondo los parámetros de ruidos desagradables, con el objetivo final de tratar de enmascarar las frecuencias dentro de maquinaria de la fábrica, aspiradoras o equipos de construcción. Por el momento, sin embargo, probablemente es mejor mantenerse al margen de los pizarrones.

Referencia:

miércoles, 2 de noviembre de 2011

La Catrina

"Catrina" de Posadas.
Desde la época de Reforma, era común usar dibujos de cráneos y esqueletos acompañadas de pequeños textos para valorar la situación que atravesaba el país.

De esta forma los grabados se volvieron uno de los principales elementos de periódicos que juzgaban al gobierno. Dentro de los grabadores que destacaban en esta labor se encontraba Guadalupe Posadas, quien en un inicio llamo a su personaje "Calavera Garbancera" sirviendo como una crítica a los pobres que fingían pertenecer a otra clase y también para retratar la sociedad en la que vivió. Sus grabados de esta forma aparecerían en periódicos como "La Patria Ilustrada", "El Padre Cobos" y "El Ahuizote".

A través de los grabados de Posadas la Catrina se volvió un elemento popular que mostraba las tristezas y alegrías del pueblo que sufría injusticias durante el Porfiriato. Fue así como la Catrina aparecía con costosas vestimentas, bebiendo pulque o en fiestas solo para mostrar los errores de la política y la hipocresía de la sociedad.

Fue décadas más tarde cuando Diego Rivera la llamaría Catrina y la emplearía en su celebre mural "Sueño de una tarde dominical en la Alameda Central". Es en este mural donde la Catrina aparece con un lujoso atuendo y elegante tomando de la mano al joven Diego Rivera.

"Sueño de una tarde dominical en la Alameda Central" por Diego Rivera.
 
Actualmente la Catrina es uno de los elementos característicos del Día de Muertos y forma parte del folclor mexicano para recordarnos lo breve que es la existencia y mitigar el miedo que existe a la muerte.

Related Posts Plugin for WordPress, Blogger...