domingo, 28 de febrero de 2010

Marvel Comics: X-men: Dios ama, el hombre mata


Una de las novelas gráficas más interesantes de los X-men es sin duda "Dios ama, el hombre mata" (X-Men: God Loves, Man Kill) que logra plenamente la reflexión en torno a temas siempre vigentes en la sociedad.

La novela retoma a William Stryker, personaje creado para la historia por Chris Claremont, un militar vuelto predicador el cual conduce su odio a la raza mutante luego de que al nacer su hijo se diera cuenta de que es un uno de ellos.

De esta manera Claremont introduce el racismo, la violencia y el fanatismo en un guión bien elaborado que nos muestra no un villano que desea apoderarse del mundo, ni con superpoderes sino a un reverendo cuyo fundamentalismo religioso es capaz de provocar un odio racial y exarberar a una sociedad que sin juzgar ni criticar obedece ciegamente la palabra del líder religioso.

En tanto los personajes de X-men son llevados a otras instancias pocas veces vistas, Magneto se muestra tan humano como pocas veces se ha logrado al contrario de un Xavier impotente e indefenso que logran llevar al lector en un final desolador y al mismo tiempo lleno de esperanzas.

viernes, 26 de febrero de 2010

Como en Avatar bacterias forman redes electroquímicas

 
A la izquierda Nielsen estudia el sedimento, a la derecho vista en detalle. Créditos: Nils Risgaard-Peters.

Resultados que podrían haber sido sacados de una escena filmada en aguas profundas para Avatar, muestran como bacterias parecen transmitir corrientes eléctricas a través del suelo marino, conduciendo reacciones químicas vinculadas a distancias relativamente grandes.

Investigadores se percataron de este fenómeno cuando se hacían pruebas con los restos de sedimentos de otro experimento, tal suceso podría agregar nuevos conocimientos en los mecanismos para la biogeoquímica de la Tierra.

"El ciclo de los elementos y la vida en el fondo del mar, en el suelo y en cualquier otro lugar que tenga poca presencia de oxígeno - permitiría ayudarnos a comprender esos procesos", dijo el microbiólogo Lars Peter Nielsen, de la Universidad de Aarhus de Dinamarca, co-autor del estudio, publicado en el número que se publico el 24 de febrero en Nature.

El objetivo original del equipo de Nielsen era estudiar la conductividad no del fondo marino, sino de una especie de bacterias de azufre que se encuentran en el suelo de la bahía de Aarhus. Para ayudar a cuantificar la actividad química, los investigadores mantuvieron vasos de agua de mar y algunas de las bacterias de azufre libre de sedimentos para la comparación.

Después de los experimentos de composición, los vasos estaban casi olvidados. Luego, unas semanas más tarde, los investigadores notaron extraños patrones de actividad. Cambios en los niveles de oxígeno en el agua por encima de la capa superior de sedimentos fueron casi de inmediatamente seguidos por las fluctuaciones de químicos varias capas abajo. La distancia era tan grande, y el tiempo de respuesta tan rápido comparandolo con los métodos habituales de transporte de sustancias químicas -difusión molecular, o una lenta deriva de la concentración de mayor a menor - que no era posible explicarlo.

Al principio los investigadores estaban sorprendidos. Luego se dieron cuenta que el proceso cobraba sentido si se vinculaba con las bacterias en las capas superiores e inferiores. Cualquier cosa que afectara el procesamiento de oxígeno por las bacterias encima del sedimento también afectaría el sulfuro de microbios que estaban a continuación. Eso explicaría la aparente conexión y una interconexión eléctrica que explicaría la velocidad

"Tal hipótesis podría considerarse arriesgada", escribió Kenneth Nealson, un microbiólogo de la Universidad del Sur de California, en un comentario que acompaña la publicación en Nature. Una diferencia de media pulgada "no parece una gran distancia. Pero para una bacteria con longitud menor, la distancia equivaldría a unos 20 kilómetros en términos humanos".

En los últimos años, sin embargo, los científicos han encontrado especies de microbios con membranas exteriores usadas para el transporte de electrones, enzimas, o como conductores. Estas se utilizan en la experimentación sobre conducción de combustible en células microbianas, y se sabe que se encuentra en el lodo de la bahía de Aarhus. Los sedimentos también contienen pequeñas cantidades de pirita, un mineral conductor de la electricidad.

La capa superior de sedimentos también tuvo una baja concentración de iones de hidrógeno, algo que sólo podía explicarse a través de una reacción electroquímica, dijo Nielsen.

Nealson consideró los hallazgos "sorprendentes" y dijo que "pueden ser relevantes para la transferencia de energía y el flujo de electrones a través de muchos ambientes diferentes". Con el tiempo podrían usarse bacterias en sistemas basados en la biorremediación, la retención de carbono y la producción de energía.

Cuando le preguntaron si había visto la película "Avatar", con la participación de bosques electroquímicamente vinculados que almacenan los espíritus de los habitantes en un planeta-que simula ser una computadora biológica, Nielsen dijo: "Uno de mis colegas al ver esto, de inmediato me envió un mensaje: "¡Ustedes han descubierto el secreto de Avatar! vayan a verla" Las similitudes son impresionantes".

Continuó, "yo no creo que haya mucha exaltación en las redes que hemos visto aquí. Podría ser sólo sobre la energía. Sin embargo, existen conexiones ".

Referencias:

Brandon Keim, Deep-Sea Bacteria Form Avatar-Style Electrochemical Networks, Wired.
Lars Peter Nielsen, Nils Risgaard-Petersen, Henrik Fossing, Peter Bondo Christensen & Mikio Sayama, Electric currents couple spatially separated biogeochemical processes in marine sediment, Nature 465 (1071-1074 ).

lunes, 22 de febrero de 2010

El origen del metano en la atmósfera de Titán

El metano de la atmósfera de Titán es uno de los temas que desconciertan a los astrónomos desde hace décadas. Ahora parece se sabe de donde procede.

Y es que el metano no permanece demasiado tiempo a la luz del Sol. Los rayos solares son capaces de destruirlo para formar otras moléculas orgánicas, lo que implica que el descubrimiento de metano en algún lugar del Sistema Solar sea un motivo de alegría para los astrónomos.

Tal motivo se comprende. El descubrimiento de metano en Titán indica que es reciente, de lo contrario habría sido destruido por la luz solar. En la Tierra el origen de tal gas se debe a su origen orgánico.

La existencia de metano en Marte, es debido a la actividad geológica, como lo son volcanes, fumarolas hidrotermales y reacciones entre rocas y el agua.

Ahora bien Titán, la luna de Saturno posee una atmósfera de nitrógeno con metano, cuyo origen era incierto dado que de forma constante es remplazado.


La primera posibilidad de su origen es que pueda ser originado bajo la superficie de Titán por una reacción entre el hierro o silicatos de magnesio, agua y dióxido de carbono para producir metano. Tal proceso conocido como serpentinización se produce en distintos lugares de la Tierra como son las rocas precámbricas en Canadá.

La otra posible causa es que el hielo de metano se incorporó al interior de Titán cuando se formó la luna en los inicios del Sistema Solar y que la atmósfera se refresca constantemente mediante enormes expulsiones de metano desde abajo cuando el hielo se evapora y escapa.

De forma reciente un grupo internacional de geólogos planetarios considera que el origen del metano de Titán se explica mediante las reacciones de serpentinización. El agua implicada tendría que tener una improbable mezcla de estos isótopos.

Por otra parte, el metano primordial podría perfectamente haber tenido una mezcla de hidrógeno y deuterio, algo que es más probable de lo que sucede actualmente en Titán. Y la diferencia puede explicarse por la forma en que la fotólisis prefiere un isótopo sobre el otro.

Es interesante señalar que el equipo sugirió una forma de probar su idea. Dicen que otra de las lunas de Saturno, Encelado, debe haberse formado a partir del mismo metano primordial. Encelado parece lanzar ocasionalmente esta materia en órbita alrededor de Saturno. Una medida de la proporción isotópica de este metano podría zanjar la cuestión, o al menos, respaldar con fuerza el argumento.

¿Y quién podría hacer tales medidas? El equipo de la nave que órbita sobre Saturno, Cassini.

Referencia:

arxiv.org/abs/0908.0430: "A Primordial Origin for the Atmospheric Methane of Saturn’s Moon Titan".

viernes, 19 de febrero de 2010

KDE4: Plasma

KDE desde su versión 4 incorpora toda una arquitectura que tiene como finalidad brindar una mejor experiencia al usuario.

Dentro de estos cambios se incorpora Plasma. Plasma es la interfaz del entorno de escritorio de KDE. Para lograr tal fin reune los paneles de escritorio de KDE (Kicker), la ventana raíz del escritorio (KDEDesktop) y el gestor de widgets en un soolo elemento. Asimismo Plasma permite escribir aplicaciones pequeñas llamados plasmoides, que tienen la facultad de poder colocarse en el escritorio o en los paneles.

Plasma

Es lo primero que podemos observar cuando inicia KDE. En la parte baja se encuentra el panel. Éste se puede modificar, ajustando el tamaño que nos resulte adecuado, para lograrlo hay un ícono en la parte derecha que se activa al situar el puntero ahí y activa las opciones para personalizar. Dentro de estas opciones se puede modificar la altura y el largo del panel, también es posible agregar pasmodides.

Por defecto KDE 4.4 trae el tema plasma llamado Air. Un tema llamativo y agardable a la vista, que con cada lanzamiento de una nueva versión mejora su estética. Es posible cambiarlo por otro tema de plasma.

Para cambiar el tema se debe entrar en Propiedades, luego en Workspace y cambiar el tema. Es posible descargar nuevos temas con la opción "Get New Themes", para descargar. También es posible hacerlo de forma manual y colocar los temas descargados en la carpeta ~/.kde/share/desktoptheme.
Con el lanzamiento de la versión 4.4 se incorporo soporte para netbooks, con una interfaz especialmente diseñada para tales portátiles. Sin emabrgo es posoible elegirla en computadoras de escritorio entrando en configuraciones dirigiendose a Sistema>Desktop y selecciconar la opción Netbook.


Referencias:

viernes, 12 de febrero de 2010

Implicaciones de física cuántica en el proceso de la fotosíntesis

 
Aloe Plant. Créditos: Just chaos at Flickr.
Al golpear las moléculas individuales con una cuadrillonésima de pulsos láser en diversos lugares, los científicos han puesto de manifiesto que la fotosíntesis se basa en física cuántica, tal proceso utilizado por las plantas y bacterias para la captación de energía de forma eficiente y que hasta ahora ha sido desaprovechado por los ingenieros humanos.

Los procesos cuánticos parecen ocurrir en cada uno de los millones de células fotosintéticas. En la ruta de la energía de los electrones que giran en torno a fotones y moléculas sensibles a la reacción de proteínas, convierten a cada célula en un medio de conducción.

Casi no se pierde energía en el medio. Eso es porque existen varias vías de conducción, y siempre se encuentra el camino más corto.

"La analogía que me gusta es si tienes tres maneras de conducir a casa a través del tráfico en hora punta. En cualquier día dado, se toma sólo una. No sé si las otras rutas, serían más rápido o más lento. Pero en la mecánica cuántica, se puede tomar estas tres rutas de forma simultánea. No se especifica dónde se encuentra, hasta llegar, por lo que siempre se elige la ruta más rápida ", expreso Greg Scholes, un biofísico de la Universidad de Toronto.

Los resultados de  Scholes que se publican en Nature, son la mayor evidencia hasta ahora de coherencia -el nombre técnico para la existencia de múltiples estados- en la fotosíntesis.

Hace dos años, los investigadores dirigidos en ese entonces por el químico Greg Engel de la Universidad de California encontró coherencia en las proteínas de la antena de las bacterias verdes del azufre. Sin embargo, sus observaciones se realizaron a temperaturas inferiores a menos de 300 grados Fahrenheit, útil para frenar las actividades cuánticas ultrarrápidas, pero dejando abierta la cuestión de si la coherencia opera en condiciones cotidianas.

Los resultados en Nature, realizados a temperatura ambiente con algas marinas comunes, muestran que sí. Por otra parte, resultados similares de un experimento con otro, con una estructura más simple para captación de luz, anunciado por el grupo de Engel el jueves pasado en la publicación pre-arXiv publicación en línea, sugieren que la coherencia de fotosíntesis es de rutina.

Los resultados son maravillosos en sí mismos, añadiendo una nueva dimensión a un contenido que se enseña - incompleto, por ahora - a cada estudiante de secundaria en biología. Los resultados tienen implicaciones importantes para los diseñadores de celdas solares y computadoras, que podrían beneficiarse de la física cuántica al usar este procesos en la producción.

"Hay razones para creer que este es un fenómeno general", dijo Engel, ahora en la Universidad de Chicago. Pidió a Scholes "encontrar" un resultado extraordinario "que" nos mostrara una nueva manera de usar los efectos cuánticos a altas temperaturas.

El equipo de Scholes experimentó con una proteína llamada antena PC645, fotografiada a escala atómica en estudios anteriores. Posee características precisas que les permitieron lograr su objetivo al estudiar las moléculas con pulsos láser que duraban una cuadrillonésima de un segundo, o el tiempo suficiente para establecer la hilatura en electrones individuales.

Al analizar los cambios a un rayo láser y enviada a través de la proteína inmediatamente después, los investigadores fueron capaces de extrapolar lo que ocurría dentro - una versión ultra-rápida de las sombras en una pantalla. Ellos encontraron que los patrones de energía en las moléculas distantes fluctuaba de manera que traicionó a una conexión con los demás, algo sólo posible a través de la coherencia cuántica.

"Es el mismo que cuando se pulse dos diapasones, al mismo tiempo, y escuchar a una baja oscilación de tono en el fondo. Esa es la interferencia de las ondas de sonido de las horquillas. Eso es exactamente lo que vemos ", dijo Scholes.

Según Scholes, la física de las proteínas de fotosíntesis se sigue estudiando y se utiliza para mejorar el diseño de celdas solares. Engel sugirió su uso en la largamente prometida pero aún inviable  computación cuántica. "Esto nos permite pensar en la fotosíntesis como la no computación cuántica unitaria", dijo.

Los procesos cuánticos -se han observado en otros lugares en el ámbito biológico, sobre todo en brújula de las células que permiten que las aves para navegar por los campos geomagnéticos de la Tierra. Los investigadores también han propuesto funciones de la física cuántica en el sentido del olfato de los animales e incluso en el cerebro. Engel predice la aparición de todo un campo de la biología cuántica.

"Va a haber sorpresas", dijo Scholes. "¿Quién sabe qué más hay por descubrir?"

Referencia:

Elisabetta Collini, Cathy Y. Wong, Krystyna E. Wilk, Paul M. G. Curmi, Paul Brumer & Gregory D. Scholes, "Coherently wired light-harvesting in photosynthetic marine algae at ambient temperature", Nature 463, 644-647.

lunes, 8 de febrero de 2010

El Gran Colisionador de Hadrones vuelve en febrero

Trabajo en el nuevo sistema de protección del LHC. Créditos: CERN.

El Gran Colisionador de Hadrones (LHC) volverá a ponerse en marcha este mes en el Laboratorio Europeo de Física de Partículas (CERN) y estara en funcionamiento sin detenerse los próximos 18 ó 24 meses. Luego se suspendera su actividad y volvera a operar durante un largo lapso de tiempo a un nivel mayor de energía. Esa fue la decisión  de los responsables del LHC, fruto de un encuentro realizado en semanas previas en Chamonix (Francia).

“La decisión más importante que hemos alcanzado es operar el LHC de 18 a 24 meses a una energía de colisión de 7 TeV (3,5 teraelectronvoltios por haz), y después haremos una larga parada para realizar todos los trabajos necesarios que nos permitan alcanzar la energía de colisión prevista en el LHC de 14 TeV en el siguiente período de funcionamiento”, narra Steve Myers, director de aceleradores y tecnologías del CERN, luego de la reunión de los científicos del LHC en Chamonix (Francia), donde cada año se celebra un encuentro.

“Esto significa” -continua Myers- “que cuando los haces vuelvan a circular este mes por el LHC entraremos en la fase más larga de operación del acelerador en la historia del CERN, que nos va llevar hasta el verano u otoño de 2011″.

El director comenta que en un comunicado del LHC, se explicaba cuando se detuvo su actividad a finales de 2009, por ser diferente a cualquier máquina anterior del CERN: “Es una instalación criogénica, cada fase está acompañada por largas fases de enfriamiento y calentamiento y, por esa razón, el modelo operativo tradicional del CERN de ‘funcionamiento durante el verano y parada en invierno’ ya se había puesto en duda”.

Además, los responsables del gran acelerador de partículas reconocen la necesidad de preparar la máquina para funcionar con energías de colisión “significativamente más altas” a los 7 TeV que habían seleccionado para la primera etapa del proyecto.

Los últimos datos de los técnicos indicaban que, aunque se puede explotar el LHC a 7 TeV sin riesgos para la máquina, si se opera a más energía se requiere un trabajo mayor en el enorme túnel. De esta forma se ha tenido que elegir: funcionar durante unos pocos meses y programar sucesivas paradas cortas para incrementar la energía, u operar durante un periodo largo y programar una sola parada también larga antes de alcanzar los 14 TeV (7 TeV por haz). Los responsables del LHC han optado por la segunda posibilidad.

Myers concluye: “A la larga es la decisión correcta para el LHC y para los experimentos. Esto da al personal de la máquina el tiempo necesario para preparar cuidadosamente el trabajo necesario antes de permitir los 14 TeV. Y para los experimentos, los 18 ó 24 meses aportarán datos suficientes de todas las áreas de descubrimiento potenciales para posicionar firmemente al LHC como la instalación más importante del mundo en física de partículas de alta energía”.

Referencia

"El LHC funcionará sin parar al menos 18 meses" en SINC.

viernes, 5 de febrero de 2010

Teletransportación de energía

En un inicio fue la teletransportación de fotones, luego se logro con átomos e iones. Recientemente un físico ha logrado realizarlo con energía, una técnica con un enorme potencial e implicaciones en el desarrollo venidero de la física. Fue hace sólo 17 años, en 1993 cuando Charlie Bennett del Centro de Investigación Watson de IBM, quien junto a colegas lograron transmitir información cuántica desde un punto del espacio hasta otro sin atravesar el espacio que había entre los puntos.

Para lograrlo parten de un fenómeno peculiar de la física cuántica conocido como entrelazamiento, en el cual dos partículas comparten la misma existencia. La profunda conexión hace que hay entre ambas, hace que a medida que se actúa sobre una partícula se afecta de forma inmediata y con la misma intensidad a la otra, pese a que estén separadas inclusive a millones de años luz. Bennet y su equipo descubrieron como podía emplearse el fenómeno para enviar información, (la influencia entre partículas puede ser inmediata pero el proceso no viola la relatividad porque parte de la información tiene que enviarse de forma clásica a la velocidad de la luz); la técnica fue llamada teletransporte.


Dado que las partículas cuánticas no se pueden identificar a excepción de la información que llevan, no es necesario trasportarlas. Resulta sencillo enviar la información que poseen y asegurar que hay un subministro de partículas en el otro extremo para preservar su identidad. Tal premisa ha servido a científicos desde entonces para teletransportar fotones, átomos e iones. En este sentido resulta previsible pensar en que en un futuro sea posible enviar partículas o más aún virus.

Masahiro Hotta de la Universidad Tohoku en Japón tuvo una idea aún más inusual ¿por qué no partir del mismo principio cuántico para teletransportar energía?

Basándose en artículos publicados en el 2009, Hota describió sus ideas y las implicaciones de ellas. Teletransportar requiere la medición de las partículas enlazadas. La medida de la primera partícula inyecta energía cuántica en el sistema. De tal forma que eligiendo apropiadamente la medida a realizar en la segunda partícula, es posible extraerla la energía original.

Lo cual es posible debido a las fluctuaciones cuánticas que tiene cualquier partícula. En el proceso de teltransporte es posible inyectar energía cuántica en un punto del Universo y emplear la fluctuación de energía para extraerla en otro punto. Y más importante aún, sin que la energía en el sistema global cambie.

Como ejemplo de esto, se puede considerar una cadena de iones que oscilan de atrás hacia adelante en una trampa de campo eléctrico, muy similar a las bolas de Newton. Medir el estado del primer ión inyecta energía en el sistema en forma de fonón, una oscilación cuántica. Hotta argumenta que realizando tal medida en el último ión, se puede extraer la energía. Ya que puede lograrse a la velocidad de la luz (en teoría), el fonón no viaja a través de los iones intermedios por lo que no hay calentamiento en tales iones. La energía se transmite a través del espacio sin viajar. Logrando así el teletransporte.

Hotta asegura que el proceso de teletransporte de energía tendrá repercusiones en la física, explorando la relación entre la información cuántica y la energía cuántica. Debido a que hay cada vez más atención en el supuesto de que las propiedades que posee el Universo, se describen mejor empleando las leyes que rigen la información. Lo cual parece ser cierto para el mundo cuántico, verídico también para la relatividad espacial, pero que aún se estudia con la relatividad general. De existir una forma única de manejar la energía podría hacer posible que se unan las tres ramas en una sola.

Referencia:

Masahiro Hotta, "Energy-Entanglement Relation for Quantum Energy Teleportation", en ArXIv.

lunes, 1 de febrero de 2010

Walter J. Levy y otros fraudes de la parapsicología

Walter J. Levy, director del Laboratorio de Parapsicología de Durham (EEUU), era considerado como uno de los mejores parapsicólogos del momento. Durante cinco años logró resultados positivos estudiando los poderes psicoquinéticos de ratas, un supuesto de la parapsicología que argumenta que con la mente es posible alterar el espacio y la materia. Fue hasta 1974 cuando los investigadores Levin, Davis y Kennedy quienes descubrieron que Levy había alterado los resultados.

Investigaciones del psicólogo británico Samuel G. Soal y del psiquico Basil Shackleton demostraron la prueba definitiva de la existencia de la percepción extrasensorial mediante experimentos en los que se adivinaban de forma anticipada las cartas que habrían de salir en 1978, sin embargo la estadística Bety Markwick demostró que Soal también había falseado los resultados.

Del mismo modo que Soal y Levy, el parapsicólogo W. H. C. Tenhaeff y Gérard Croiset mostraron que con el uso de psiquicos podían resolverse casos criminales, Croiset empleaba poderes psiquicos para resolver casos de asesinatos y de personas desaparecidas, valiéndose tan sólo de tener en sus manos una prenda de la persona. Croiset llego a afirmar el haber podido resolver un gran número de de crimenes y desapariciones desde 1940 hasta su muerte en 1980.  Lo cierto es que Croiset junto a Tenhaeff  se basaban en afirmaciones vagas y en muchos casos falsas. Más adelante, en 1981 el periodista holandés Piet Hein Hoebens mostró que Tenhaeff elaboraba dos versiones de los hechos: la primera era la que más se acercaba a la realidad pero poco convicente que elaboraba con Croiset para Holanda y una de forma tan exagerada que se difundía en el extranjero.

Durante la década de los 60's Nina Kulagina promovía la Percepción Dermoóptica, que no era más que la capacidad de ver a través de las yemas de los dedos argumentando que los dedos poseen terminaciones nerviosas hechas para este fin. Para demostrarlo se colocaba una venda en los ojos, pudiendo distinguir colores, dibujos, incluso podía leer. Pero su truco no era más que una vieja treta de ilusionistas; usaba la visualización nasal. Cualquier persona que se coloque una venda podrá darse cuenta que es posible ver y de manera perfecta a través de los dos orificios que la venda deja sobre la nariz. Por un momento parapsicólogos olvidaron que los mentalistas son capaces de ver con monedas colocadas sobre sus ojos, más adelante con algodones y finalmente también con una venda.

Kuda Bux, famoso por su visión de rayos X, causo asombro en magos y a extraños en condiciones de poca o nula visibilidad. Su fama llego a tal extremo que en una ocasión bailarinas se negaron a cambiarse porque Kuda estaba en el camerino de a lado. También Kuda asombró a mayorías con su truco de caminar sobre brasas de fuego, que fue refutado en 1930 por el Consejo para las Investigaciones Psíquicas de la Universidad de Londres quienes afirmaron que ni la fe ni poderes paranormales tenían que ver con el caminar sobre brasas de fuego y que tal secreto se basaba en la baja conductividad térmica de las maderas y el breve tiempo de contacto entre los pies y los carbones calientes; respecto a su vista de rayos X es otro ejemplo de la visualización nasal.


Las anteriores historias solo sirven para recordarnos en palabras del mago-mentalista John Booth: “No cometamos esa estupidez tan de moda de ver evidencia de fenómenos paranormales en lo que no podemos explicar”.

Referencias:
  • Savadell Miguel Ángel, "Fraude de laboratorio" en Ciencia de Pega.
  • Dennis Coon, Fundamentos de psicología, Editorial Cengage Learning Editores.

Related Posts Plugin for WordPress, Blogger...