viernes, 27 de abril de 2012

Marvel Comics "Avengers #1 (Vengadores)"

The Avengers #1 (Septiembre de 1963). Portada de Jack Kirby y Dick Ayers.
El primer número de Avengers se publicó en Septiembre de 1993, fue escrito por Stan Lee y fue para muchos una forma de contraatacar a DC Comics quien había lanzado La Liga de la Justicia años atrás reuniendo a los principales héroes de esa casa editorial.

Basados en la misma premisa Marvel reunió a los principales superhéroes de su casa en un arco argumental donde Thor es engañado por Loki para llevarlo a una trampa en la isla del Silencio, causando un accidente de tren en el cual es inculpado Hulk.

Rick Jones tratando de ayudar a su amigo busca contactar a los Cuatro fantásticos antes de que el ejercito encuentre a Hulk. Sin embargo Loki desvía su señal de radio que es escuchada por Thor, Iron Man, Avispa y el Hombre Hormiga. En la sede de la Brigada Juvenil los superhéroes son debidamente enterados de todos los pormenores.

Thor que sigue a un falso Hulk es guiado hasta la Isla del Silencio donde lo ataca Loki, meintrás los demás héroes buscan convencer a Hulk de que vuelva, el cual yace escondido en un circo haciendose pasar por un robot. Finalmente Thor vence Loki y por sugerencia de Avispa los demás superhéroes deciden formar Los Vengadores.

Aunque en números posteriores Hulk abandonaría al grupo, Ant Man se volvería Giant Man y posteriormente Capitán América se uniría, el grupo de los Vengadores es uno de los más representativos en Marvel pese a que su alineación ha cambiado a lo largo de los años.

miércoles, 25 de abril de 2012

Ubuntu 12.04 LTS "Precise Pangolin"

El próximo 26 de abril estará disponible para descarga la nueva versión de Ubuntu, llamada "Precise Pangolin", la cual es una versión LTS, que se caracteriza por tener periodo más prolongado de mantenimiento y servicio.

Kernel


Ubuntu incluye el núcleo 3.2.0-17.27 basado en la rama de desarrollo 3.2.6 del núcleo de Linux estable. Tal rama de desarrollo se ha unido para ayudar a reducir la carga de mantenimiento durante la vida de esta versión LTS. AUFS también permanece desactivado en el kernel. Cualquier persona que necesite AUFS se animará a emigrar a overlayfs.

Se ha permitido también por defecto RC6 para los sistemas Sandy Bridge. RC6 es una tecnología que permite a la GPU entrar en un estado de consumo de energía muy bajo cuando la GPU está inactiva (por debajo de 0 W). Esto resulta en un ahorro de energía considerable cuando se activa. Al comparar con cargas de máquinas donde RC6 está desactivado, el consumo de energía mejora alrededor del 40 a 60%. Hasta hace poco, RC6 estaba deshabilitado por defecto para los sistemas Sandy Bridge debido a los informes de cuelgue y los problemas de corrupción de gráficos, cuando se habilitaba RC6. Intel ha afirmado que RC6p (RC6 deep) es responsable de las cuestiones relacionadas con RC6 en Sandy Bridge y los parches correspondientes se han presentado para solucionar problema. En un esfuerzo por proporcionar una mayor exposición y pruebas, el equipo del kernel de Ubuntu ha aplicado estos parches a la versión de desarrollo del núcleo y además ha permitido RC6 normal por defecto en los sistemas Sandy Bridge para que los usuarios puedan beneficiarse de los ahorros de energía de forma predeterminada.

Escritorio de Ubuntu

Nuevas aplicaciones y valores predeterminados

El reproductor de música por defecto se ha cambiado a Rhythmbox, que a su vez incluye la tienda de música UbuntuOne.

LibreOffice ha sido actualizado a la 3.5.

Gnome 

Ubuntu incorporá la versión 3.4 de Gnome (aunque algunas aplicaciones se mantendrán en la versión 3.2, como Totem para mantener la estabilidad).

Actualizaciones de la interfaz

La configuración de "Apariencia" permite ahora a los usuarios configurar fácilmente algunas de las propiedades de la Unity.

La lista de tareas rápidas de Nautilus ha sido añadido a los lanzadores de Unity.

Hay una nueva forma de buscar y acceder rápidamente a cualquier aplicación y menú, llamado "HUD". Presione la tecla Alt y escriba algunas letras y palabras, enseguida se mostrarán las entradas correspondientes, con algunas coincidencias aproximadas. Presione Intro para ejecutar la acción.  También aprende de las búsquedas anteriores para hacer la búsqueda más precisa.


Apoyo para ClickPad 

Dispositivos Click Pad son trackpads que integran un botón físico en la superficie del trackpad. Ubuntu Precise ahora ha mejorado el soporte para estos dispositivos. Cuando se pulsa el botón en un dispositivo ClickPad, un segundo dedo puede ser utilizado para arrastrar el cursor.
  • Click Pad requiere modificaciones adicionales para no entrar en conflicto con "Acciones de clics". Acciones de clics permite acciones separadas, cuando varios dedos están activos en un trackpad. La configuración por defecto de Ubuntu habilita la función de botón derecho cuando dos dedos están en contacto con la superficie del trackpad y el botón del trackpad físico se presiona. Debido a la conducta conflictiva, los dispositivos no son compatibles con Acciones de clics en esta versión.
  • La mayoría de Click Pads son soportados. Los de Apple MacBook se reconocen. Soporte para Apple trackpad Magic y más Click Pads marca Synaptics continuará en la próxima versión.

Ubuntu One

Todo un nuevo Panel de Control que proporciona la posibilidad de añadir o quitar carpetas para sincronizar. Si esta actualizando desde una versión anterior de Ubuntu es probable que tenga que instalar manualmente el paquete ubuntuone-panel de control-qt.

Ubuntu One Music Store está de vuelta en Rhythmbox

El soporte de proxy, no es completamente funcional, pero se espera que este listo en la versión definitiva.

Otros

  • Hasta Ubuntu 11.10, se podía acceder a privilegios de administradores a través de grupos de usuarios. A partir de Ubuntu 12.04 LTS, ahora es sudo, para la compatibilidad con Debian y tener también privilegios de de superusuario. Sin embargo, tomando como referencia la compatibilidad hacia atrás, los miembros del del grupo de administradores aún se reconocen como administradores.
  • Informes automáticos de incidentes. Apport ha sido activado por defecto de nuevo para detectar los problemas desde el principio. Ahora comprueba si hay duplicados en el cliente, lo que evitará la carga de datos de depuración y la creación de informes de error para Launchpad.
  • Al instalar un nuevo software a través del Centro de software, se agregan de forma autómcatica los paquetes de soporte de idioma correspondientes (traducciones, revisión de ortografía, archivos de ayuda, etc). Esto elimina la necesidad de abrir "Soporte de idiomas" después de instalar nuevo software.
  • pm-utils ahora tiene dos nuevos opciones para detener dispositivos USB y varios dispositivos PCI en el modo de batería. Una serie de paquetes de escritorio se fijaron para iniciar con menos frecuencia. Ambos reducen el consumo de energía y la duración de la batería.
  • resolvconf ahora se utiliza para gestionar el archivo / etc / resolv.conf en todos los sistemas de Ubuntu. Para los sistemas que utilizan Administrador de red mediante DNS se hace ahora a través de dnsmasq, que debería ayudar a dividir DNS-VPNs más rápido.

Novedades en Kubuntu


Telepathy-KDE  se pone al día en mensajería instantánea para poder conversar a través de las redes de Facebook, MSN, Gmail y muchos otros servicios.

El tema Oxígeno hace que el software con el nuevo kit de GTK3 se acople con el resto de software de KDE.

Owncloud 3 está disponible como una manera fácil de proporcionar sus propios servicios en la nube para el almacenamiento, música, fotos y mucho más.

LightDM se ofrece de forma experimental como gestor de inicio que proporciona hasta el momento funciones como la selección de idioma para los usuarios de escritorio Plasma.

Lo nuevos programas de paquetería para oficina como Calligra y Creativity Suite están disponible, así también Krita se puede considerar la mejor aplicación para la pintura.

Descarga


Se puede descargar Ubuntu mediante las siguientes opciones:

También existen las siguientes posibilidades:

lunes, 23 de abril de 2012

El lenguaje corporal es más fuerte que las expresiones

Sin señales corporales, es difícil saber si estas imágenes de campeones de tenis son ganadores o perdedores. Crédito:. Aviezer H. et al, Science.

En el programa Extreme Makeover: Home Edition, el afortunado receptor recibe un primer vistazo a su casa recién remodelada. Por una fracción de segundo, su rostro se contorsiona. Durante intensas experiencias emocionales, hay un momento fugaz en que las expresiones de placer y dolor son difíciles de distinguir. De hecho, las personas leen una intensa emoción con mayor eficacia observando el lenguaje corporal de una persona que al ver sus expresiones faciales, sugiere un estudio reciente.

La mayoría de los estudios de expresiones faciales se basan en un conjunto de expresiones -quizá estilizadas-, realizadas con actores reconocibles en las fotografías. Los actores hacen expresiones destinadas a ser bastante obvias para traducir en todas las culturas: ira, asco, miedo, alegría, tristeza y sorpresa. Pero estas imágenes estilizadas no necesariamente reflejan las expresiones que las personas perciben en el mundo real, explica Aviezer Hillel, neuropsicólogo que ahora trabaja en la Universidad Hebrea de Jerusalén y autor principal del nuevo estudio, publicado Science. Por otra parte, cuando las emociones que se consiguen son particularmente extremas, personas sometidas a picos fugaces de intenso dolor, alegría, tristeza, enojo adoptan un aspecto sorprendentemente similar, explica Aviezer. Tomando en cuenta el rostro, por lo menos, "cuando se compara el dolor extremo a extremo placer, usted realmente no puede distinguirlos", reitera.

Y sin embargo, la mayoría de las personas rara vez confunden si alguien está experimentando dolor o alegría. Para averiguar qué nos disuade, Aviezer y sus colegas mostraron fotos de los jugadores de tenis profesionales a 45 estudiantes de la Universidad de Princeton, divididos aleatoriamente en tres grupos de 15. Cada tenista había ganado o perdido un partido importante, y los participantes calificaron a los jugadores expresiones faciales contorsionadas de negativo a positivo en una escala de 1 a 9, con un 5 que marca el punto medio neutral. Un grupo de participantes miraron fotografías de cuerpo completo de los jugadores, el segundo grupo sólo miro los cuerpos de los jugadores, y el tercer grupo observo sólo sus cabezas. Sólo el último grupo tuvo problemas para hacer la correcta identificación, lo que sugiere que las expresiones faciales solas no les dijo si los jugadores estaban alegres o en la desesperación.

Con la ayuda de un software de edición de fotos, el equipo cambió las cabezas de los jugadores ganadores con las de los perdedores. Para evitar que los participantes se dieran cuenta de la trampa, se barajaron fotos trucadas con imágenes similares. Los participantes siguieron marcando como ganadores o perdedores de acuerdo con la postura de los jugadores, no sus expresiones faciales. En las entrevistas realizadas después del estudio, los investigadores descubrieron que las señales tales como si una mano estaba abierta o cerrada eran más importantes que las señales faciales en la interpretación de las expresiones. Sin embargo, en un experimento separado que pidió a 20 participantes que declararan si utilizaban el lenguaje corporal, expresiones faciales, o ambas cosas para evaluar una emoción, el 80% creía que podía juzgar las fotos de todo el cuerpo solamente mediante la expresión facial, explica Aviezer. Este resultado pone de manifiesto nuestro sesgo hacia la cara, y el poco crédito que ofrece como lenguaje corporal de crédito.

Para ver si los gestos corporales son más expresivo en otros contextos, los investigadores realizaron un experimento similar con fotografías de personas en otras situaciones de alta intensidad: el llanto en los funerales, ganando premios extravagantes en reality shows, ganando los partidos de tenis, perforando sus pezones y oídos, y teniendo orgasmos. Una vez más, sin el lenguaje corporal para proporcionar el contexto, los espectadores luchaban para leer correctamente las expresiones faciales. En, realidad, las caras aisladas que muestran emociones positivas son más fáciles de percibir que las negativamente.

Sin embargo David Matsumoto, psicólogo de la Universidad Estatal de San Francisco en California, tiene sus dudas acerca de las técnicas de Aviezer para clasificar las emociones. Por ejemplo, él dice, que su propia investigación sugiere que la cara hecha por los deportistas cuando ganan es una señal de dominio competitivo, no necesariamente es una emoción "positiva".

Los resultados podrían ayudar a las personas que tienen dificultades para reconocer las expresiones faciales, reitera Aviezer. "Tal vez deberíamos alejar la imagen de las caras aisladas cuando enseñamos a las personas a leer emociones." En primer lugar, mira lo que está sucediendo en el entorno, explica, "y luego mira el cuerpo. Entonces, puedes observar la cara".

Referencia:

jueves, 19 de abril de 2012

Diversos historiadores han concluido que la primera esposa de Einstein, Mileva, pudo haber contribuido en secreto a su trabajo. Ahora un nuevo análisis trata de resolver el asunto. Créditos: arXiv Blog.


En finales de la década de 1980, el físico estadounidense Evan Harris Walker publicó un artículo en Physics Today en el que indicaba que la primer esposa de Einstein, Mileva Maric, fue coautora no reconocida de su artículo de 1905 sobre la relatividad espacial.

La idea genero una considerable controversia en el momento, aunque la mayoría de los físicos y los historiadores de la ciencia la han rechazada.

Hoy en día, Galina Weinstein, profesor de intercambio en el Centro de Estudios de Einstein en la Universidad de Boston, espera resolver el asunto con un nuevo análisis.

La historia comienza después de la muerte de Einstein en 1955, cuando el físico soviético Abram Joffe Fedorovich describió algunas de correspondencia que tuvo con Einstein a inicios de sus carreras en un artículo publicado en ruso.

Joffe le preguntó a Einstein sobre una pre-impresión de algunos de sus estudios y escribió: "El autor de estos artículos, una persona desconocida en ese momento, es un burócrata en la Oficina de Patentes en Berna, de apellido Einstein-Marity". (Marity el apellido de soltera de su esposa , que por costumbre suiza, se le añade al nombre de la familia del marido, Marity es también una variante húngara de Maric).

Las teorías de conspiración inician a partir de esta referencia a Einstein como Einstein-Marity, dice Weinstein. El resultado fue una maraña cada vez más compleja de malentendidos deliberados o accidentales.

El problema parece haber comenzado con un escritor de ciencia popular rusa llamada Daniil Semenvich Danin, que interpretó a Joffe en sentido de que Einstein y Maric colaboraron en el trabajo. Lo que se transformó en la idea de que Maric había sido originalmente un co-autora en el papel de 1905, pero su nombre fue eliminado de la versión final de la publicación.

Esta es una mala interpretación, indica Weinstein.

Walker sin embargo volvió a encender la polémica en su artículo de hoy en Physics. Él sugiere que Einstein pudo haber robado las ideas de su esposa.

Surge entonces otra línea interesante para los teóricos de la conspiración. Los historiadores que han traducido las cartas entre Einstein y Maric en inglés, han realizado un análisis detallado de su relación. En una de estas cartas se incluye la frase: "llevar nuestro trabajo sobre el movimiento relativo a una conclusión exitosa". Lo que parece respaldar la idea de que la pareja estaba colaborando.

Sin embargo, Weinstein ha analizado con detalle las letras y dice que dos líneas de evidencia no indican que esto sea probable. En primer lugar, las cartas de Einstein están llenas de sus ideas sobre la física, mientras que las cartas de Maric no contienen nada, lo que sugiere que la estaba utilizando como caja de resonancia en lugar de un colaborador.

En segundo lugar, Maric no fue una física o matemática con talento. No presento exámenes finales y nunca obtuvo una diploma.

Weinstein afirma que Maric no podía por lo tanto, haber hecho una contribución significativa y cita a otro historiador sobre el tema diciendo que, si bien no hay evidencia de que Maric estaba dotada matemáticamente, existe alguna evidencia que muestra que no lo estaba.

Sin embargo hay una mosca en la sopa. Maric y Einstein se divorciaron en 1919, pero como parte del acuerdo de divorcio, Einstein aceptó pagar a su ex esposa cada corona de cualquier futuro Premio Nobel que pudiera obtener.

Weinstein sugiere que todo el mundo sabía que Einstein estaba a punto de ganar el premio y que en el medio ambiente de la posguerra en Alemania, se trataba de una solicitud natural de una esposa que no quería el divorcio y que estaba sufriendo de depresión.

Walker, por su parte, añade: "Me resulta difícil resistirse a la conclusión de que Mileva, justa o injustamente, vio su recompensa por el papel que había desempeñado en el desarrollo de la teoría de la relatividad".

Sin más pruebas, es difícil saber lo que es cierto. Pero hay sin duda la suficiente incertidumbre sobre lo que realmente sucedió para mantener las llamas de la conspiración un poco más de tiempo.

Referencia:

viernes, 13 de abril de 2012

Inteligencia artificial a un paso de superar la prueba de Turing

Monumento en honor a Alan Turing en Bletchley Park, el sitio donde Turing logro descifrar mensajes durante la Segunda Guerra Mundial. Créditos: Jon Callas/Flickr.

Cien años después de que Alan Turing naciera, la prueba que lleva su nombre sigue siendo un punto de referencia difícil de alcanzar para la inteligencia artificial (IA). Pero ahora, por primera vez en décadas, es posible imaginar a una máquina que supere la prueba.

Turing fue uno de los grandes matemáticos del siglo 20, un arquitecto conceptual de la computación moderna, cuyo labor de descifrado jugo un papel decisivo en la Segunda Guerra Mundial . Su prueba, propuesta en los primeros de la computación, es aparentemente simple: si una máquina se podía hacer pasar por humano en una conversación, la máquina podría ser considerada inteligente.

Inteligencias artificiales ahora son ubicuas, están en sistemas de navegación GPS, en algoritmos de Google para el servicio al cliente automatizado y en Siri de Apple, por no hablar de Deep Blue y Watson - pero ninguna máquina ha cumplió con el estándar de Turing-. La búsqueda para hacerlo, sin embargo y las líneas de investigación inspiradas por el desafío general de modelado del pensamiento humano, han influido profundamente en ambos equipo y en la ciencia cognitiva.

No hay razón para creer que las primera líneas de código para la primera máquina inteligente ya se han escrito.

"Dos de los avances revolucionarios en la tecnología de la información pueden llevar a la jubilación de la prueba de Turing", escribió Robert French, científico cognitivo en el French National Center for Scientific Research (Centro Nacional Francés de Investigación Científica), en un ensayo para Science. "El primer avance es la disponibilidad de grandes cantidades de datos en bruto - a partir de alimentaciones en vídeo es posible completar los ambientes de sonido, y empleando conversaciones informales se proporcionan los documentos técnicos sobre cualquier tema imaginable. El segundo es el advenimiento de técnicas sofisticadas para la recogida, organización y procesamiento de esta rica colección de datos".

"¿Es posible crear algo similar a la red cognitiva de bajo nivel de asociación que tenemos? Es lo que estamos experimentando ¿Es tan imposible?" añade French.

Cuando Turing propuso por primera vez la prueba -inspirado en un juego de sociedad en la que los participantes trataban de engañar a los jueces acerca de su género, Turing fue cruelmente perseguido por su homosexualidad- la idea de una red cognitiva de bajo nivel de asociación no existía. La idea de replicar el pensamiento humano, sin embargo, parecía muy posible, incluso relativamente fácil.

La mente humana se pensaba era lógica. Computadoras ejecutan comandos lógicos. Por lo tanto nuestro cerebro debía ser similar a una computadora. Los científicos en computación sostenían que al cabo de una década, tal vez dos, una persona involucrada en una conversación con otros dos participantes ocultos, una computadora y un ser humano, sería incapaz de distinguirlos de forma fiable.

Esa idea simplista resultó infundada. La cognición es mucho más complicada de lo que se considero a mitad del siglo veinte tanto para científicos informáticos o psicólogos y la lógica es lamentablemente insuficiente en la descripción de nuestros pensamientos. Una tarea aparentemente humana resultó ser una tarea insuperablemente difícil, basándose en las capacidades humanas anteriormente menospreciadas para integrar diferentes partes de la información en un entorno que cambia rápidamente.

"La lógica simbólica por sí misma es demasiado frágil para dar cuenta de la incertidumbre", explica Noah Goodman, un científico informático de la Universidad de Stanford, que modela la inteligencia de las máquinas. Sin embargo, "fue el fracaso de lo que ahora llamamos la antigua IA muy instructiva. Esto condujo a cambios en la forma en que pensamos acerca de la mente humana. Muchas de las cosas más importantes han ocurrido en la ciencia cognitiva "surgió de estas dudas, añade.



A mediados de 1980, la prueba de Turing había sido abandonado en gran medida como un objetivo de la investigación (a pesar de que sobrevive hoy en día en el premio anual Loebner para chatbots realistas y por un momento la lucha contra bots realistas de publicidad son una característica regular de la vida en línea). Sin embargo, ayudó a engendrar los dos temas dominantes de la cognición y la inteligencia artificial moderna : el cálculo de probabilidades y la producción de un comportamiento complejo basado en la interacción de muchos procesos simples y pequeños.

A diferencia de los enfoques de la fuerza de los llamados irracionales de cómputo que se ven en programas como Deep Blue, el ordenador que derrotó al campeón de ajedrez Garry Kasparov , se consideran un reflejo exacto de por lo menos algo de lo que ocurre en el pensamiento humano.

A partir de ahora, los llamados métodos probabilísticos y conexionistas informan a muchos en el mundo real las inteligencias artificiales: los automóviles autónomos, las búsquedas de Google, la traducción de idiomas automatizado, el programa desarrollado por IBM Watson que domino en Jeopardy . Pero que siguen siguen siendo limitados en su alcance -"Si usted dice: Watson, hazme la cena, o Watson, escribe un soneto, explota", describe Goodman-, pero plantean la posibilidad de su aplicación en conjuntos de datos sin precedentes, grandes, detallados.

"Supongamos, por un momento, que todas las palabras que has hablado, oído, escrito, o leido, así como todas las escenas visuales y todos los sonidos que has experimentado alguna vez, se registraran y fueran accesibles, junto con datos similares para los cientos de miles, incluso millones, de personas. En última instancia, los sensores táctiles y olfativos también se podrían agregar para completar este registro de la experiencia sensorial a través del tiempo", escribió French en Science, con un guiño a la investigadora del MIT Deb Roy quien ha realizado 200.000 horas de grabaciones sobre el desarrollo de su hijo recién nacido .

Y añadió: "Supongamos también que existe el software para catalogar, analizar, relacionar todo este mar de datos. Estos datos y la capacidad para analizar adecuadamente podría permitir a un equipo hasta ahora para responder a las preguntas sin respuesta por ordenador", e incluso pasar una prueba de Turing.

El experto en inteligencia artificial Satinder Singh de la Universidad de Michigan fue cautelosamente optimista sobre las perspectivas que ofrecen los datos. "¿Estos grandes volúmenes de datos van a ser la fuente de construcción de una inteligencia flexible competente? Tal vez", responde.

"Sin embargo, todo tipo de preguntas que no han sido estudiadas se vuelven importantes en este momento. Lo que es útil para recordar ¿Qué es útil predecir? Si usted pone un niño en una habitación y le permitirá pasear sin ningún tipo de tarea, ¿por qué hacer lo que hace?", Continua Singh "Todos estos tipos de preguntas se hacen muy interesante".

"Para que sea amplia y flexible además de competente, uno tiene que tener las motivaciones, curiosidades y averiguar lo que es importante", añade ."Estos son grandes desafíos".

En caso de una máquina que pretende pasar la prueba de Turing, cumpliría un deseo humano, que es anterior a la era de las computadoras, que se remonta al Frankenstein de Mary Shelley o incluso a los golems de la Edad Media , explica el científico Carlos Gershenson, de la Universidad Nacional Autónoma de México. Pero no va a responder a una pregunta más fundamental.

"Va a ser difícil de lograr pero, ¿cuál es el propósito?", reitera Gershenson.

Referencia:

miércoles, 11 de abril de 2012

El incorrecto cielo estrellado del Titanic

Titanic. Créditos: 20th Century Fox
James Cameron presento en 1997 la película "Titanic", la cual luego de ser ser reeditada sera presentada en 3D para conmemorar el centenario del hundimiento del trasatlántico el 15 de abril de 1912. Aunque pocos cambios se han hecho en la película en sí, hay un pellizco que impresionará a los astrónomos.

El cambio promovido por un "sarcástico" mensaje producto del astrofísico y divulgador de ciencias Neil deGrasse Tyson, - quien es famoso por un meme-,  hizó que Cameron  realizará correcciones en el campo de estrellas que estaba incorrecto y que fue usado durante una de las escenas más famosas de la película.

"Neil deGrasse Tyson me envió un correo electrónico bastante sarcástico diciendo, que en esa época del año, en esa posición en el Atlántico en 1912, cuando Rose (Kate Winslet) se encuentra sobre la tabla mirando las estrellas, no corresponde al campo de estrellas que ella hubiera visto", explica Cameron.

"Y con mi reputación de perfeccionista, debería haber sabido eso y debería haber puesto el campo de estrellas al fondo a la derecha, así que dije: 'Muy bien, que me envíen las estrellas adecuadas para que la hora exacta y lo voy a poner en la película'".

De acuerdo al Telegraph, Tyson lo logro e hizo que el campo de estrellas correcto se haya incluido en la reedición.



Tyson ha expuesto en varias ocasiones su punto de vista sobre "Titanic" y durante una mesa redonda en St. Petersburg College, Florida, en 2009, detallo el problema con la película, justo después de la escena en la que Jack (Leonardo DiCaprio) se ha ahogado y Rose esta delirando a la deriva:

"No está mirando hacia arriba pero se muestra el cielo que esta en esa posición...de la izquierda a la mitad es un reflejo del cielo que se encuentra de la mitad a la derecha, no sólo esta mal sino que es reflejo de la pereza".

No es que "Titanic" sea una película científicamente inexacta, por el contrario, considera Tyson. Fue el hecho de que Cameron era tan detallista que incluso envió un sumergible hasta los restos del naufragio del Titanic real, para estudiar los detalles precisos de la decoración de la nave. Todo se repitió, pero estropear algo tan básico como el cielo nocturno es lo que frustra a Tyson.

Obviamente, esto es generalmente un argumento divertido. A menos que sea un astrónomo, es probable que no se haya dado cuenta del campo de estrellas incorrecto. Sin embargo, Tyson ha planteado una cuestión muy importante. (Aunque, como detalla en el video, la respuesta de Cameron al mensaje de Tyson es totalmente válido y bastante divertido).

¡Despierta y huele la Ciencia, Hollywood!

Los cineastas tienen que ser conscientes del rigor científico en sus creaciones. En 2010 la Asociación Americana para el Avance de la Ciencia (AAAS), en una sesión celebrada en San Diego, organizada por The Science and Entertainment Exchange, se acordó que si bien no cualquier película necesita ser científicamente correcta para ser entretenida, algunos de los películas más memorables son científicamente correctas.

Los miembros de The Science and Entertainment Exchange no están siendo cascarrabias, están simplemente expresando una preocupación genuina de la presentación de una falsa ciencia en el cine como un hecho - al igual que los neutrinos asesinos de "2012" o las tontas llamaradas solares de "Knowing" - hacen más daño que bien. La verdadera ciencia no debe ser una opción, y en su mayor parte, un asesor científico en el set es probablemente una buena idea.

Cameron por lo general hace un buen trabajo con la ciencia en sus películas (aunque las montañas flotantes de "Avatar" requieren una cierta suspensión grave de incredulidad, pero bueno, no era una ciencia ficción seria) y esta inclusión más reciente del campo de estrellas correcta de Tyson en el "Titanic" en su nueva edición, muestra que no está dispuesto a renunciar a ser un perfeccionista en corto plazo.

Referencia:

domingo, 8 de abril de 2012

Los saltos evolutivos más importantes

Nature colors. Créditos: Luis Alves / Flickr.
Dentro de la evolución, varias han sido las características que han permitido el aumento de biodiversidad. Si bien es cierto que tales características fueron apareciendo de forma gradual, es complicado considerarlas como lineales, no obstante a continuación aparecen ordenadas de forma cronológica:

La copia de ADN

En una bacteria actual el error en la copia de ADn sucede cada 10e10 generaciones. Tal proporción entre mutaciones y copia fil permite la aparición de adaptaciones pero limita que se acumulen de forma gradual errores que acabarían con una especie. El mecanismo detrás de este proceso se conoce como ADN polimerasa que permite la copia fiel de miles de bases de ADN antes de cometer un error. En células eucariota existen mecanismos de revisión que evitan surjan errores.

Mecanismos de locomoción

La paradoja entre esperar la comida o ir por ella supone la aparición del flagelo. Pese a que las bacterias desarrollaron cilios para poder desplacerse pero en el fondo están limitados por fuerzas que rigen el movimiento browniano.El flagelo permite una mejora en su desplazamiento para poder colonizar nuevos entornos o en su defecto escapar de amenazas.

Fotoreceptores

La capacidad de reconocer la luz supone el acceso a alimentos como también ser una guía para el movimiento. Más importante aún permite la fotosíntesis y la visión. Los fotoreceptores actuan basados en pigmentos capaces de excitarse con la luz y transmitir dicho estado a una proteína.

Por su parte la aparición de organismos autótrofos es uno de los momentos evolutivos con mayor importancia, permite a los organismos elaborar compuestos orgánicos a partir de inorgánicos. Tal reacción que requiere de energía que proviene del calor, la luz o la degradación de compuestos.

El ciclo de Krebs y la respiración oxidativa

La aparición de la fotosíntesis tuvo como consecuencia la formación de oxígeno. Una molécula que ahora no representa peligro alguno pero no fue así cuando apareció para los seres vivos adaptados a ambiente sin oxígeno. El oxígeno tiene la capacidad de oxidar el oxígeno, proteínas e interferir en las reacciones de las bacterias que predominaban en esa época. Las especies que comenzaban a producir oxígeno desarrollaron mecanismos para desactivar el oxigeno, como usar protones y electrones para formar agua. El uso de azucares por parte del metabolismo en el Ciclo de Krebs aunado a un complejo sistema de transporte de electrones ha permitido usar al máximo la energía de los compuestos orgánicos.

Células eucariotas

Complejo como la aparición de la vida es el surgimiento de la célula eucariota. Como Margullis llego a considerar es posible que los organismos eucariotas provengan de la simbiosis de varios tipos de bacterias, una hipótesis que ha logrado sólida evidencia a raíz de análisis genéticos, pero que sigue siendo un misterio para definir con exactitud la aparición de organismos con núcleo celular y organelos. Uno de los grandes avances es que cada organelo en una célula tiene un lugar bien definido. Las reacciones químicas requieren un espacio específico que es incompatible con otras reacciones.

Otro aspecto de las células eucariotas es la mitosis que produce células hijas, aunque no iguales: una contiene más deshechos que la otra, concentraciones diferentes de proteínas o falta de un componente. Lo cual podría ser evidencia de una especialización celular, tal proceso que ocurre en bacterias, levaduras o algas muestra como los individuos se especializan en ciertas funciones de acuerdo a su localización dentro de una colonia. En consecuencia la especialización dentro de una colonia representa una mayor eficiencia, pero es sólo un paso hacia células especializadas como lo son neuronas o glóbulos rojos.

La reproducción sexual

Se sugiere que la reproducción sexual permite a los seres vivos una rápida adaptación al eliminar las mutaciones que perjudican y difundir las benéfica. Su surgimiento indica la hipótesis pudiera estar basado en la relación entre virus y algas o es el resultado colateral de duplicar el genoma para reducir los efectos de las mutaciones. En todo caso los seres vivos con reproducción sexual han diversificado y logrado una complejidad que los seres asexuales no han logrado.

Desarrollo embrionario

“Nada de lo que te ocurra en la vida te marcará tanto como la gastrulación“. Las indicaciones para poder formar un cuerpo de forma progresiva y sobre todo ordenada representan el salto entre medusas y gusanos al actual. Las instrucciones agrupadas en bloques o paquetes genéticos permiten una gran adaptabilidad. La gastrulación proceso importante dentro del desarrollo embrionario, que permite la formación de las tres capas de tejidos principales en un embrión. A primera vista no parece tan importante logro la especialización en organismos de tres dimensiones a diferencia de los gusanos que tienen una especialización dos dimensiones.

Sistema nervioso y el cerebro

Antes de la aparición del sistema nervioso las células se comunicaban mediante contactos con células vecinas y emitiendo señales similares a la hormonas. Lo importante en este proceso no está en la formación de una red sino en la centralización de una señal que en un futuro lograría la aparición del cerebro. El estudio de las redes neuronales se ha logrado con animales modelo, como el gusano C. elegans, del que se conoce su red formada por 302 neuronas.

La percepción del individuo

Hasta hace pocos años se consideraban que sólo los primates superiores poseían esta capacidad. Estudios recientes muestran que mamíferos como delfines o elefantes, incluso aves como la urraca poseen esta capacidad. Se especula que la percepción del individuo es la base de la conciencia del yo y del pensamiento racional.

viernes, 6 de abril de 2012

El Gran Colisionador de Hadrones (LHC) alcanza los 8 TeV, con lo que aumenta la probabilidad de que 2012 sea un año lleno de buenos resultados para la física. Créditos: CERN.
El Gran Colisionador de Hadrones (LHC) del CERN ha registrado un record mundial en generación de energía, al alcanzar 8 teraelectronvoltios (TeV) al lograr la colisión de dos haces de protones. Pese a que el aumento en la energía de la colisión es aún diminuto, representa un aumento en la probabilidad de descubrir o descartar ciertas el bosón de Higgs.

Desde este jueves en la mañana el Gran Colisionador de Hadrones (LHC) del Laboratorio Europeo de Energía Nuclear (CER) logro un record al lograr la colisión de dos haces de protones en cuatro puntos de interacción, generando 

El Gran Colisionador de Hadrones (LHC) del Laboratorio Europeo de Física Nuclear (CERN) ha alcanzado este jueves de madrugada un nuevo record mundial de generación de energía, después de que dos haces de protones colisionaran en cuatro puntos de interacción en el LHC, generando una energía récord de 8 teraelectronvoltios (TeV), informa el CERN en un comunicado.

Apenas seis semanas después de que haya vuelto al funcionamiento luego de una parada de mantenimiento, se considera que su potencial de descubrimiento se ha incrementado.

De acuerdo al director de Aceleradores y Tecnología del CERN, Steve Myers, "la experiencia de dos buenos años de circulación a 3,5 TeV por haz ha dado la confianza para incrementar la energía para este año sin riesgo importante para la máquina".

Pese a que el incremento de energía es modesto, representa un incremento sustancial para poder descubrir partículas hipóteticas. Algunas partículas descritas por el Modelo de Supersimetría podrían ser obtenidas mediante tal incremento en la energía usada.La supersimetría es una teoría en física de partículas que relaciona bosones y fermiones, siendo una pieza fundamental en la teoría de supercuerdas.

Oportunidad para el bosón de Higgs




Hasta el momento se ha especulado que se requiere niveles de energía mayores  a 8 TeV que a 7 TeV para descubrir el bosón de Higgs, por lo que se requiere al menos un año de funcionamiento del acelerador para lograr tal descubrimiento, pero el ruido de fondo que puede ser confundido con una señal Higgs aumentaría también, indica el CERN. En consecuencia se requiere un año completo de exploración para aumentar los índices prometedores observados en 2011 de un nuevo descubrimiento, o para excluir definitivamente el bosón de Higgs del Modelo estándar.

El bosón de Higgs es una hipotética partícula elemental masiva cuya existencia es predicha por el modelo estándar de la física de partículas. Desempeña un papel importante en la explicación del origen de la masa de otras partículas elementales, en particular la diferencia entre el fotón (sin masa) y los bosones W y Z (relativamente pesados).

Las partículas elementales con masa y la diferencia entre la interacción electromagnética (causada por los fotones) y la fuerza débil (causada por los bosones W y Z) son críticas en muchos aspectos de la estructura microscópica y macroscópica de la materia. Es así, que si la partícula existe, el bosón de Higgs tendría un enorme efecto en la física y el mundo de hoy.

Los bosones de Higgs llamado a veces la 'partícula de Dios' o 'partícula divina', surge a raíz del título de un libro de divulgación científica escrito por Leon Lederman, ganador del Nobel de Física en 1988.

“La clave de la recuperación de energía consiste en aumentar lo más posible el potencial de descubrimiento del LHC”, subraya Sergio Bertolucci, director de investigación en el CERN, “y en este aspecto, todo indica que 2012 será un gran año para la física de partículas.”

Está previsto que el LHC funcione hasta finales de 2012. Entonces comenzará la primera gran parada con la finalidad de preparar la máquina para una explotación a 6,5TeV por haces de protones a finales de 2014, siendo el objetivo final alcanzar progresivamente la energía nominal de 7TeV por haz.

Related Posts Plugin for WordPress, Blogger...