miércoles, 30 de julio de 2008

El gran colisionador de hadrones (LHC) IV: ATLAS

El colisionador de hadrones producirá seis experimentos, cada uno de ellos es distinto y se diferencia por su detector de partículas.

Los experimentos mayores, cuyo nombre son ATLAS y CMS están dotados con detectores multipropósito diseñados para analizar el mayor rango posible de partículas.

ATLAS

A Toroidal LHC ApparatuS (Aparato Toroidal LHC)


Desde el primer acelerador de partículas, llamado ciclotrón creado por Ernest O. Lawrence en 1931, los aceleradores de partículas; han aumentado en tamaño y energía para poder lograr partículas con masa cada vez mayor, a la par el conocimiento de partículas se ha ido acrecentando.

Cuando se produzca la colisión en el LHC, se prevé que se produzcan partículas diez veces más pesadas que las conocidas en la actualidad, pero no basta con producir las partículas es necesario también observarlas y es donde cobra importancia los detectores.

El detector ATLAS consta de una serie de cilindros que rodean el punto donde se produce la colisión de haces de protones. Esta divido en cuatro partes: detector interno, calorímetros, el espectrómetro de muones y los imanes externos. A su vez cada una de las partes se subdivide en capas.

El detector interno esta situado a pocos centímetros del eje de colisión y se extiende hasta 1.2 metros alrededor. Tiene siete metros de longitud. Su función principal es determinar la trayectoria de las partículas midiendo su interacción con la materia, determinando en cada momento la partícula producida.

A su vez el detector tiene tres partes: el detector píxel que sirve para medir con precisión las trayectorias de colisión. El rastreador semiconductor (SCT, Semi-Conductor Tracker) que esta en la parte media del detector mide trayectorias el plano perpendicular del haz, con mayor precisión que el detector píxel. Complementa a el detector, el detector de radiación de transmisión (TRT, Transition Radiation Tracker) que usa iones colocados en el TRT para poder reconstruir las trayectorias.

Los calorímetros situados en la parte externa del solenoide magnético, en la parte externa del detector interno, cuyo propósito es medir la energía de las partículas absorbiéndola. Tiene dos sistemas básicos un calorímetro electromagnético interno y un calorímetro hadrónico externo.

Ambos calorímetros funcionan mediante el rastreo, absorben energía mediante metales muy densos y en forma periódica miden la lluvia de partículas que resulta, con esto se calcula la energía de la partícula original.

El calorímetro electromagnético funciona con las partículas que interactúan de forma electromagnética como los fotones y las partículas cargadas, su precisión es tal que permite medir tanto la cantidad de energía como la localización. En tanto el calorímetro hadrónico absorbe la energía de los hadrones, pero es menos preciso en la medición de energía como la localización.

El espectrómetro muónico se encuentra desde los calorímetros hasta la parte externa del detector, al tener un gran tamaño sirve para medir los muones, partícula elemental que al ser capaz de atravesar las partes internas del detector sirve también para medir la energía total si un evento es ignorado.

El sistema de imanes utiliza dos grandes imanes cuyo fin es curvar la trayectoria de las partículas para poder medir su momento. La curvatura producida por la fuerza de Lorentz es resultado de la interacción entre la carga electrica y la velocidad que llevan las partículas.

El campo magnético externo, con forma toroidal (de ahí el nombre de aparato toroidal), es producido por ocho grandes bucles huecos y dos terminadores, que estan colocados en el exterior de los calorímetros y dentro del espectrómetro muónico. El campo magnético producido tiene 26 metros de largo y 20 de diámetro, almacenando 1,2 gigajoules de energía.





Imagen generada por computadora que muestra la estructura del detector ATLAS. Propiedad del CERN. Clic para ver en mayor tamaño.

Con información de CERN | LHCCountdown | LHC | ATLAS

lunes, 28 de julio de 2008

El gran colisionador de hadrones (LHC) III: Estructura

El gran colisionador de hadrones (LHC) es un acelerador de partículas. Un acelerador de partículas es un dispositivo que acelera partículas cargadas y luego las hace colisionar contra un objetivo.

La estructura básica de un acelerador tiene como componentes básicos: una fuente de partículas elementales, un tubo donde existe un vacío que sirve para que las partículas se desplacen, un sistema para que las partículas aumenten su velocidad y energía para luego hacerlas chocar. Cuando se produce una colisión entre las partículas la cantidad de energía que se libera es muy grande y el sitio donde ocurre hay una transformación de la energía en materia. Es así que aparecen partículas algunas ya conocidas y otras que no se tiene completo conocimiento de ellas.

El LHC para tal propósito tiene un anillo de 27 kilómetros de circunferencia que esta formado por imanes supraconductores y estructuras que aceleran además de aumentar la energía de las partículas que atraviesan por el. Como se había mencionado anteriormente en el interior del acelerador dos haces de partículas circularán en sentido contrario, para lograr esto los haces viajarán en tubos distintos situados en un vacío de alto nivel (ultravacío). Los haces serán guiados por el campo electromagnético formado por los electroimanes supraconductores.

Estructura del LHC
Estructura del LHC, en el cual se aprecia el túnel y los electroimanes supraconductores. Propiedad del CERN.

Los imanes están compuestos de una bobina especial que los hacen funcionar como un supraconductor, es decir conducen de forma eficiente la electricidad sin perdida de energía ni resistencia. Para poder lograr esto, deben funcionar a una temperatura de -271º C. Es por esta razón que el acelerador esta conectado a un sistema de distribución de helio líquido que enfría los imanes así como otros sistemas contiguos.

Los haces son dirigidos en el acelerador mediante imanes de diferentes variedades y tamaños. Estas variedades incluye 1234 imanes bipolares de 15 metros de longitud usados para que los haces de partículas sigan una trayectoria de curva y y 392 imanes cuadripolares de 5 a 7 metros de longitud que enfocan los haces. Momento antes de que ocurra la colisión se usa otro tipo de imanes que "unen" las partículas para incrementar la probabilidad de colisión. Lograr la colisión de partículas equivaldría a lanzar dos agujas a una distancia de 10 kilómetros y esperar que se logre el choque.

Los sistemas de control del acelerador y la infraestructura técnica están alojado en el Centro de Control del CERN. Es desde ahí donde se activaran las colisiones de los haces de partículas.

Con información de CERN | LHCCountdown | LHC

domingo, 27 de julio de 2008

22

No quiero convencer a nadie de nada. Tratar de
convencer a otra persona es indecoroso, es atentar contra
su libertad de pensar o creer o de hacer lo que le dé la
gana. Yo quiero sólo enseñar, dar a conocer, mostrar, no
demostrar. Que cada uno llegue a la verdad por sus propios
pasos, y que nadie le llame equivocado o limitado. (¿Quién
es quién para decir "esto es así", si la historia de la
humanidad no es más que una historia de contradicciones y
de tanteos y de búsquedas?)

Si a alguien he de convencer algún día, ese alguien ha de
ser yo mismo. Convencerme de que no vale la pena llorar, ni
afligirse, ni pensar en la muerte. "La vejez, la enfermedad
y la muerte", de Buda, no son más que la muerte, y la muerte
es inevitable. Tan inevitable como el nacimiento.

Lo bueno es vivir del mejor modo posible. Peleando, lastimando,
acariciando, soñando. (¡Pero siempre se vive del mejor modo
posible!)

Mientras yo no pueda respirar bajo el agua, o volar (pero de
verdad volar, yo solo, con mis brazos), tendrá que gustarme
caminar sobre la tierra, y ser hombre, no pez ni ave.

No tengo ningún deseo que me digan que la luna es diferente
a mis sueños.

["No quiero convencer a nadie de nada" de Jaime Sabines, aparece en Diario semanario y poemas en prosa editado en 1961]

Si el calendario no falla (que sería buen argumento para un libro o película de ciencia ficción) hoy oficialmente estoy cumpliendo 22 años, así que un momento de arrogancia, vanidad o llamese como guste estoy anunciado que he llegado hasta aquí y probablemente siga en el mismo camino.

Gracias a todas las personas con las que he convivido durante este tiempo, tanto en la vida real como en Internet, por lo que hemos compartido y por enseñarme tantas cosas imprescindibles de la vida.

¡Y a seguir que queda mucho por vivir!

viernes, 25 de julio de 2008

El gran colisionador de hadrones (LHC) II: Aportaciones

El gran colisionador de hadrones (LHC) fue construido para encontrar respuestas a cuestiones que aún no están completamente esclarecidas.

La investigación en los últimos años permitió a los físicos poder formular modelos para describir las partículas fundamentales y su interacción en el Universo. Tal comprensión constituyo el modelo estándar de física de partículas, sin embargo el modelo no llega a ser una teoría al no poder explicar todas las interacciones.

Y es en este punto en donde cobra importancia el LHC que se estima aportará datos experimentales que complementen la comprensión del mundo. La información que se obtenga del colisionador servirá para comprender las siguientes áreas de la física:

Energía oscura


La energía oscura se considera una forma hipótetica de energía que se encuentra en el Universo, ejerce una presión negativa y tiende a aumentar la expansión del Universo. En el modelo estándar de la cosmología, la energía oscura representa de un 70% a 73% de la masa-energía del Universo.

Se entiende que la energía oscura ejerce una presión negativa. La presión positiva se hace notar cuando una sustancia empuja a los objetos que están en su medio, como la que se observa en los fluidos. Por el contrario la presión negativa actúa cuando la sustancia tira de su medio.

Respecto a la naturaleza de la materia energía prevalece la especulación. Es conocida por ser homógenea, no ser muy densa y no se sabe como interactúa con las fuerzas fundamentales a excepción de la gravedad. Dado que su densidad es de 10−29 g/cm3, es compleja la elaboración de experimentos para detectarla en el el laboratorio.


Representación de la composición del Universo. Un 0.03 % lo constituye los elementos pesados, 0.3% neutrinos, estrellas son 0.5%, hidrógeno libre y helio el 4%, materia oscura 25% y la energía oscura un 70%. Propiedad de la NASA.


Materia oscura


La materia oscura es uno de los temas fundamentales de la astrofísica moderna. Es una materia hipótetica que se considera carece de interacción electromagnética y si la hay es tan debil que se confunde con la radiación de fondo de microondas. La materia oscura se clasifica en materia oscura bariónica y materia oscura no bariónica.

La primera conformada por electrones, protones y neutrones. En este tipo de materia se incluyen los gases que no emiten radiación electromagnética y la estrellas frías. Se considera que la materia oscura barionica es una pequeña parte de toda la materia oscura por la cantidad de deuterio que existe en el universo ya que el deuterio al estar formado por neutrones, protones y electrones, su relación en el Universo es menor.

Por lo tanto la mayor cantidad de materia oscura es la no bariónica que se divide a su vez en materia oscura caliente y materia oscura fría.

La materia oscura caliente, parte de la materia no bariónica, se mueve a velocidades cercanas a la luz, sin embargo no puede explicar la formación de galaxias en un estado donde las partículas se encuentran libres. Para explicar la estructura del Universo es necesario recurrir a la materia oscura fría que fue propuesta para solucionar el problema de la estructura del espacio.

Partiendo del supuesto que en un momento inicial existieran fluctuaciones, la distribución cambiaría la forma y propagación de las fluctuaciones. Si toda la materia oscura fuera caliente no se hubiera podido formar estructuras complejas porque las fluctuaciones ocurren con energía mucho menor. De suceder así las estructuras irían de una complejidad mayor a una menor, es decir que primero se habrían formado los supercumulos y luego estructuras menos complejas. Ahora bien si se considera la existencia de materia oscura fría, las fluctuaciones darían origen a estructuras de lo más simple hasta lo más complejo, lo cual concuerda con el modelo que conocemos del Universo.

En el estudio de la materia oscura, el mayor reto es la detección. Se estima que producto de las colisiones de hadrones en el LHC se produzcan neutralinos, la cual se considera una partícula pesada y estable que sería la mejor candidato para explicar la energía oscura.

Representación en 3D de la materia oscura en una porción del Universo. Propiedad de ESA.


Dimensiones adicionales


Sabemos que el mundo es tridimensional,aunque considerando el tiempo como una dimensión serían cuatro, (3 +1 dimensiones), pese a que el tiempo es muy diferente a las otras tres dimensiones, Lorentz y Einstein demostraron que el tiempo y el espacio están intrísecamente relacionados, pero en realidad no sabemos cuantas dimensiones existen en el mundo.

La idea de dimensiones adicionales o extras, surge de la teoría de cuerdas, la única teoría coherente con la gravedad y la mecánica cuántica. Partiendo de esta teoría para poder explicar la gravedad se necesita de 3+1 dimensiones y el mundo que nos rodea podría tener hasta 11 dimensiones espaciales.

Se sugiere que las dimensiones adicionales (si existen) no deberían ser muy diferentes a las dimensiones que conocemos.

Ver más alla de las dimensiones conocidas resulta improbable para el ser humano, sin embargo se podría "sentir" tales dimensiones adicionales a a través de su efecto en la gravedad. La interacción de las tres fuerzas fundamentales (electromagnética, nuclear fuerte y debil) es limitada a las 3+1 dimensión, sin embargo la cuarta fuerza fundamental que es la gravedad interactua y tiene efectos en las otras dimensiones. Sin embargo la fuerza de la gravedad es muy debil y su radio de dimensiones extras es pequeño, por lo que es difícil conocer sus efectos.

Para conocer los efectos de las dimensiones extras es necesario un instrumento diseñado para amplificar la interacción gravitacional, el cual se espera sea el LHC.

Representación de las dimensiones extras, en la cual un gravitón escapa de las tres dimensiones en una dimensión extra, resultando en una aparente nula conservación de la energía en las dimensiones conocidas. Propiedad de Universidad Brown.


Bosón de Higgs


El bosón de Higgs es una partícula hipotética masiva cuya existencia esta predicha por el módelo estándar de física de las partículas, sin embargo es la única partícula que no ha sido observada.

El bosón de Higgs explicaría por una parte porque las partículas fundamentales tienen masas tan diferentes (el fotón y el gluón no tienen masa) y por otra la relación entre masa y energía.

Si no se encontrará el bosón de Higgs el modelo anunciaría que todas las partículas se mueven a la velocidad de la luz (con lo cual no tendrían masa), no obstante la experiencia nos dice que es inadmisible. Por eso es importante encontrar tal partícula para dar consistencia al campo de Higgs.

El campo de Higgs permería el Universo, cuyo efecto sería que las partículas se comportarán como dotadas de masa, debido a la interacción entre las partículas fundamentales y el bosón.

Pese a los experimentos con aceleradores de partículas como el CERN o el Fermilab, aún no ha habido pruebas claras de su existencia. En este sentido es el Gran Colisionador de Hadrones el cual se considera capaz de confirmar o desmentir la existencia del bosón.

La detección del bosón de Higgs se realizará a partir del estudio de los residuos de la desintegración. Los resultados de las colisiones deberán ser filtrados para un posterior estudio.

Representación del bosón de Higgs, empleando ATLAS del LHC. Propiedad de CERN.


Supersimetría


En la física de las partículas, la supersimetría (SUSY por su acrónimo en inglés) es una teoría hipotética que relaciona las propiedades de bosones y los fermiones. Aunque la supersimetría no se considera un modelo de la simetría de la naturaleza, es una de las piezas fundamentales en la teoría de supercuerdas.

El modelo estándar considera la materia conformada por fermiones (divididos en quarks y leptones), mientras que las partículas que transmiten las fuerzas fundamentales son bosones. Puesto que un inicio del Universo las fuerzas fundamentales debieron estar unidas, la supersimetría trata de explicar porque se separarón. De acuerdo a la teoría cada partícula debiera tener una compañera llamada compañera supersimétrica. Así cada bosón tiene como compañera a una super fermión y los fermiones tienen super bosones como compañeras.

La supersimetría explica que en un momento dado las super compañeras producieron la separación de las fuerzas fundamentales.

Las partículas supersimétricas tienen una mayor masa que sus compañeras las partículas subátomicas por lo que para su observación se requiere una mayor energía para producir una colisión que las hace visibles, mediante el acelerador de particulas "LHC" se pretende que se tenga la energía suficiente para hacerlas visibles.

La supersimetría dice que las partículas subatómicas tienen menor masa que sus super compañeras. Propiedad de Smartplanet.

lunes, 21 de julio de 2008

El gran colisionador de hadrones (LHC) I: Descripción

Instalaciones del gran colisionador de hadrones superpuesto con la superficie (LHC). Propiedad de CERN.
El gran colisionador de hadrones (LHC) es un instrumento científico cuyas instalaciones se encuentran ubicadas cerca de Ginebra, entre la frontera Francia-Suiza, a unos 100 metros bajo la tierra. El LHC es un acelerador de partículas, mediante el cual se estudiaran las partículas mas pequeñas que conforman la materia. La información que proporcione el colisionador cambiarán la concepción del mundo, incluido desde lo más pequeño hasta lo más grande del Universo.



Interior del túnel del LHC. Propiedad del CERN.


El LHC funcionará a 271 grados centígrados bajo cero y usara un túnel de 27 kilómetros de circunferencia creado para el Gran Colisionador de Electrones y Positrones (LEP). En este acelerador colisionarán protones o iones de plomo (del gupo de partículas subatómicas de los hadrones, de ahí el nombre).

Para poder lograr la colisión dos haces de partículas subatómicas circularán en sentido inverso del acelerador, guiados por imanes dentro de un anillo continuo de vacío, hasta adquirir energía de 7 Tev cada uno. Luego los dos haces entrarán en colisión frontal a una velocidad cercana a la de la luz y con una concentración de energía de 14 Tev.

Se estima que la colisión generará las condiciones que existieron después del Big-Bang. Con la ayuda de detectores especiales un grupo de físicos analizarán las partículas resultantes.

Con información de Astroseti | CERN | LHCCountdown | LHC

domingo, 20 de julio de 2008

El volcán Llaima

Volcán Llaima
Fotografía de Sernageomin-Onemi. Propiedad de AP Photo/Sernageomin-Onemi.

Llaima es un volcán ubicado en la Auracanía, Chile, en las coordenadas 38°41′45″ S, 71°43′54″ O. Clasificado como un estratovolcán, es uno de los más activos de esa región.

En el siglo XX registro 23 eventos de vulcanismo, siendo el más reciente el acontecido el 10 de julio de 2008.

sábado, 19 de julio de 2008

Gotas de agua

Gotas de agua

"Water Drops" es una colección de fotografías cuyo tema central gira en torno al agua.

La galería completa de fotografías esta en The home based.

Remover kernel que ya no usamos

El kernel es el núcleo del sistema operativo, por esta razón frecuentemente surgen nuevas versiones que corrigen fallos, agregan nuevas características además de soporte.

Teniendo en cuenta la constante actualización, el viejo kernel se mantiene, lo que es fácil de observar en el Grub o Lilo en el que va aumentando la lista de los kernel instalados.

Si se desea eliminar un kernel que considera solo ocupa espacio, antes debe estar seguro que el nuevo kernel funciona perfectamente.

Hecho lo anterior, basta ejecutar en una terminal lo siguiente:
  1. Hacer un listado de las versiones de kernel que tenemos:
  2. dpkg --get-selections | grep linux-image
  3. Luego eliminar los kernel antiguos con el comando "purge", note que donde esta escrito kernel se debe indicar el nombre del kernel que desea quitar:
  4. sudo aptitude purge kernel
  5. En ocasiones, aparecerá una pregunta diciendo que no se encuentra actualizado y si deseamos hacerlo, para esto basta indicar que no usando el siguiente comando:
  6. sudo aptitude remove kernel
Una vez llegado a este punto se habrá elminado el kernel deseado.

jueves, 17 de julio de 2008

Premios, premios y más premios

Dogguie, en este ultimo mes (disculpa la tardanza) ha considerado que soy "digno" portador de los siguientes premios:



Premio brillante weblog


Que se otorga a los "blogs que crean brillan por su temática y/o diseño".



Eres un amigo valioso


El cual es "Un premio que recalca la amistad que tenemos los dos gracias a nuestros blogs".



Blogger sapiens Adward


Que se define como el “Blogger Sapiens Award es una iniciativa que trata de destacar aquellos blogs que expresan sus ideas con claridad y que son certeros en lo que dicen…”



Premio esfuerzo personal


Entregado como un"reconocimiento al esfuerzo que se pone en la actividad bloguera".



En el premio al esfuerzo personal se pide que se compartan seis valores importantes, los cuales para mi son:

  1. Amor

  2. Solidaridad

  3. Igualdad


  4. Respeto

  5. Fraternidad

  6. Equidad

Pese a que también pide que se compartan seis valores que no son importantes, considero que todo valor por el hecho de serlo ya es importante y no puede menospreciarse por el juicio de una persona.



Y para finalizar continuó la entrega de premios a los siguientes amigos:

miércoles, 16 de julio de 2008

35 sets de brochas para Gimp (más de 1400 brochas)

Gimp es uno de los mejores programa de software libre para edición y creación de imágenes, siendo uno de los más populares.



Como la mayoría de estos programas, Gimp tiene repositorios de plugins, brochas, scripts y gradientes.



Ejemplo de ello es el presentado por el sitio web Hawksmont donde se pueden encontrar distintos sets de brochas para Gimp como el siguiente:






Este y otros 34 sets de brochas estan catalogados en TechZilo, dando como resultado más de 1400 brochas listas para usar.

martes, 15 de julio de 2008

Clásicos en LEGO

La recreación de escenas de la vida cotidiana a través de Lego es uno de los pasatiempos que en múltiples ocasiones deja una agradable sensación en la percepción. En este sentido una muestra de ello es el trabajo de Balakov, un aficionado a la fotografía, quien ha reconstruido fotografías famosas en su álbum Classics in Lego.

Recreación de la fotografía de Jeff Widener llamada "El rebelde desconocido" de 1989.

Por otra parte Marcos Vilariño recrea en su libro Historia dunha fotografía de xoguete (Historia de una fotografía de juguete) también recrea imágenes clásicas a través de Lego.
"Almuerzo sobre el andamio" tomada por Charles C. Ebbets en 1932

lunes, 14 de julio de 2008

El "vampiro" de la energía eléctrica

Con el nombre de "vampiro de la energía eléctrica" se agrupan a aquellos electrodomésticos que consumen energía aún estando apagados.
Consumo energético en modo de espera de ciertos electrodomésticos.Propiedad de GoodMagazineSe estima que tan solo en EE.UU. el modo en espera tiene un costo de $3 billones al año. Clic para ampliar. Propiedad de GoodMagazine.

Las barras en rojo representan el consumo energético cuando están en modo de espera, también llamado stand-by. El modo en espera se considera consume entre un 5% y un 16% del consumo total de un hogar, por lo que es recomendable desconectar completamente los aparatos que no se estén usando con el fin de reducir el daño ecológico y el gasto de recursos innecesarios.

Volviendo al gráfico las líneas en azul muestran el consumo de energía cuando los aparatos están encendidos.

Vía: Ecomicrosiervos | Consumer

domingo, 13 de julio de 2008

Activistas de Greenpeace en México instalan un cementerio con 200 árboles sobre ataúdes con la leyenda “víctima del Proárbol”, en el Zócalo capitalino y representando lo que ocurrirá con los bosques de México si Proárbol continúa con este tipo de programas de “reforestación”Activistas de Greenpeace en México instalan un cementerio con 200 árboles sobre ataúdes con la leyenda “víctima del Proárbol”, en el Zócalo capitalino y representando lo que ocurrirá con los bosques de México si Proárbol continúa con este tipo de programas de “reforestación”

Proarbol uno de los programas insignias de la presente administración esta resignado al fracaso admite la SEMARNAT (Secretaría del Medio ambiente y Recursos Naturales).

En declaraciones de Rafael Elvira Quezada, titular de la Secretaría, ratifica que sólo el diez por ciento de los arboles que se sembraron en el 2007 sobreviviran. Lo que contraviene a declaraciones que afirmaban que se había reforestado con éxito 642 mil hectáreas cuando en realidad solo son 25 mil hectáreas.

Aunado a la mala planeación de las actividades esta también el desperdicio de recursos ya que se desperdicia 2 mil 500 millones de pesos. En este sentido la solución más factible es promover la conservación y el uso responsable de recursos del bosque a través del Manejo Forestal Sustentable (MFS).

Por desgracia solo el 15 por ciento de bosques esta bajo este esquema por lo que 60 por ciento de los bosques en territorio nacional no recibe ningún apoyo del gobierno federal, causa por la cual cada año se pierda entre 500 y 600 mil hectáreas de bosques y fomente la tala clandestina de entre 5 y 7 millones de metros cúbicos de madera.

Si lo anterior no fuera suficiente, en el 2007 se hizo uso de fauna exótica (nopales forrajeros, agaves, magueyes, eucalipto y pirul) para la reforestación. La utilización de especies exóticas produce impactos negativos en la biodiversidad al introducir especies no nativas en un ecosistema y alterando el equilibrio de tal.

Es así que programas como Proarbol y la mediática jornada "Planta un árbol y se parte de la historia" con el cual se pretendía sembrar 5 millones de arboles en un día es un rotundo fracaso al aplicar soluciones paliativas que no resuelven las verdaderas causas de la deforestación.

viernes, 11 de julio de 2008

Gentoo 2008.0

Logo de Linux Gentoo. Propiedad de Gentoo.Esta semana ha sido publicada la versión final 2008.0 de la distribución Gentoo, cuyo nombre clave de código es "también las plantas desean".

Esta nueva versión destaca por incluir:
  • Una actualización en su instalador gráfico, soluciona fallos e incluye mejoras en la instalación basada en red.
  • Mejorado el soporte de hardware, al incluir Kernel 2.6.24 que agrega nuevos controladores.
  • Reestructuración de los perfiles, que implica una limpieza de redundancias, reduce el mantenimiento en el desarrollo y la confusión. Este aspecto se puede notar en /usr/portage/profiles/
  • Se ha cambiado Gnome por XFCE en el LiveCd con el fin de reducir el espacio en el disco. Además el LiveDVD esta diseñado para arquitectura x86 o Amd64, y se trabaja por mejorar el soporte de nuevas arquitecturas en el futuro.
  • La versión 2008.0 incluye actualización de paquetes tales como Portage 2.1.4.4, el kernel 2.6.24, Xfce 4.4.2, gcc 4.1.2 y glibc 2.6.1.
Más información:
Nota de lanzamiento
Descarga Gentoo
Manual de instalación
Preguntas más frecuentes

miércoles, 9 de julio de 2008

La memoria puede visualizar e imaginar el futuro

Aparentemente la memoria tiene una cualidad peculiar, no solo recuerda sino que es capaz de poder visualizar e imaginar el futuro.

Con estos descubrimientos ha surgido la necesidad de replantear el funcionamiento de la memoria. Durante años se tuvo la convicción de que la memoria almacenaba sucesos y acciones, pero ahora se empieza a reconocer que la memoria puede construir, simular y predecir eventos teniendo en cuenta variables del ambiente, con base a la información que ha recopilado del pasado.
Esquema del cerebro. Propiedad de depresiones.clEsquema del cerebro, donde se nota el hipocampo. Propiedad de depresiones.cl

Daniel Schacter, psicólogo de Harvard comenzó a estudiar el funcionamiento de la memoria a raíz del tratamiento a un paciente que tenía dañado el hipocampo. Producto del daño era incapaz de recordar eventos pasados pero también noto Schacter que cuando le cuestionaba al paciente sobre sus planes para la siguiente semana no ofrecía ninguna respuesta. Fue así como Daniel empezó a establecer vínculos entre la memoria y la posibilidad de elaborar eventos futuros. Para poder probar su hipótesis sometió a 14 voluntarios a estudios de resonancia magnética (MRI) mientras les recordaba objetos de su pasado y les pedía que imaginarán ese objeto en el futuro. Las imágenes obtenidas por MRI mostraban que ambas situaciones generaban actividad en el hipocampo (para ser exactos en la región izquierda) con lo que demostraba que esta región del cerebro era usado tanto para recordar como para imaginar.

Más adelante este estudio ha sido puesto a prueba por diferentes científicos quienes han demostrado la relación entre los recuerdos del pasado y la elaboración de escenarios futuros, lo cual hace replantear que estas actividades mentales están más estrechas de lo que se creía.

En tanto en Londres, Eleanor Maguire y un equipo de científicos ha estudiado del mismo modo la relación. En un estudio se solicito a cinco personas con amnesia que imaginarán una playa, un mercado o un bar y lo describieran con lujo de detalles. Luego les pidió que imaginarán situaciones futuras como lo era una fiesta de navidad. Pese a que se les ofreció pistas fueron incapaces de visualizar escenarios completos, siendo solo capaces de visualizar imágenes parciales. Les hacía falta situar todos los elementos en un contexto espacial. Eleanor añade que los eventos que vive una persona están enmarcados en un contexto, aspecto que no presentan los individuos sometidos al estudio, por último considera que el hipocampo juega un papel importante en coordinar objetos y lugares para recordar el pasado e imaginar el futuro.

Fuente: PsycPORT

lunes, 7 de julio de 2008

Consejos de seguridad en escritorios GNU/Linux

Ser precavido y dotar de cierta seguridad a escritorios GNU/Linux es una forma bastante sencilla de evitarnos problemas.

Muchas de estas soluciones están orientadas a un sentido común, aunque en muchas ocasiones las pasamos por alto.

Pasando a lo importante he aquí varios consejos de seguridad:
  1. Bloqueo de pantallas. En muchas ocasiones se pasa por alto la idea de que un sistema GNU/Linux es multiusuario, lo que en múltiples ocasiones ocasiones problemas de privacidad. Como soluciones esta por una parte la protección con contraseña y en caso de ser usuario único se puede bloquear la pantalla a fin de que la sesión quede protegida.
  2. Ocultar archivos y carpetas. Basta con agregar un "." antes del archivo o carpeta para que queden ocultos y no sean visibles para el explorador de archivos. Por ejemplo un archivo llamado "prueba" que renombremos a ".prueba" quedará oculto.
  3. Usar una buena contraseña. La contraseña en este sistema operativo es la llave de acceso a múltiples tareas. Usar una contraseña robusta que contenga mayúsculas, minúsculas y números es una forma sencilla de dar fortaleza al sistema. En caso de requerirlo se pueden usar programas que generen contraseñas tal como Automated Password Generator.
  4. Evitar la instalación de herramientas que compartan archivos. En el hogar se es propenso a compartir archivos, algo ante lo cual afrontamos los riesgos que puedan suceder, pero lo que respecta a la oficina o al trabajo se debe evitar compartir datos en la medida de lo posible.
  5. Actualizar el sistema. Linux no es Windows. No estamos meses a la espera de parches de seguridad, hay ocasiones en que a minutos u horas de que se haya detectado una falla ya existe una solución. Por eso es importante tener activado tanto las actualizaciones como los applets diseñados para KDE o Gnome a fin de estar al tanto y tener un sistema actualizado.
  6. ¿Antivirus? Las posibilidades de infección por virus en sistemas Linux son de escasas a ninguna, no obstante la transmisión de correos infectados a sistemas Windows puede originar problemas por lo que tener instalado un antivirus nunca es mala idea.
  7. SELinux SELinux (Security-Enhanced Linux) fue creado por la Agencia de Datos de EE.UU. Es una forma fiable de bloquear el acceso a aplicaciones de control de la computadora, si embargo puede limitar el rendimiento de la computadora o entrar en conflicto con aplicaciones instaladas.
  8. Creación de /home en otra partición. Por defecto el directorio /home se crea en el directorio raíz. Como una forma de resguardar los datos además de evitar la corrupción de datos por falla del sistema hace preferible colocar /home en otra partición o crear una partición exclusiva para este directorio.
  9. Usar un gestor de escritorio poco común. Usa alternativas tales como Enlightenment, Blackbox, Fluxbox, etc a los usuales KDE o Gnome es una forma simple de evitar que usuarios no acostumbrados a estos escritorios vulneren nuestra privacidad.
  10. Usar solo los servicios necesarios. Hay que reconocer que una computadora de escritorio difícilmente usará servicios como httpd, ftpd o sshd por lo tanto porque no desactivarlos editando el archivo inetd.conf del directorio /etc/inetd.conf; algo bastante simple y efectivo.
Vía | Techrepublic

jueves, 3 de julio de 2008

¿Demostrada la hipótesis de Riemann?

Li Xian- Jin ha publicado en arXiv.org, un artículo donde prueba la hipótesis de Riemann:


Basado en el análisis de Fourier en campos numéricos, se demuestra en este trabajo la versión refinada de E. Bombieri sobre la condición de positividad de A. Weil, lo cual implica la hipótesis de Riemann para la función zeta de Riemanm en el espíritu del acercamiento de A. Connes a dicha hipótesis.

La trascendencia de esta demostración radica en que la hipótesis de Riemann esta considerado como uno de los problemas del Milenio, una de las cuestiones más importantes en las matemáticas contemporáneas, por lo que toda precaución sobre la certeza de la solución es poca.

Sin embargo Li tiene renombre en este campo, en las últimas décadas ha publicado trabajos que mantienen una relación con su último trabajo. En este sentido hay que considerar que existen recientes avances en los cuales pudo basarse Jin para poder lograr la comprobación de la hipótesis.

Actualización

Terence Tao, ganador de la Medalla Fields en 2006, ha realizado una crítica negativa sobre la prueba publicada por el Dr. Li. Alain Connes, también ganador de la Medalla Fields en 1982, ha señalado otras dificultades. Todo parece indicar que no se ha logrado tal demostración.

miércoles, 2 de julio de 2008

El "mapa" de la corteza cerebral

La corteza cerebral, sede del pensamiento racional del ser humano, contiene 10,000 millones de neuronas que forman una red anatómica que aún representa un misterio para los científicos. Pese a que técnicas como la imagen por resonancia magnética (MRI) proporcionan elementos para conocer la estructura funcional del pensamiento aún quedan aspectos que no proporciona tal metodología.
Red neuronal del cerebroRed de conexiones del cerebro. Propiedad de Indiana University

Un equipo de investigadores de EE.UU. y Suiza han desarrollado el primer mapa físico de millones de conexiones de la corteza cerebral, un paso hacia el conocimiento de la red de conexiones del cerebro. El estudio publicado en PLoS Biology, manifiesta que los autores han desarrollado un técnica llamada Imagen de Espectro de Difusión (DSI) basada en la imagen por resonancia magnética MRI que realiza un mapa del cerebro a partir de la difusión de moléculas de agua en este órgano.

La investigación arroja conclusiones tales como que el mapa elaborado no difiere del hecho mediante fMRI, por lo que la actividad detectada por el escáner refleja con fidelidad la red. Esto implica que si sabe como esta conectado el cerebro se sabrá como funciona.

Por otra parte los autores sostienen que se ha encontrado el centro neurálgico, llamado la coronilla que representa el núcleo, la parte central del cerebro.

Fuente : PLoS

Related Posts Plugin for WordPress, Blogger...