viernes, 19 de diciembre de 2008

Ya se han derretido dos billones de toneladas de hielo

Más de dos billones de toneladas de hielo terrestre en Groenlandia, Alaska y la Antártida se han derretido desde 2003, de acuerdo con datos nuevos de satélite de la NASA que muestran los indicios más recientes del calentamiento global.

Más de la mitad de las pérdidas de hielos terrestres en los últimos cinco años han ocurrido en Groenlandia, revelan mediciones del peso del hielo por el satélite Grace de la NASA, dijo el geofísico Scott Luthcke, quien agregó que el derretimiento parece estar acelerándose.

Científicos de la NASA planeaban presentar sus hallazgos ayer en la conferencia de la Unión Estadounidense de Geofísica en San Francisco. Luthcke dijo que aún no se han concluido las cifras de Groenlandia para el tercer trimestre del 2008, pero que la pérdida de hielo este año, aunque aún grave, no será tan severa como en el 2007.

Las noticias fueron mejores para Alaska. Luego de una enorme reducción en el 2005, el hielo terrestre allí creció ligeramente en el 2008 a causa mayormente de nevadas copiosas, dijo Luthcke. Desde 2003, cuando el satélite de la NASA comenzó a realizar las mediciones, Alaska ha perdido 400,000 millones de toneladas de hielo terrestre.

A diferencia del hielo marítimo, el derretimiento del hielo terrestre aumenta muy poco los niveles del mar.

En la década de 1990, Groenlandia no contribuyó nada al aumento del nivel del mar. Ahora, esa isla añade casi medio milímetro al incremento del nivel del mar cada año, dijo el científico de la NASA Jay Zwally en una entrevista telefónica desde la conferencia.

Entre Groenlandia, Alaska y la Antártida, el derretimiento de hielos terrestres ha elevado los niveles del mar en el mundo aproximadamente medio centímetro en los últimos cinco años, dijo Luthcke. Los niveles suben también por la expansión del agua cuando se calienta.

Otros estudios que son presentados esta semana en la conferencia apuntan a más preocupaciones sobre el deshielo causado por el calentamiento global, especialmente en los casquetes helados de los mares polares.''No está mejorando, sigue mostrando indicios fuertes de calentamiento y amplificación'', expresó Zwally. ''La tendencia no se ha revertido'', agregó.

Los científicos que estudian el hielo anunciarán que algunas partes del Artico al norte de Alaska estuvieron entre 5 y 5.6 grados centígrados (equivalentes a 9 o 10 grados Fahrenheit) más cálidas este otoño, un fuerte indicio temprano de lo que investigadores llaman el efecto ártico de amplificación.
.
Fuente: Laflecha

jueves, 18 de diciembre de 2008

Descubren que algunas rocas que chocan contra la Tierra proceden de un cometa extinto hace miles de años

Un equipo de investigadores ha detectado que algunas rocas que chocan contra la Tierra son los restos de un cometa extinto hace miles de años. El estudio, que aparecerá publicado en el próximo número de la revista Monthly Notices of the Royal Astronomical Society, analiza un enjambre de fragmentos procedentes de un cometa que produjeron bolas de fuego que fueron visibles en agosto de 2007 en toda España. Las bolas de fuego fueron registradas por las cámaras de la Red Española de Investigación sobre Bólidos y Meteoritos ubicadas en toda la península.
.
Los investigadores Josep Maria Trigo, del Consejo Superior de Investigaciones Científicas (CSIC) y del Instituto de Estudios Espaciales de Cataluña, José María Madiedo, de la Universidad de Huelva, Iwan Williams, de la Queen Mary University of London, y Alberto Castro-Tirado, del Instituto de Astrofísica de Andalucía (CSIC), han realizado esta investigación.

Los fragmentos más grandes, que produjeron bolas de fuego, tenían una masa de entre uno y diez kilogramos y alcanzaron la Tierra a una velocidad de 81.000 kilómetros por hora. El más brillante de ellos, casi tan luminoso como la Luna llena, se desintegró a 72 kilómetros de altura de la superficie terrestre sobre Isla Cristina (Huelva), localidad que ha dado nombre al bólido. Las imágenes de estos eventos obtenidas desde las diferentes estaciones de detección han permitido determinar con precisión sus trayectorias en la atmósfera y sus órbitas, que demuestran su origen en el Sistema Solar.

"Lo más sorprendente es que las órbitas de estos fragmentos están claramente asociadas a un conjunto de asteroides próximos a la Tierra que, en realidad, son los fragmentos de un cometa extinto. Esto resulta fascinante porque generalmente se piensa que los cometas se desintegran por completo dejando sólo pequeñas partículas formando enjambres", señala Trigo.
Origen de las bolas de fuego

Existen tres asteroides, catalogados como 2008ED69, 2004LA12 y 2001MG1, cuyas órbitas no son sólo similares en la actualidad, sino que su evolución bajo las perturbaciones gravitatorias de los planetas señala "una clara asociación con estos fragmentos"

Según los resultados del estudio, hay una conexión química entre los asteroides y los fragmentos. Los investigadores obtuvieron el espectro de emisión de uno de los bólidos; el que se registró sobre la localidad onubense de Lucena del Puerto, con una luminosidad próxima a la de la Luna. Su composición química resultó ser similar a los meteoritos llamados condritas, que incluyen a los objetos más primitivos del Sistema Solar. Además, las rocas tenían muy baja consistencia, por lo que se fragmentaron al atravesar la atmósfera de la Tierra.

Los investigadores señalan que el origen de este complejo de cuerpos que se encuentra actualmente en órbitas próximas a la Tierra fue la fragmentación de un cometa. Asimismo, añaden que la evolución de las órbitas de los fragmentos y del asteroide 2008ED69 permiten determinar que el enjambre se formó en uno de estos tres periodos: 3.900 a.C., 1.800 a.C., o 300 d.C.

"Esta es una de las fascinantes aplicaciones de los estudios de grandes bolas de fuego, ya que, incluso cuando no sobreviven meteoritos, éstas permiten determinar el origen, la naturaleza y la evolución de algunos de los objetos que están cruzando hoy en día la órbita de la Tierra. Esto es particularmente importante para aquellos asteroides que podrían suponer un peligro futuro para la humanidad y de los que resulta crucial definir sus propiedades físico-químicas para evaluar a qué peligro nos enfrentaríamos en el caso de un impacto", concluyen los investigadores.

Fuente: laflecha

martes, 16 de diciembre de 2008

Científicos crean una sustancia que retrasa la muerte por paro cardíaco

Recientemente se ha empezado a desarrollar una nueva técnica que puede reducir la demanda de oxígeno del cerebro y de otros órganos, para dar a los médicos el valioso tiempo extra para diagnosticar y tratar a los pacientes críticos en las emergencias, y también para proteger al corazón, el cerebro, los riñones y la médula espinal en las operaciones de cirugía planificadas.
Un equipo de científicos del Laboratorio Nacional de Argonne ha creado una especie de granizado que puede ser bombeado con facilidad dentro del cuerpo del paciente a través de un pequeño catéter intravenoso directamente en el torrente sanguíneo.

El Laboratorio de Argonne está trabajando con varios grupos diferentes de cirujanos de la Universidad de Chicago para desarrollar los procedimientos encaminados a enfriar y proteger los órganos vitales.

Con esta sustancia, los médicos pueden enfriar con rapidez el órgano deseado, gracias a poder escoger, de entre las varias rutas posibles para el granizado, la más adecuada para cada caso.
Este enfriamiento reduce la necesidad de oxígeno de un órgano, disminuyendo la velocidad con la que las células se asfixian, y proporcionando a los médicos más tiempo para el tratamiento.
Durante varias décadas, los médicos han reconocido los beneficios de la protección mediante el frío para ciertos tipos de pacientes. Sin embargo, en el pasado, los médicos sólo disponían de medios técnicos para el enfriamiento externo, como por ejemplo los baños de hielo y las chaquetas refrigerantes, cuando querían inducir la hipotermia protectora. A estas técnicas les faltan dos de las ventajas del granizado inyectable.

Lo más importante es que el enfriamiento externo actúa mucho más despacio, lo que reduce de modo notable su eficacia. Mientras los granizados pueden enfriar el centro de un órgano en casi cinco grados Celsius en sólo cinco minutos, los enfriamientos externos pueden tardar más de dos horas en lograr el mismo efecto.

Además, los médicos pueden enfriar sólo el órgano deseado cuando se valen de la estrategia de inyectar internamente el granizado. Esto, tal como señala el ingeniero Ken Kasza del Laboratorio de Argonne, reduce el riesgo de efectos secundarios adversos, incluyendo la fuerte sensación de frío y una posible arritmia.
Fuente: Laflecha

martes, 9 de diciembre de 2008

El retroceso de glaciares chilenos, un patente efecto del calentamiento global

El retroceso de los glaciares de Chile, concentrados principalmente en dos grandes masas de hielo en la Patagonia, es un efecto patente del calentamiento global y una amenaza para estas importantes reservas de agua dulce ubicadas en el extremo sur del continente americano.
Un reciente estudio de la estatal Dirección General de Aguas (DGA) que consideró mediciones entre 1986 y 2007, determinó que han retrocedido 20 de los 23 glaciares estudiados en la zona de Campos de Hielo Sur, la tercera mayor concentración de hielo en el planeta tras la Antártida y Groenlandia.

Ese lugar, junto a Campos de Hielo Norte, constituyen las dos grandes extensiones de hielo en Chile y están ubicadas en plena Patagonia, esa zona inhóspita donde soplan fuertes vientos y arrecian las lluvias. "La disminución de las precipitaciones registradas en diversas estaciones meteorológicas en la Patagonia y el aumento de la temperatura regional cercano a 1 grado Celsius en el siglo pasado, han llevado a un retroceso frontal de los glaciares que incluso en algunos casos ha superado los 580 metros por año", indicó el estudio.

"El retroceso de los glaciares en uno de los temas más relevantes del calentamiento global porque es ahí donde el cambio climático se hace más evidente", comentó a AFP el glaciólogo Andrés Rivera, del Centro de Estudios Científicos de Valdivia (CECS).

Aunque es un proceso que se ha incrementado en las últimas décadas por el adelgazamiento de las paredes de hielo, el retroceso de los glaciares "no es algo nuevo", aclara Rivera, sino un proceso que se inició hace ya más de un siglo.

Según el informe de la DGA, entre los años 1986 y 2001 los glaciares retrocedieron a tasas anuales de 67 metros, mientras que en el período 2001-2007 lo hicieron a tasas de 45 metros.
El glaciar que más disminuyó fue el Jorge Montt, que perdió 11 kilómetros y más de 40 km2 de superficie en 21 años, indicó el estudio.

Otro glaciar que retrocedió ostensiblemente es el San Rafael, que perdió 12 km en los últimos 136 años. Este ventisquero, famoso destino turístico del sur de Chile, está ubicado en Campos de Hielo Norte -de 4.200 km2- y termina convertido en una pared de hielo sobre la Laguna San Rafael. El retroceso de la pared de hielo que forma el frente del glaciar no se debe sólo al calentamiento global, explican los científicos, aunque esto constituye un factor relevante.
Entre las causas también se cuenta, por ejemplo, la profundidad de los lagos o fiordos donde desemboca la pared del ventisquero: mientras más hondo es, más se facilita el desprendimiento de icebergs, con el consiguiente retroceso del frente del glaciar.

En Chile, a lo largo de toda la cordillera de Los Andes, se concentra el 76% de los glaciares de América del Sur, que cubren una superficie de 20.000 km2 y que en tiempos de sequía son fuentes de agua para el consumo humano y la agricultura.

Los resultados del informe de la DGA, elaborado a partir de imágenes satelitales, fueron calificados como "preocupantes" por el jefe de esa división.

"El aporte de los glaciares en agua dulce representa la forma como se puede seguir existiendo de acá a 100 años más. Las ciudades y el agro van a seguir creciendo y va a llegar el minuto en que estas serán las fuentes de agua dulce para la población", señaló.

En contraste, sin que haya hasta ahora claridad sobre este fenómeno, el glaciar Pío XI, el más grande de Campos de Hielo Sur, es el único que sigue creciendo.

"Hasta el verano (austral) de 2008 el Pío XI está avanzando", afirma Rivera. Lo mismo ocurre con el Perito Moreno, que se sitúa del lado argentino. "Estos dos ejemplos son anomalías, las únicas excepciones en este contexto regional de fuerte retroceso y adelgazamiento", indica el científico.
Fuente: Laflecha

viernes, 5 de diciembre de 2008

Los niños son violentos porque están influidos por la televisión, según un estudio

Los menores están "muy influidos" por los contenidos sensacionalistas y violentos que se emiten de forma cada vez más habitual en la televisión, según el estudio 'Infancia, Violencia y Televisión: los espacios informativos y los imaginarios de la violencia en los niños y adolescentes', cuyo objetivo es profundizar en el papel de los niños como "audiencia activa".

Este informe, realizado por investigadores de diferentes universidades españolas (Ramón Llull, UOC, Pompeu Fabra, Sevilla, Rey Juan Carlos) con la colaboración de la Asociación de Usuarios de la Comunicación (AUC), concluye que estos contenidos violentos conllevan "actitudes de angustia" en la vida real de los jóvenes.

Los responsables de la investigación explican que "se trata de responder no tanto a la pregunta tradicional de 'qué hace la televisión con los niños', sino más bien 'qué hacen los niños con la televisión'". Además, la iniciativa se incluye en el marco del Plan Nacional I+D+I que financia el Ministerio de Educación y Ciencia.

En este sentido, el trabajo revela que los niños están delante de la pequeña pantalla la mayor parte del tiempo sin presencia adulta. No obstante, en el caso de los informativos, "debido a su hora de emisión", el marco de audiencia sí suele ser familiar, según el estudio.
Respecto a la influencia de los contenidos, asegura el estudio que los menores tienen "una gran capacidad" para diferenciar entre propuestas de ficción o realistas. Sin embargo, suelen "proyectar" en otras personas esta influencia y los menores están "muy afectados" por la violencia.

El informe refleja la importancia de tener en cuenta el papel de estímulo que las imágenes juegan en niños menor edad, en lo que genera sentimientos relacionados directamente con su estadio de desarrollo, con su contexto de experiencia y con sus propias angustias o incomprensiones de la realidad".

Además, los expertos opinan que no puede "minusvalorarse" la influencia de los medios de comunicación y de los contenidos violentos difundidos por esos medios en niños y niñas. A su entender, esta difusión responde en muchas ocasiones a actuaciones de los medios de comunicación "de forma interesada".
Fuente: Laflecha

martes, 2 de diciembre de 2008

Descubren el mecanismo universal del envejecimiento

Compartido por hongos y mamíferos, su comprensión ayudará a crear medicamentos rejuvenecedores.

Hace una década, científicos norteamericanos descubrieron que una proteína llamada sirtiun era la responsable del proceso de envejecimiento en organismos unicelulares. Diez años más tarde, y gracias al desarrollo de los chips de ADN, se ha podido comprobar que esta misma proteína condiciona el proceso de envejecimiento de los mamíferos. Conocida como sirtiun, los científicos señalan su importancia en la regulación de una expresión genética adecuada.
.
Cuando los genes que deben permanecer desactivados se activan por la desregulación que indirectamente produce el deterioro del ADN, la proteína sirtiun no puede hacer bien su trabajo. El descubrimiento de un "mecanismo universal" de envejecimiento, abriría las puertas a la creación de medicamentos que hagan reversible la vejez, según los investigadores. Por Yaiza Martínez de Tendencias Científicas.

Científicos de diversas universidades norteamericanas han publicado recientemente en la revista especializada Cell-2 un artículo en el que afirman haber encontrado el mecanismo universal del envejecimiento.

Dicho mecanismo afectaría por igual tanto a los organismos unicelulares (como los hongos) como a los multicelulares (como los mamíferos).

Ésta es la primera vez que se observa un mecanismo conservado a lo largo de la evolución, en tan diversos organismos a la vez. Según explica la Harvard Medical School en un comunicado, dicho mecanismo se remontaría a hace mil millones de años.

Células deterioradas

El estudio realizado por los investigadores demostró que los daños en el ADN (principal componente del material genético) afectan, con el paso del tiempo, a la capacidad de las células para regular apropiadamente la activación o desactivación de la expresión genética, en situaciones particulares.

Este proceso de deterioro, que aparece tanto en los hongos como en los humanos, podría ser el responsable universal del envejecimiento en todas las especies, señalan los especialistas.
Según declaraciones de David Sinclair, un profesor de patología de la Harvard Medical School, seguramente haya otras razones para el envejecimiento, pero la importancia del descubrimiento radica en que el envejecimiento de un simple hongo pueda relacionarse con el de un mamífero.
Desde hace cierto tiempo, los científicos han sabido que un grupo de proteínas llamadas sirtuins están relacionadas con el proceso de envejecimiento. Estas proteínas, cuando son estimuladas -por ejemplo con el resveratrol (fitoalexina presente en las uvas y en productos derivados, como el vino) o con la restricción de calorías-, parecen ocasionar efectos positivos tanto en la salud como en el proceso de envejecimiento.

Proceso en mamíferos

Hace aproximadamente diez años, Sinclair y otros colegas del Departamento de Biología del Instituto Tecnológico de Massachussets (MIT), descubrieron que una proteína sirtuin particular (la Sir2) de la levadura condicionaba el proceso de envejecimiento de ésta en dos sentidos: por un lado ayudaba a regular la actividad genética en las células, y por otro también ayudaba a reparar roturas en el ADN.

Pero los científicos también descubrieron que, a medida que pasaba el tiempo y se iban acumulando daños en el ADN, la proteína sirtium era cada vez menos capaz de regular adecuadamente la actividad genética. Como resultado, aparecían las características propias del envejecimiento en el hongo estudiado.

Hasta ahora, se creía que este fenómeno era exclusivo de la levadura o de los hongos, pero no se había comprobado si se daba también en organismos de más de una célula, explican los científicos.

También en ratones

Para descubrirlo, los investigadores realizaron análisis del mismo proceso en mamíferos, concretamente en ratones. Utilizando una sofisticada plataforma de microarray (chips de ADN), estudiaron la proteína sirtuin presente en las células de ratones.
La plataforma de microarray consiste en una superficie sólida a la que se unen una serie de fragmentos de ADN. La disposición de estos fragmentos se usa para averiguar las expresiones genéticas de las células. Los resultados obtenidos en este caso corroboraron que el mismo proceso de envejecimiento vinculado a sirtuin aparecía en ambas especies (el hongo y los ratones), aseguraron los científicos. En primer lugar, éstos descubrieron que la proteína sirtuin, en el sistema de los mamíferos, "supervisaba" los patrones de expresión genética. En cualquier organismo, todos los genes están presentes en todas las células, pero todos ellos están "controlados" para que su expresión o silenciación sea la apropiada. De hecho, si se activan los genes inadecuados, las células pueden resultar dañadas.

Guardianes sobreexplotados

Como medida protectora, las proteínas suirtins señalan, por tanto, qué genes han de permanecer desactivados. Al hacerlo, ayudan a preservar la cromatina (sustancia que se encuentra en la célula y a partir de la que se producen los cromosomas en la división celular), que es la encargada de envolver los genes que han de permanecer desactivados para que éstos no se "despierten".
En segundo lugar, estas proteínas tienen otra importante función: cuando el ADN resulta dañado por la luz ultravioleta o los radicales libres, las sirtuins abandonan sus funciones de guardianes y ayudan al ADN a reparar el lugar del daño. Durante este intervalo de tiempo, el envoltorio de la cromatina puede comenzar a desenredarse, y los genes hasta ahora silenciados comienzan a "despertar".

En la mayoría de los casos, las sirtuins vuelven a su función inicial antes de que se produzcan daños permanentes. Sin embargo, a medida que el ratón envejece, los niveles de daños en el ADN aumentan, y las sirtuins se deben alejar con más frecuencia de sus "puestos de vigilancia". Resultado: la desregulación de la expresión genética se hace crónica.
Muchas de las activaciones genéticas que se ponen en marcha a raíz de este proceso, están directamente relacionadas con los fenotipos del envejecimiento.

Rejuvenecimiento de los ratones

Los científicos se preguntaron entonces qué pasaría si se volviera a poner la sirtuin en "su sitio", en el caso de ratones viejos. La hipótesis era que con más sirtuins, la reparación del ADN se volvería más eficiente, y el ratón mantendría la expresión genética del patrón de la juventud, incluso en la vejez.

Eso fue precisamente lo que ocurrió. Utilizando el resveratrol, un activador de la sirtuin, se extendió la esperanza de vida de los ratones en entre un 24 y un 46%. Los científicos señalan que este descubrimiento abre una vía para la creación de medicamentos que puedan estabilizar la redistribución de sirtuins a medida que pasa el tiempo.
.
En definitiva, el deterioro del ADN no sería en sí mismo la causa del envejecimiento, explican los investigadores, sino que pondría en marcha un proceso que provoca la ausencia de regulación de la expresión genética. Según los científicos, sería por tanto posible invertir el proceso del envejecimiento, una vez que se ha detectado su mecanismo universal.
.
Fuente: Laflecha

lunes, 1 de diciembre de 2008

Un grupo de astrónomos observa dos estrellas gigantes de la Vía Láctea

Un grupo internacional de astrónomos, liderado por investigadores del Instituto de Astrofísica de Andalucía (IAA), ha observado con un detalle sin precedentes las estrellas WR 25 y Tr16-244, dos de las más masivas de la Vía Láctea. El descubrimiento ha sido posible gracias a una imagen enviada por el telescopio Hubble de la Agencia Espacial Europea (ESA), según informa ésta en un comunicado.

La imagen muestra un par de estrellas gigantescas, WR 25 y Tr16-244, situadas en el cúmulo abierto Trumpler 16. Este cúmulo está inserto en la Nebulosa Carina, una inmensa masa de gas y polvo situada a unos 7.500 años luz de la Tierra. La nebulosa Carina contiene varias estrellas ultra-calientes, incluyendo estos dos sistemas estelares y la famosa estrella azul Eta Carinae, la de mayor luminosidad confirmada hasta ahora.

Estas estrellas azuladas son muy brillantes, producen cantidades increíbles de calor, y emiten la mayor parte de su radiación en el ultravioleta. Son tan potentes que consumen su hidrógeno más rápido que otros tipos de estrellas, lo que las lleva a una vida del estilo 'vive rápido, muere joven'.
Las nuevas observaciones han sido obtenidas por un equipo que incluye a astrónomos de instituciones estadounidenses, chilenas, españolas y argentinas, y que lidera Jesús Maíz Apellániz, del Instituto de Astrofísica de Andalucía (IAA), en Granada. Además del Hubble, el grupo ha recurrido a observatorios en España, Chile y Argentina para elaborar un amplio catálogo de observaciones de todas las estrellas masivas de la galaxia observables en el visible.WR 25, en el centro de la imagen, es la más brillante. La vecina Tr16-244 es la tercera más brillante, justo encima y a la izquierda de WR 25. La segunda más brillante, a la izquierda de WR 25, es una estrella de baja masa situada mucho más cerca de la Tierra que la nebulosa Carina. Las estrellas como WR 25 y Tr16-244 son relativamente raras comparadas con otros tipos estelares, más fríos. A los astrónomos les interesan porque se las relaciona con nebulosas de formación estelar, e influyen en la estructura y evolución de las galaxias.

WR 25 es probablemente la más masiva e interesante de las dos, según los astrónomos. Su auténtica naturaleza fue puesta de manifiesto hace dos años, cuando un equipo internacional encabezado por Roberto Gamen, entonces en la Universidad de La Serena en Chile, descubrió que está compuesta de al menos dos estrellas. La mayor es una estrella Wolf Rayet cuya masa podría ser 50 veces superior a la de nuestro Sol. Este objeto está perdiendo materia rápidamente: sus poderosos vientos estelares han expulsado ya la mayoría de sus capas externas, ricas en hidrógeno. Su compañera binaria, más mundana, es probablemente la mitad de masiva que la estrella Wolf Rayet, y completa un giro a su alrededor cada 208 días.Las estrellas masivas se forman habitualmente en cúmulos compactos. A menudo las estrellas individuales están físicamente tan próximas entre sí que es muy difícil observarlas como objetos separados con los telescopios. Estas observaciones del Hubble han mostrado que el sistema estelar Tr16-244 es en realidad una estrella triple.

Dos de las estrellas en este sistema están tan próximas entre sí que parecen un único objeto, pero la Cámara Avanzada del Hubble para barridos del cielo las muestra como dos estrellas. La tercera estrella tarda decenas o cientos de miles de años en orbitar las otras dos. Estas estrellas masivas dobles y triples son tan brillantes, y sus componentes están tan próximos, que es especialmente difícil analizar las propiedades de las estrellas masivas.La radiación de WR 25 y Tr16-244 es probablemente la causa de que se evapore una burbuja gigante de gas dentro de la nebulosa Carina, mientras que al mismo tiempo estimula, posiblemente, la formación de nuevas estrellas. Se cree también que la radiación es responsable de la interesante forma del glóbulo, ya mostrada en imágenes previas del Hubble y que parece una mano con un prominente dedo apuntando hacia WR 25 y Tr16-244.
Fuente: Laflecha

miércoles, 26 de noviembre de 2008

El tratamiento hormonal predispone a las mujeres a padecer cáncer de mama

Investigadores franceses acaban de descubrir la causa del 50% de los cánceres de mama esporádicos. Los resultados explicarían también los estudios epidemiológicos que sugieren que el tratamiento hormonal predispone a las pacientes al cáncer de mama. Las conclusiones de este estudio aparecen en el último número de la revista Cancer Research.
El cáncer de mama esporádico, no relacionado con factores hereditarios, se ha convertido en el tipo de cáncer de mama más frecuente, representando del 85% al 90% de todos los casos (más de cuatro de cada cinco casos). Estos cánceres son debidos a causas que hasta hace poco eran consideradas como complejas y mal conocidas.

Sin embargo, las formas hereditarias del cáncer, que representan sólo del 10 al 15% de los cánceres de mama, han sido estudiadas durante años. Se han identificado diez genes cuya mutación aumenta el riesgo de cáncer en un individuo. Entre estos diez genes, dos son los responsables del 50% de los cánceres de mama hereditarios: BRCA1 y BRCA2 y nueve están implicados en el sistema de respuesta al daño del ADN.

El equipo de trabajo, liderado por investigadores del Centro Nacional de Investigación Científica (CNRS por sus siglas en francés), recogieron estos datos de cánceres hereditarios como el punto de partida para su investigación. La relación entre los cánceres hereditarios y los esporádicos consiste en que la proteína AKT1 esté sobreexpresada en el 50% de los cánceres de mama esporádicos.

Pero, ¿podría esta proteína intervenir en la predisposición al cáncer de mama no hereditario? Los investigadores pudieron demostrar que la activación de AKT1 conduce al secuestro de la proteína BRCA1 en el citoplasma, lo que impide a la proteína penetrar en el núcleo, y evita que desempeñe su papel en la reparación del ADN.

Entonces, la célula se comporta como si no tuviese gen BRCA1, sin que se vea implicada ninguna mutación (al contrario de lo que sucede con las formas hereditarias, donde el gen BRCA1 sufre una alteración). El fenómeno se ha observado en el 50% de los tumores esporádicos. Estos resultados muestran una asociación única, previamente no detectada, entre los cánceres esporádicos y hereditarios: el sistema de respuesta al daño del ADN.

Los investigadores sugieren que el tratamiento hormonal podría conferir a las pacientes una predisposición al cáncer de mama. Dado que AKT1 es activada por hormonas, el tratamiento hormonal podría, en algunos casos, provocar la activación crónica de la molécula. Esto podría conducir a una desregulación del gen BRCA1 y, en consecuencia, al cáncer de mama.
Fuente: Merdiano

lunes, 24 de noviembre de 2008

Científicos portugueses descubren el mecanismo de formación de los vasos sanguíneos

Científicos portugueses han descubierto un nuevo mecanismo de formación de vasos sanguíneos y de cicatrización. Sus descubrimientos, que podrían conducir a importantes avances en el tratamiento de las heridas crónicas, se publican online en el diario PLoS One.

Las heridas crónicas, tales como las experimentadas por pacientes diabéticos, son difíciles de tratar y tardan mucho tiempo en cicatrizar. En algunos casos, como por ejemplo en el «pie diabético», las heridas no curan en absoluto y podría ser necesaria la amputación. La formación de nuevos vasos sanguíneos es una parte fundamental del proceso de cicatrización de la piel, ya que permite que el oxígeno, los nutrientes y las proteínas anti-inflamatorias puedan trasladarse a la zona de la lesión. Los nuevos conocimientos sobre la formación de vasos sanguíneos son por tanto, extremadamente valiosos a la hora de desarrollar nuevas terapias para el tratamiento de las heridas.Las células endoteliales revisten todo el sistema circulatorio, desde el corazón a los capilares y son las responsables de la formación de nuevos vasos sanguíneos. En las zonas en las que se reparan o se forman nuevos vasos sanguíneos, como en las heridas, se sabe que estas células endoteliales son estimuladas por las «células precursoras vasculares derivadas de la médula ósea» (BM-PC, por sus siglas en inglés).
.
Las BM-PC han sido sometidas a un intenso estudio durante la pasada década, pero el mecanismo exacto por el que contribuyen a la cicatrización de las heridas seguía siendo esquivo.Mientras intentaba comprender cómo se comunican exactamente las BM-PC con las células que forman los vasos sanguíneos en las zonas de la herida, el equipo de investigación portugués investigó los componentes de la vía de señalización Notch. Esta vía está relacionada con la formación de células endoteliales, de forma notable en embriones, tumores y durante la cicatrización de la herida. El equipo confirmó que esta vía es esencial para la reparación de los vasos sanguíneos, y descubrió que regula la capacidad de las BM-PC para estimular la formación de nuevos vasos sanguíneos.«Sabíamos que las células endoteliales son estimuladas por células con origen en la médula ósea -declaró Francisco Caiado, un estudiante de doctorado en el Instituto de Ciencia Gulbekian en Portugal y primer autor del estudio- Ahora hemos demostrado que el estímulo en sí tiene lugar a través de la proteína Notch, que se encuentra en las células derivadas de la médula ósea. Tras su activación, la Notch favorece la adhesión de las células precursoras a la zona de la lesión, donde estimulan a las células endoteliales para formar nuevos vasos sanguíneos».Para poner a prueba su teoría de que la vía Notch está implicada en la comunicación entre las BM-PC y las células endoteliales durante la cicatrización, los científicos bloquearon la actividad Notch en BM-PCs in vitro para ver qué ocurría. Se redujo la formación génica objetivo de las BM-PC, así como la producción de células endoteliales y la capacidad de las células de unirse a sus objetivos. A continuación, los investigadores incrementaron la activación de la vía Notch en otra muestra y observaron el efecto contrario.
.
Después estudiaron el efecto de los componentes Notch en las propiedades de formación de vasos sanguíneos y cicatrizantes de las BM-PC en animales. Descubrieron que al inyectar BM-PCs normales en animales heridos se producía una mayor formación de vasos sanguíneos en la zona de la herida, pero que al inyectar BM-PC con una vía Notch inhibida nada mejoraba la cicatrización. Concluyeron que la cicatrización se estimulaba al activar la vía de señalización Notch en las BM-PC.La cicatrización ineficaz es un reto médico importante, especialmente en pacientes diabéticos y con obesidad mórbida que padecen heridas crónicas. La causa ha sido asociada con una menor capacidad para formar vasos sanguíneos en respuesta a la lesión, o a alguna disfunción en las células formadoras de vasos sanguíneos derivadas de la médula ósea.
.
Los autores del actual estudio sugieren aprovechar la vía Notch en las BM-PC para estimular el potencial cicatrizante de las BM-PC, un descubrimiento de gran importancia a la hora de desarrollar nuevos tratamientos para la cicatrización crónica o retrasada.

Biblioteca pública de la ciencia (Public Library of Science)http://www.plosone.org
Instituto de la ciencia Gulbenkianwww.igc.gulbenkian.pt/
Instituto portugués de oncología Francisco Gentilwww.ipoporto.min-saude.pt/
.
Fuente: Laflecha

viernes, 21 de noviembre de 2008

Observan cómo el agujero negro de la Vía Láctea tritura la materia a su alrededor

Un equipo internacional con participación del CSIC ha observado qué ocurre en el entorno de SgrA* (Sagittarius A*), el agujero negro supermasivo que, con una masa cuatro millones de veces mayor que la del Sol, sigue devorando materia en el centro de la galaxia. Los investigadores, con los telescopios VLT y APEX, han detectado intensas fulguraciones producto del desgarramiento de las nubes de gas que giran a gran velocidad en torno al agujero antes de caer en él.

Un equipo internacional con participación del Consejo Superior de Investigaciones Científicas (CSIC) ha observado qué ocurre en el entorno de SgrA* (Sagittarius A*), el agujero negro supermasivo que, con una masa cuatro millones de veces mayor que la del Sol, sigue devorando materia en el centro de la galaxia. Los investigadores, con los telescopios VLT y APEX, han detectado intensas fulguraciones producto del desgarramiento de las nubes de gas que giran a gran velocidad en torno al agujero antes de caer en él.

Los agujeros negros son difíciles de observar, pero SgrA* constituye un objetivo especialmente complicado ya que en el centro de la Vía Láctea hay enormes cantidades de gas y polvo que provocan que la radiación que emiten los objetos en la longitud de onda visible -el tipo de luz que ven nuestros ojos- se extinga por el camino. Por tanto, el estudio de esta región tiene que realizarse en frecuencias del espectro electromagnético capaces de atravesar este velo : cuantas más mejor, dado que es el único medio para obtener una imagen completa del fenómeno. Por ello los investigadores han empleado los telescopios VLT y APEX, situados en Chile, que captan ondas infrarrojas y submilimétricas respectivamente. Se trata de la primera vez que se obtienen medidas simultáneas de una fulguración con estos instrumentos.

"SgrA* es visible en la luz infrarroja durante cortos periodos de tiempo, cuando exhibe fuertes fulguraciones. Como no se puede prever cuándo ocurrirán estas fulguraciones, no es fácil observarlas con dos telescopios que no estén en el mismo lugar, porque una simple nube podría tapar la región del cielo que interesa. Además, hay que tener mucha paciencia", explica Rainer Schödel, del Instituto de Astrofísica de Andalucía (CSIC en Granada). Tras varias noches de espera, los astrónomos encargados del VLT descubrieron que SgrA* se activaba, y que su brillo aumentaba cada minuto. Alertaron a sus colegas del APEX y, durante las siguientes seis horas, observaron violentas variaciones en el brillo de SgrA*, además de cuatro fulguraciones mayores.
Como preveían los astrónomos, las fulguraciones se registraron primero en ondas infrarrojas y, una hora y media después, en ondas submilimétricas. Esto se debe a la expansión de las nubes de gas que finalmente caen al agujero: la velocidad con la que giran en las últimas órbitas en torno a SgrA* hace que se estiren, aumentando su tamaño y volviéndose más transparentes. Es entonces cuando la radiación puede viajar a través de ellas y llegar hasta la Tierra, por fases: en primer lugar, la nube se hace transparente para las longitudes de onda cortas, como las infrarrojas, y después para las que tienen una longitud mayor, como las submilimétricas. De ahí el retraso.

"De momento, sólo podemos percibir la emisión de SgrA* como un punto de luz. No obstante, como en términos astronómicos se encuentra cerca de la Tierra y es relativamente grande, en cinco o diez años esperamos ser capaces de observar directamente el gas que gira a su alrededor", concluye Schödel.
Fuente: Laflecha

jueves, 20 de noviembre de 2008

Una investigación confirma la existencia de océanos en Marte

Un equipo internacional dirigido por la Universidad de Arizona y con participación del Consejo Superior de Investigaciones Científicas (CSIC), ha descubierto nuevas evidencias de que un tercio de la superficie de Marte estuvo cubierto de agua en el pasado. Los científicos han llegado a esta conclusión tras analizar los datos del espectrómetro de rayos gamma (GRS) que incorpora la sonda Mars Odissey.

"Hemos comparado los datos del GRS sobre potasio, torio e hierro por encima y por debajo de dos líneas de costa: una más antigua que delimita un gran océano que cubría un tercio del planeta y otra segunda línea más joven que marca la existencia de un océano interior menos extenso", explica James M. Dohm, de la Universidad de Arizona y director de la investigación.

El GRS, operado desde el Laboratorio Lunar y Planetario de la Universidad de Arizona, es capaz de detectar elementos enterrados hasta 35 centímetros bajo la superficie. Los investigadores han usado además datos del altímetro láser de la sonda Mars Global Surveyor para obtener mapas topográficos de la superficie marciana.

Los datos mostraron que las zonas más ricas en potasio, torio y hierro se sitúan por debajo de estas líneas de costa paleoceánicas, lo que sugiere que el agua de la superficie de Marte disolvió, transportó y concentró estos elementos en el pasado. "Nuestra investigación nos lleva a plantearnos si la razón de que veamos mayor concentración de estos elementos por debajo de las antiguas líneas de costa es que el agua y las rocas que los contenían fueron arrastrados desde las tierras altas a las bajas, donde se habrían asentado en forma de grandes cuerpos de agua", explica Dohm.

Los resultados de la investigación han sido publicados en una edición especial de Planetary and Space Science. En ella han participado diversas instituciones de Estados Unidos, Canadá, Italia, España y Corea del Sur.

Determinación de las líneas de costa

La participación del CSIC en la investigación se ha centrado en la delimitación de las líneas de costa que marcan los límites de los océanos marcianos. "Estas líneas se dibujan en función de cambios de pendiente, diferencias en la textura de materiales o rasgos erosivos que suelen ser muy difíciles de interpretar, porque ha pasado mucho tiempo y porque son muy diferentes a las líneas de costa terrestres" explica el geólogo del CSIC Javier Ruiz Pérez, del Centro de Biología Molecular (centro mixto del CSIC y la Universidad Autónoma de Madrid).

En la Tierra, las líneas de costa son el resultado directo del oleaje y las mareas provocadas por la atracción de la Luna, pero Marte no tiene ningún satélite relevante y no está claro cómo pudieron ser sus antiguos vientos. Además, los mares y lagos de Marte muy probablemente estuvieron cubiertos de hielo, lo que impedía la acción de las olas.

Las primeras líneas de costa marcianas fueron propuestas a finales de los 80 por Timothy Parker, del Jet Propulssion Laboratory de Pasadena. Se trataba de tres líneas a diferentes niveles topográficos, lo que correspondía a océanos cada vez menos profundos y más bajos, en lo que suponía una progresiva desaparición del agua de Marte, quizá por evaporación a la atmósfera debido a la baja gravedad. El trabajo de Ruiz ha consistido en revisar y corregir los trabajos originales de Parker, separando y reagrupando datos y obteniendo las dos líneas paleocosteras usadas en este trabajo.

La primera línea, más extensa y antigua, evidencia la existencia de un océano veinte veces mayor que el Mediterráneo y que cubría un tercio de la superficie marciana. La segunda línea, interior y más joven, corresponde a un océano más pequeño, sólo diez veces mayor que el Mediterráneo - más o menos del tamaño de Norteamérica. "La primera línea representaría el límite más alto del océano, mientras que la segunda se refiere a un océano posterior o más bajo, quizá el mismo océano que se secó progresivamente", explica Ruiz.

Un debate con veinte años

Esta investigación añade nuevos datos claves a la discusión de la existencia de océanos en Marte, que cuenta con partidarios y detractores. "En cualquier caso, la existencia de antiguos océanos no indica un Marte primitivo similar a la Tierra pero sí que al menos durante ciertos periodos se dieron las condiciones para acumular grandes cuerpos de agua en las zonas más bajas del planeta", apunta Ruiz.

El debate científico sobre la posible existencia de océanos en Marte comenzó hace casi 20 años. Uno de los primeros estudios, liderado por Víctor Baker de la Universidad de Arizona (uno de los coautores de la presente investigación), proponía que hace algunos miles de millones de años grandes erupciones volcánicas desencadenaron flujos de agua -mayores que el caudal del Amazonas- que se asentaron en las tierras bajas del norte marciano formando mares y lagos. Estas grandes masas de agua habrían provocado condiciones climáticas más cálidas y húmedas que se mantuvieron durante decenas de miles de años.

Las primeras imágenes de las sondas espaciales, como las de la Mariner 9 en los primeros 70 o los orbitadores y módulos de descenso Viking a finales de la misma década, mostraron numerosas evidencias de la existencia de agua en el pasado marciano. En la última década, las flotillas de orbitadores enviadas por Estados Unidos y Europa han aportado nuevos detalles que vienen a corroborar esta impresión. Los resultados de la Mars Global Surveyor, Mars Odissey, Mars Express y Mars Reconnaissance Orbiter han mostrado un paisaje marciano esculpido por el agua y el hielo.
Fuente: Laflecha

lunes, 17 de noviembre de 2008

Se crea el primer centro de neuroprótesis a nivel internacional

La Escuela Politécnica Federal de Lausana (EPLF) ha fundado el primer centro internacional de neuroprótesis. Esta instalación pionera, que se inaugurará en enero de 2009, será un punto de convergencia entre la investigación fundamental, las aplicaciones clínicas y las oportunidades de mercado.
Una neuroprótesis es un dispositivo compuesto por sensores, conexiones y chips electrónicos embebidos en el cuerpo, cuya finalidad es reparar ciertas deficiencias neurológicas. El primer centro de neuroprótesis a gran escala, cuya sede estará en Lausana (Suiza), tiene como objetivo dotar de movilidad a personas parapléjicas, amputadas o con dificultades motrices.

Los progresos recientes en retinas artificiales e interfaces hombre-máquina que permiten la comunicación o la acción a través únicamente del pensamiento nos permiten valorar las posibilidades para mejorar la vida de los minusválidos. El nuevo centro se concentrará en seis temas principales: visión (implantes de retina), audición (implantes cocleares), movilidad (implantes corticales y espinales), interfaces hombre-máquina no invasivas (pilotado a distancia, robótica), micro- y nano-fabricación de implantes, y codificación neuronal (sensores de proceso de señal).

El centro, que se inaugurará el 1 de enero de 2009, pertenecerá a la Escuela de Ingeniería de la EPFL. Este proyecto colaborará con instituciones como la Universidad de Lausana y el Hospital Cantonal (CHUV), la Universidad de Ginebra y su hospital (HUG), y la industria biomédica local.
Fuente: Laflecha

jueves, 13 de noviembre de 2008

Descubren huellas de dinosaurio que pueden ser las más antiguas de Sudamérica

Huellas de un dinosaurio probablemente del Mesozoico y en consecuencia de las más antiguas de América del Sur, fueron descubiertas en un poblado del sudeste de Bolivia, informó el paleontólogo argentino Sebastián Apesteguía, citado por la prensa local.

"Hemos tenido la suerte de hallar la localidad con las huellas más antiguas del continente, cuya data duplica a todas las demás conocidas hasta ahora", dijo el científico argentino al matutino Correo del Sur de la ciudad de Sucre (sudeste).

Las pisadas fueron halladas en el poblado boliviano de El Palmar, en los valles sub-andinos del departamento de Chuquisaca, a unos 800 kilómetros al sudeste de La Paz, y corresponderían al período Mesozoico que se inició hace 265 millones de años y terminó hace 65 millones.
Tras el hallazgo el paleontólogo consideró: "Si antes hablábamos de alrededor de 70 millones de años (los rastros registrados en otras zonas), las que hemos encontrado corresponden a por lo menos 140 millones de años".

Las indagaciones del experto argentino comenzaron a fines de octubre, luego de que lugareños revelaran la existencia de extrañas huellas en terreno rocoso. Apesteguía relató que en la zona se encontraron al menos tres tipos de huellas en hileras, que fueron denominadas sólo como A, B y C, hasta que fuera posible identificar el tipo exacto de animal que caminó por el lugar.

La Prefectura (Gobernación) de Chuquisaca anunció que realizará gestiones legales para que la zona de El Palmar sea declarada "área natural protegida", para evitar que sea destruida por la actividad humana.
Fuente: Laflecha

miércoles, 12 de noviembre de 2008

Identifican un gen que predispone a la adicción a la cocaína

Una variación genética predispone a los humanos a la adicción a la cocaína, según un estudio en el que han participado Ainhoa Bilbao y Fernando Rodríguez de Fonseca de la Fundación IMABIS de Málaga. El trabajo se publica esta semana en la edición digital de la revista 'Proceedings of the National Academy of Sciences'
El descubrimiento fue realizado mediante experimentos en ratones que muestran que la versión en ratones de un gen es un factor importante para calibrar la respuesta del animal a la cocaína.

Según explicó a Europa Press Fernando Rodríguez de Fonseca, 'la identificación de este gen es un primer paso para encontrar los genes de la vulnerabilidad a la cocaína, y poder así entender y prevenir el impacto que esta droga tiene en poblaciones susceptibles. Dado que la ausencia de este gen incrementa la sensibilidad a este psico-estimulante, podemos considerarla como un gen protector contra la cocaína'.

Para el investigador, el estudio de los mecanismos de actuación de este gen 'nos permitirá conocer más piezas moleculares de los efectos de la cocaína y desarrollar herramientas diagnosticas y terapéuticas contra una adicción para cuyo tratamiento apenas se dispone de herramientas especiales'.

El gen, llamado CAMK4 en humanos, codifica una enzima cuya principal función es modificar un factor de transcripción del ADN común. Sin embargo, los investigadores descubrieron que la versión en ratones de CAMK4 ejerce su efecto sobre la adicción mediante un mecanismo diferente.

Durante el trabajo, dirigido por el hispano-polaco de origen gallego Jan Rodríguez Partkina del Centro de Investigación del Cáncer Alemán, los científicos desarrollaron cepas de ratones en los que CAMK4 y otros genes estaban inactivos. En comparación con los controles, los ratones en los que estaba desactivado el gen se volvían adictos a la cocaína más rápido y se veían afectados de forma más severa, lo que se definió con experimentos que evaluaban la preferencia del animal por áreas en las que había sido inyectado con la droga.

Los científicos realizaron después una encuesta estadística de 670 adictos a la cocaína y 726 individuos control de Sao Paulo en Brasil. En este caso, una variación de CAMK4 se asoció de forma clara con la adicción.

Los investigadores señalan que el efecto es recesivo, lo que significa que una persona podría necesitar poseer dos copias de esta variación genética. Los estudios en animales y humanos podrían suponer un punto de partida para los investigadores que buscan conseguir la recuperación de la adicción.

Una adicción muy española

El Observatorio Europeo de drogodependencias, a cuyo comité científico pertenece Rodríguez de Fonseca, constata en su informe de 2008 un incremento general del consumo de la cocaína en Europa y vincula a esta droga en muchos de los casos de mortalidad asociada al uso de sustancias ilegales.

En el último mes cerca de 2 millones de personas declararon su uso. Los dos países con mayor prevalencia de Consumo son España y Reino Unido, en donde en el último mes entre el 1,3 y 1,7 por ciento de la población la consumieron.

Según señala Fernando Rodríguez de Fonseca, 'hoy por hoy no conocemos si existen poblaciones susceptibles de hacerse adictos a cocaína, pero sí está claro que existen factores genéticos y ambientales que facilitan el consumo y la adicción a cocaína'.

El investigador apunta que la identificación de los factores que faciliten la adquisición, persistencia del consumo y pérdida del control sobre el uso de la cocaína es crucial para establecer tratamientos efectivos ya que no hay ninguna terapia realmente eficaz contra la adicción a esta droga.El descubrimiento fue realizado mediante experimentos en ratones que muestran que la versión en ratones de un gen es un factor importante para calibrar la respuesta del animal a la cocaína.

Según explicó Fernando Rodríguez de Fonseca, "la identificación de este gen es un primer paso para encontrar los genes de la vulnerabilidad a la cocaína, y poder así entender y prevenir el impacto que esta droga tiene en poblaciones susceptibles. Dado que la ausencia de este gen incrementa la sensibilidad a este psico-estimulante, podemos considerarla como un gen protector contra la cocaína".

Para el investigador, el estudio de los mecanismos de actuación de este gen "nos permitirá conocer más piezas moleculares de los efectos de la cocaína y desarrollar herramientas diagnosticas y terapéuticas contra una adicción para cuyo tratamiento apenas se dispone de herramientas especiales".

El gen, llamado CAMK4 en humanos, codifica una enzima cuya principal función es modificar un factor de transcripción del ADN común. Sin embargo, los investigadores descubrieron que la versión en ratones de CAMK4 ejerce su efecto sobre la adicción mediante un mecanismo diferente.

Durante el trabajo, dirigido por el hispano-polaco de origen gallego Jan Rodríguez Partkina del Centro de Investigación del Cáncer Alemán, los científicos desarrollaron cepas de ratones en los que CAMK4 y otros genes estaban inactivos.

En comparación con los controles, los ratones en los que estaba desactivado el gen se volvían adictos a la cocaína más rápido y se veían afectados de forma más severa, lo que se definió con experimentos que evaluaban la preferencia del animal por áreas en las que había sido inyectado con la droga.

Los científicos realizaron después una encuesta estadística de 670 adictos a la cocaína y 726 individuos control de Sao Paulo en Brasil. En este caso, una variación de CAMK4 se asoció de forma clara con la adicción.

Los investigadores señalan que el efecto es recesivo, lo que significa que una persona podría necesitar poseer dos copias de esta variación genética. Los estudios en animales y humanos podrían suponer un punto de partida para los investigadores que buscan conseguir la recuperación de la adicción.
Fuente: Laflecha

martes, 11 de noviembre de 2008

Descubren una nueva especie de hormiga

La nueva hormiga ha sido denominada Martialis heureka, y tiene una combinación de características nunca antes registrada. Está adaptada a vivir en el suelo, tiene de dos a tres milímetros de longitud, es pálida, no tiene ojos, y Rabeling y sus colegas sospechan que usa sus mandíbulas para capturar a sus presas.

La hormiga también pertenece a su propia nueva subfamilia, una de un total ahora de 21 subfamilias de hormigas. Ésta es la primera vez desde 1923 que se descubre una nueva subfamilia de hormigas con especies vivientes. Se han descubierto otras subfamilias desde ese año, pero siempre a partir de individuos fosilizados.

Este descubrimiento ayudará a los biólogos a conocer mejor la biodiversidad y la evolución de las hormigas, que son insectos muy abundantes y de gran importancia ecológica.
El hallazgo hace pensar que quizá haya más especies, posiblemente de gran importancia evolutiva, aún escondidas en los suelos de las selvas tropicales que todavía se mantienen lo bastante intactas.

Rabeling y sus colegas comprobaron que la hormiga es una nueva especie, un nuevo género y una nueva subfamilia después de un profundo análisis morfológico y genético. El análisis del ADN de sus patas confirmó su posición filogenética en la base del árbol evolutivo de las hormigas.
Se cree que las hormigas surgieron como tales hace unos 120 millones de años, a partir de ancestros más parecidos a las avispas. Las hormigas probablemente evolucionaron con gran rapidez hacia varios linajes diferentes, observándose hoy por ejemplo desde aquellas especializadas para vivir en el suelo, hasta las que viven en los árboles, pasando por muchas otras.

Este descubrimiento apoya la idea de que las hormigas depredadoras subterráneas ciegas surgieron en el inicio de la historia evolutiva de las hormigas.

Rabeling no sugiere que el ancestro de todas las hormigas fuera ciego y subterráneo, sino que estas adaptaciones surgieron muy temprano y que han persistido durante millones de años.
Basándose en estos nuevos datos y en el registro fósil, los investigadores asumen que el ancestro de estas hormigas recién descubiertas era similar en diversos aspectos a las avispas, quizá específicamente a la especie Sphecomyrma, de la que se halló un ejemplar fosilizado en ámbar y que data del período Cretácico. La Sphecomyrma es ampliamente conocida por suponerse que es el eslabón evolutivo perdido entre las avispas y las hormigas.
Fuente: Laflecha

viernes, 7 de noviembre de 2008

Cuenta atrás para los relojes de los circuitos microelectrónicos

Jordi Cortadella y Josep Carmona, del Departamento de Lenguajes y Sistemas Informáticos de la Universitat Politécnica de Cataluña, participan en el proyecto "I+D en técnicas y herramientas CAD para el diseño de circuitos integrados asíncronos".
.
Tradicionalmente, los sistemas que encontramos en nuestros ordenadores son síncronos es decir, tienen un reloj que marca el tiempo para que todos los componentes trabajen de manera sincronizada y coordinada. Pero plantean algunos problemas: el reloj tiene que avisar a todos los componentes del sistema y tiene que tener en cuenta el retraso de los componentes más lentos.
.
Por otra parte, con la nueva tecnología, la extensión de los circuitos integrados decrece extraordinariamente, lo que incrementa muchísimo las distancias por las que debe viajar la señal del reloj. Además, los impulsos periódicos que genera el reloj consumen mucha energía y generan un campo magnético que distorsiona el comportamiento interno de los circuitos.
.
Actualmente, los diseñadores de sistemas síncronos se encuentran con limitaciones físicas que en la mayoría de los casos están causadas por la existencia del reloj. Los sistemas asíncronos, en cambio, al no tener reloj, evitan estos problemas de manera natural, aunque son más difíciles de diseñar.
.
Desincronizar los síncronos
.
Consciente de las mejoras que aportan los sistemas asíncronos, la empresa Elastix, creada hace un año y medio en Silicon Valley y con sede en el distrito 22@ de Barcelona, está creando un software que facilite el paso de sistemas síncronos a sistemas asíncronos, con todas las ventajas que esto comporta y con la posibilidad de continuar aprovechando todos los beneficios de diseñar en sistemas síncronos.
.
Con esta idea, Elastix, que diseña circuitos microelectrónicos capaces de hacer el mismo trabajo más rápidamente y con menos gasto de energía, impulsa un proyecto en el que participan Jordi Cortadella, cofundador y director científico de la empresa, y Josep Carmona, ambos del Departamento de Lenguajes y Sistemas Informáticos de la UPC. En el proyecto, titulado "I+D en técnicas y herramientas CAD para el diseño de circuitos integrados asíncronos", y financiado por el Ministerio de Industria, Turismo y Comercio, también trabaja el equipo de Lluís Teres, miembro del Centro Nacional de Microelectrónica de la Universidad Autónoma de Barcelona.
.
Fuente: Laflecha

martes, 4 de noviembre de 2008

Hielo sólido en Urano y Neptuno

Para presiones entre 100.000 y 400.000 atmósferas, el equipo, dirigido por Eric Schwegler, encontró que el hielo se funde como un sólido molecular (de modo comparable a cómo se funde el hielo en un refresco).

Pero para presiones por encima de las 450.000 atmósferas, hay un marcado aumento en la pendiente de la curva de fusión debido a la disociación molecular y la difusión de protones en el sólido antes de fundirse, lo que se llama típicamente fase sólida superiónica.

El marcado aumento en la pendiente de las curvas de fusión abre la posibilidad de que el agua exista como un sólido en el interior profundo de planetas como Neptuno, Urano y la Tierra.
Determinar la curva de fusión del agua es importante para muchos campos de la ciencia, incluyendo la física, la química y las ciencias planetarias.

Se ha propuesto que podría darse una combinación entre las zonas frías de subducción de la Tierra y la curva de fusión de alta presión del agua, con profundas implicaciones sobre la composición y el transporte de materiales en el interior del planeta, así como sobre la evolución de éste a largo plazo a medida que se enfría.

En la nueva investigación se ha logrado establecer con bastante precisión la curva de fusión a presiones sumamente altas (de 350.000 a 450.000 atmósferas de presión), que es similar a las presiones reinantes en el interior de Neptuno, Urano, y la Tierra.

A presiones más altas, el equipo constató que el comienzo de la disociación de las moléculas y la difusión de los protones bajo presión se manifiesta de manera gradual.
Fuente: LAflecha

viernes, 31 de octubre de 2008

Lanzamiento del Satélite Simón Bolívar

Con gran expectativa y emoción cientos de caraqueños presenciaron el lanzamiento del Satélite Simón Bolívar a través de pantallas gigantes instaladas en la Plaza de los Saberes, ubicada en la planta baja de la Torre Ministerial en la Avenida Universidad de Caracas.

En medio de aplausos y gritos de alegría los habitantes de la Gran Caracas observaron como el primer satélite venezolano despegaba desde el Centro de Lanzamiento Satelital Xichang en China para otorgarle al pueblo bolivariano y suramericano independencia tecnológica.Los presentes, quienes entonaron las notas del Himno Nacional luego del lanzamiento, manifestaron estar felices por ser parte de este hecho histórico que ha sido impulsado por el Gobierno Bolivariano.
Fuente: Vive tv

miércoles, 29 de octubre de 2008

WWF asegura que la humanidad necesitará dos planetas en 2030

Al ritmo de su consumo actual, la humanidad, para satisfacer sus necesidades a comienzos de la década de 2030, necesitará tener a su disposición dos planetas, afirma el Fondo Mundial para la Naturaleza (WWF).
La huella ecológica de la humanidad, que evalúa su consumo de recursos naturales, ha superado ya el 30% de las capacidades del planeta para regenerarse, señala el WWF en su informe Planeta Vivo 2008.

La presión de la humanidad sobre el planeta se ha duplicado en los últimos 45 años por dos razones, por el crecimiento demográfico y por el aumento del consumo individual, explica el informe.

Esta sobrexplotación está agotando los ecosistemas y los desperdicios se acumulan en el aire, la tierra y el agua, indica.

Como resultado, la deforestación, la escasez de agua, el declive de la biodiversidad y el desorden climático, provocado por la emisión de gases con efecto invernadero, "ponen cada vez más en peligro el bienestar y el desarrollo de todas las naciones", explica el WWF.

El 'Índice Planeta Vivo', un instrumento calibrado para medir la evolución de la biodiversidad mundial y que abarca 1.686 especies de vertebrados en todas las regiones del mundo, ha disminudo casi en un 30% en los últimos 35 años, precisa el informe.

En vista del declive de esta índice, "parece cada vez más improbable que alcancemos el objetivo, sin embargo modesto, a que apuntaba la Convención de Rio sobre la diversidad biológica: reducir la erosión de la biodiversidad mundial de aquí a 2010", infiere el WWF.

Además de la huella ecológica mundial y el Índice Planeta Vivo, el informe presenta un tercer instrumento de medida, "la huella del agua", que evalúa la presión resultante del consumismo sobre los recursos hídricos a escala nacional, regional y mundial.

El problema es que el agua es un recurso distribuido muy desigualmente a través del mundo.
Así, unos 50 países se encuentran actualmente enfrentados a un estrés hídrico moderado o grave, subraya el WWF. Y el número de personas que sufren la penuria del agua, ya sea todo el año o por temporadas, aumentará debido al cambio climático, agrega.
Fuente: Laflecha

Todo listo para el lanzamiento del satélite venezolano Simón Bolívar

En la estación de El Sombrero (centro), los técnicos chinos y venezolanos cuentan las horas para el lanzamiento del 'Simón Bolívar', el primer satélite de Venezuela, que nace con la vocación de ser un elemento más de integración latinoamericana.

En unos diez días, este satélite geostacionario Venesat 1, que será lanzado este miércoles desde China, será manejado desde esta estación, situada en medio de la llanura venezolana y protegida por una base militar.

Este centro de operaciones de la Agencia Bolivariana de Actividades Espaciales (ABAE) será también el puerto de salida de los servicios de telefonía, televisión digital e internet de alta velocidad que el Estado venezolano promete llevar gracias al Simón Bolívar hasta los rincones más apartados del país.

Junto con una estación secundaria en el estado Bolívar (suroeste), El Sombrero y su base tecnológica forman parte de una inversión de 165 millones de dólares sobre un total de 406 millones de dólares que costó este proyecto.

Los restantes 241 millones de dólares se invirtieron en la construcción del satélite, la operación de lanzamiento y la capacitación de 90 operadores en Venezuela y China, explicó Luis Holder, jefe del programa satelital.

El Simón Bolívar estará situado a 36.000 kilómetros de la superficie terrestre, en la órbita hemisférica 78-Oeste, cedida por Uruguay, que hará que la señal de 1.300 megahercios (MHz) se extienda desde el sur de México hasta la mitad del territorio de Argentina y Chile.
A partir de la puesta en órbita del satélite, técnicos de la base de control como Yelitza Cabrera podrán controlar la "salud" del aparato.

"Podemos medir los niveles de voltaje, la temperatura, la humedad, la ubicación y la velocidad de la señal", explica Cabrera, rodeada de una veintena de monitores. Esa medición, llamada de telemetría, se realiza mediante una de las nueve antenas de 13 metros de diámetro y movimiento de 360 grados plantadas frente a la fachada de la estación.

La selección del lugar no es casualidad: sin ningún monte a la redonda, en el centro de Venezuela y en un "terreno poco sísmico", según Holder.

El satélite, de 3,6 metros de altura y un peso de 5.100 kilos, transmitirá en Banca C (radio y televisión), KU (transmisión de datos e Internet de alta velocidad) y KA, que todavía no es usada por ningún satélite gubernamental en América Latina y según los operadores representa el futuro, ya que "no está saturada".

Durante sus 15 años de vida útil, el Simón Bolívar servirá primero para concretar proyectos venezolanos y después "se extenderá a países hermanos" para desarrollar "programas sociales, por ejemplo de alfabetización o telemedicina" y también para abaratar y agilizar los sistemas de telecomunicaciones, explicó recientemente a AFP la ministra de Ciencia y Tecnología, Nuris Orihuela.

El general Antonio José Núñez, comandante de la base aérea Manuel Piar, donde se ubica la estación, ratificó que el uso del satélite es "pacífico".
"No tenemos previsto en el futuro la utilización de este satélite para fines militares", dijo a la prensa.

Según Orihuela, "no hay nada que tenga que ver con espionaje o con procesos bélicos" en el satélite, que sí servirá para garantizar una total seguridad en las comunicaciones venezolanas.
Fuente: Laflecha

miércoles, 22 de octubre de 2008

India colocará en la Luna una sonda pintada con su bandera

India colocará en la Luna una sonda pintada con su bandera nacional, informó este martes la agencia espacial de este país, la víspera del lanzamiento de su primera misión inhabitada lunar.

El programa lunar Chandrayaan-1 -cuyo nombre procede del aparato transportado en el cohete vector de satélites (PSLV)- está previsto el miércoles a las 06H20 (00H50 GMT) desde el centro espacial Satish Dhawan, en Sriharikota, una península del sureste de India, a 90 kilómetros al norte de Madras (Tamil Nadu).

Este acontecimiento histórico tiene varias etapas: el despegue del cohete PSLV, la puesta en órbita de Chandrayaan-1 a 385.000 kilómetros de la Tierra y una serie de experiencias y de observaciones alrededor y en la Luna, durante dos años, como la búsqueda de la presencia de agua, de minerales y de sustancias químicas. Todo ello gracias al alunizaje de una sonda.

"Una bandera india está pintada en la sonda. Cuando la nave espacial alcanzará, a partir del 8 de noviembre, su órbita a 100 kilómetros por encima de la Luna, la sonda se separará y caerá en suelo lunar", explicó a AFP el portavoz de la Organización India de la Investigación Espacial (ISRO), B.R. Guru Prasad.

Concretamente, ninguna bandera con tres franjas horizontales (azafrán, blanca y verde) y una rueda azul en el centro será clavada en suelo lunar. Pero India tendrá sus colores, después de Estados Unidos, Rusia y Japón, se felicitó el lunes por la noche el presidente de ISRO, Madhavan Nair.

"De hecho, cuando uno va a un nuevo territorio, le gusta marcar su presencia, dejando una bandera", indicó a la televisión NDTV.
.
Fuente: Laflecha

lunes, 20 de octubre de 2008

La obesidad está vinculada con una reacción insuficiente al placer

Una activación demasiado débil de los centros del placer en el cerebro mientras se come podría contribuir a la obesidad, según investigaciones de científicos estadounidenses.
Aunque resultados de estudios recientes dejan entender que los obesos podrían sentir menos placer mientras comen que personas que no lo son, y absorberían para compensarlo más comida, esta investigación es la primera que pone en evidencia este vínculo biológico, explica Eric Stice, un psicólogo de la universidad de Texas, principal autor del estudio.

Este trabajo mostró, mediante un sistema de visualización en imágenes del cerebro, que el grado de intensidad de la reacción de los circuitos cerebrales vinculados con el placer tras el consumo de una bebida con chocolate puede ayudar a predecir, en las jóvenes mujeres, quiénes de ellas engordarían.

Este fenómeno era particularmente claro en personas con una variación genética en los centros cerebrales del placer que reduce la producción de dopamina, subrayan los investigadores, cuyos resultados se publicaron en la revista estadounidense Science con fecha de este 17 de octubre.
La dopamina es una pequeña molécula que asegura la comunicación entre las neuronas, las células cerebrales y desempeña un papel en el deseo y las sensaciones de placer. Comer desencadena la producción de dopamina y el grado de placer está ligado a la cantidad de dopamina producida.

'Esta investigación revela que las personas obesas podrían tener menos receptores de dopamina en su cerebro, lo que las lleva a consumir más para compensar ese déficit de placer', subraya Eric Stice, quien investiga sobre la obesidad y las disfunciones alimenticias desde hace más de 20 años.
Fuente: Laflecha

jueves, 16 de octubre de 2008

Los efectos nocivos del consumo de éxtasis perduran en el tiempo

Según el resultado del estudio ENTE (Efectos Neurotóxicos del Éxtasis) realizado por investigadores del Instituto Municipal de Investigación Médica (IMIM-Hospital del Mar) y financiado por el Plan Nacional sobre Drogas y el Fondo de Investigaciones Sanitarias.

Según los resultados del estudio publicado recientemente en el Journal of Psycopharmacology, el consumo de éxtasis ocasiona problemas en la fluidez verbal, la memoria de trabajo y la velocidad en el procesamiento de la información. Estos efectos se mantienen en el tiempo y hasta podrían no desaparecer cuando se interrumpe el consumo.

El éxtasis es una droga de diseño, estimulante, derivada de las anfetaminas y, aún siendo ilegal, es muy popular entre los jóvenes que la toman de forma recreativa en situaciones de ocio. Aunque es una droga que en principio no causa dependencia física, los investigadores del IMIM han llevado a cabo un seguimiento de personas consumidoras de éxtasis durante dos años y han puesto de manifiesto que los efectos nocivos del consumo de éxtasis perduran en el tiempo. Esta droga de diseño afecta principalmente algunas de las funciones superiores del cerebro y, por lo tanto, su consumo puede comportar riesgos importantes para la salud. Estudios preliminares en animales de laboratorio habían mostrado la neurotoxicidad que la droga causaba al cerebro. Hasta ahora, otros estudios realizados en humanos no habían llegado a resultados definitivamente concluyentes.

Según Rafael de la Torre, coordinador del Grupo de Investigación Clínica en Farmacología Humana y Neurociencias del IMIM "atienden los efectos relacionados con la dosis de droga ingerida, la memoria es el aspecto cognitivo mas alterado a medida que se aumentan las dosis de éxtasis consumidos. Estos déficits, aún siendo subclínicos, tienden a persistir en el tiempo, especialmente en aquellas personas con un mayor consumo (mas de 100 pastillas)". Las pruebas de neuroimagen y las analíticas bioquímicas realizadas coinciden en que los consumidores de éxtasis presentan niveles bajos del neurotransmisor serotonina, la cual cosa correlaciona bien con los efectos secundarios descritos después del consumo de la droga (depresión, mal humor, astenia, etc.). Así mismo, el estudio también ha mostrado que todos los déficits cognitivos observados, se potencian cuando el consumo de éxtasis tiene lugar juntamente con el consumo de cannabis.

Para llegar a estas conclusiones, se seleccionaron 37 personas consumidoras habituales de alguna de las variedades existentes de éxtasis que además consumían cannabis; 23 personas consumidoras sólo de cannabis y 34 personas no consumidoras que actuaron como controles. Durante dos años se evaluaron los participantes cada seis meses. A cada visita se pidieron 72 horas de abstinencia en la toma de sustancias psicoactivas y se recogieron los datos relativos al consumo de drogas; se realizaron exámenes médicos, análisis bioquímicos y valoraciones psiquiátricas y neuropsicológicas. Los 24 meses, de los 94 participantes, 60 habían completado el estudio (de cada grupo 22, 13 y 25, respectivamente).

Estos resultados vienen a confirmar las conclusiones de un estudio realizado recientemente por el mismo grupo de investigadores donde evaluaron las alteraciones cognitivas y electrofisiológicas asociadas al consumo sostenido de éxtasis por el cual se hizo el seguimiento de personas consumidoras de éxtasis durante un año.

El Instituto Municipal de Investigación Médica (IMIM-Hospital del Mar) está llevando a cabo distintos estudios clínicos relacionados con el consumo de drogas que se proponen investigar variables genéticas, neuropsicológicas y psiquiátricas asociadas con la vulnerabilidad y efectos del consumo de substancias de abuso, dado el incremento continuado del consumo de sustancias psicoactivas en la sociedad actual, especialmente en la población mas joven.
Fuente: Laflecha

Archivo del blog