jueves, 30 de septiembre de 2010

Localizan un nuevo planeta con una temperatura que podría albergar vida

No es demasiado cálido ni demasiado frío, y un grupo de astrónomos cree que un nuevo planeta detectado fuera de nuestro sistema solar podría tener una temperatura que es justo la adecuada para ser susceptible de albergar vida.

El nuevo planeta gira en torno a una estrella enana roja conocida como Gliese 581 y parece tener tres veces la masa de la Tierra, dijo el equipo de la Universidad de California, Santa Cruz, y de la Carnegie Institution en Washington. El equipo lo descubrió empleando mediciones indirectas desde el telescopio Keck en Hawai, que ha sido usado para investigar a Gliese 581 durante 11 años y ha ubicado otros potenciales planetas que tendrían una órbita a su alrededor.

'Teníamos planetas en ambos extremos de la zona habitable - uno demasiado cálido y uno demasiado frío - y ahora tenemos uno justo en el medio que es perfecto', dijo Steven Vogt de la Universidad de California. 'El hecho de que hayamos sido capaces de detectar este planeta tan rápido y tan cerca nos dice que los planetas como este deben ser realmente comunes', dijo Vogt en un comunicado.

El planeta, llamado Gliese 581g, está a 20 años luz de distancia de la Tierra en la constelación Libra, según la investigación que será publicada en la Astrophysical Journal. Un año luz es la distancia que la luz recorre en ese período de tiempo a una velocidad de 300.000 kilómetros por segundo, es decir, unos 10 billones de kilómetros.

Los investigadores usan un método indirecto de velocidad radial para detectar planetas. Cuando un planeta orbita una estrella, esto hace que el astro se mueva muy levemente y esto puede ser registrado. 'Ahora hay casi 500 planetas conocidos fuera del sistema solar', escribió el equipo de Vogt. 'Si el barrio estelar local es una muestra representativa de la galaxia como un todo, nuestra vía Láctea podría tener una abundancia de planetas potencialmente habitables', agregó. Este planeta, uno de seis que giran en torno a la pequeña estrella, tiene entre tres y cuatro veces la masa de la Tierra y completa una órbita cada 37 días, calcularon los expertos. 'Nuestros descubrimientos ofrecen un argumento muy convincente respecto a la posibilidad de que sea un planeta potencialmente habitable', señaló Vogt.

Fuente: Laflecha.net

martes, 28 de septiembre de 2010

La nave espacial Rosetta "perseguirá" a un cometa

Investigadores financiados con fondos comunitarios recomiendan que la aeronave Rosetta de la Agencia Espacial Europea (ESA) deposite su aterrizador Philae en el hemisferio sur del cometa 67P/Churyumov-Gerasimenko.

El equipo, financiado en parte por el programa de intercambio de científicos EUROPLANET, presentó sus descubrimientos en el Congreso Europeo de Ciencia Planetaria 2010 (EPSC), celebrado en Roma (Italia). EUROPLANET recibe financiación comunitaria de la partida presupuestaria «Infraestructuras de investigación» del Séptimo Programa Marco (7PM).

Rosetta, lanzada al espacio en marzo de 2004, es la primera nave espacial dedicada a la exploración cercana y de larga duración de un cometa. Su destino es el cometa 67P/Churyumov-Gerasimenko, una «bola de nieve sucia» de 4 km de diámetro que cierra una órbita alrededor del Sol cada 6,6 años. Los cometas son unos de los objetos más primitivos del Sistema Solar y la comunidad científica confía en que Rosetta extraerá de éste información hasta ahora desconocida sobre las condiciones que reinaban en las primeras fases de la existencia de nuestro Sistema Solar.

«Churyumov-Gerasimenko es una cápsula del tiempo que contiene material del nacimiento de nuestro Sistema Solar», explicó Jeremie Lasue, del Laboratorio Nacional de Los Álamos (Estados Unidos), participante en el estudio.

Rosetta depositará a Philae en Churyumov-Gerasimenko en 2014 y éste recogerá muestras de material de debajo de su superficie. Durante los próximos trece meses Philae y Rosetta mantendrán su órbita alrededor del cometa y reunirán información detallada sobre él durante su tránsito cerca del Sol.

La elección de un punto de aterrizaje para Philae que sea seguro y permita obtener información científica relevante dista mucho de ser una tarea sencilla. En este estudio reciente el equipo apunta al hemisferio sur como el destino más adecuado para Philae.

El equipo considera que será más sencillo obtener muestras en la zona mencionada. El núcleo de Churyumov-Gerasimenko está inclinado en un ángulo de 45°C, lo que implica que su exposición al fulgor del Sol será la máxima cuando el cometa se acerque al centro del Sistema Solar. Las simulaciones muestran que este hemisferio estará mucho más erosionado que el norte y facilitará las labores de perforación y muestreo el suelo cometario.

La estabilidad también desempeña un papel importante. Al acercarse al Sol, los comentas se calientan y despiden enormes masas de gas y polvo de su superficie. Las partículas de polvo más pequeñas desaparecen hacia la cola, pero las más grandes se acumulan en la superficie y generan una capa conocida como manto de polvo.

El equipo ha calculado que en el momento del aterrizaje se habrá creado una capa de 20cm de grosor en el hemisferio sur y otra de sólo un par de centímetros en las regiones del norte. Además, el hemisferio norte estará iluminado por el Sol durante el aterrizaje y las enormes y rápidas emisiones de gas y polvo dificultarían el aterrizaje en la zona.

«En el momento del aterrizaje de Philae las temperaturas de su ecuador serán superiores al punto de congelación y podrán rondar los 150°C», indica la Dra. Maria Cristina De Sanctis, del Instituto Nacional de Astrofísica de Italia, coautora del estudio. «Sin embargo, las regiones del polo sur mantendrán temperaturas más estables», añade.

«Podemos concluir [...] que la zona del hemisferio sur del núcleo cometario puede suponer un lugar de aterrizaje seguro (poca variación de temperatura, pocos flujos de gases y polvo y una buena cubierta de polvo) y presentar gran erosión del terreno y la posibilidad de hallar material virgen a poca distancia de la superficie», afirman los investigadores.

Los investigadores llegaron a estas conclusiones tras desarrollar y ejecutar modelos informáticos tridimensionales capaces de predecir los niveles de actividad del núcleo del cometa desde el momento en el que Rosetta se acerque al cometa a principios de 2014 hasta agosto de 2015, momento de máxima cercanía al Sol.

La Dra. De Sanctis indicó: «Cuando dispongamos de más datos sobre Churyumov-Gerasimenko y podamos cuantificar nuestros resultados con mayor precisión seremos capaces de completar la información actual y colaborar en la preparación de un aterrizaje seguro de Philae.»

El EPSC es el encuentro de científicos planetarios más importante de Europa y su organización corre a cargo de la iniciativa EUROPLANET, cuyos objetivos son reunir a la comunidad investigadora europea dedicada a la ciencia planetaria mediante actividades de creación de redes e investigación conjunta y también dar a investigadores acceso a laboratorios e instalaciones especializadas y a datos científicos, información y herramientas informáticas.

Fuente: Laflecha.net

viernes, 24 de septiembre de 2010

¿Sabes cuántos millones de barriles de petróleo se vertieron en las aguas del Golfo de México?

El 20 de abril explotó la plataforma petrolífera de BP en el Golfo de México. Desde entonces la mancha de crudo se ha ido expandiendo en el océano. Científicos estadounidenses presentan ahora en Science la primera medición independiente sobre el volumen del vertido. En total se han derramado a diario hasta el 15 de julio de 56.000 a 68.000 barriles de petróleo (cada barril son 158 litros).

Al inicio del vertido, los dirigentes declararon que no sería posible medir la mancha de petróleo en el océano. Pero la presión pública obligó a buscar formas de medición. A partir de ese momento se produjeron varias estimaciones desde los 1.000 barriles, a 5.000, hasta los 19.000 en adelante.
El primer estudio independiente, realizado por investigadores de la Universidad de Columbia en Nueva York (EE UU) y publicado esta semana on line en la revista Science, confirma ahora que se derramaron de 56.000 a 68.000 barriles diarios, "probablemente más", hasta el 15 de julio. La estimación total del petróleo vertido es de unos 4,4 millones de barriles.

"Queríamos realizar una estimación independiente dado que se tenía la sensación de que las cifras que estaban circulando no tenían por qué ser precisas", declara Timothy Crone, autor principal, y geofísico marino del Observatorio Terrestre Lamont-Doherty de la Universidad de Columbia (EE UU). Según el equipo de investigación, la información era necesaria para determinar las reacciones a largo y a corto plazo.

El nuevo estudio divide la tasa de flujo en dos períodos: desde el 22 de abril hasta el 3 de junio -cuando el petróleo salía a chorros de una grieta irregular en el elevador-, y partir del 3 de junio -cuando se produjo el corte del elevador y el petróleo se lanzó temporalmente al océano sin obstrucciones.

Junto a Maya Tolstoy, coautora y geofísica marina de Lamont, Crone utilizó una técnica de análisis visual, desarrollada por él mismo y denominada "velocimetría de pluma óptica". El vídeo del primer período indicaba un flujo de unos 56.000 barriles al día (un barril contiene 158 litros). Después del corte de la tubería, la tasa aumentó hasta unos 68.000 barriles. Tras contar el tiempo transcurrido, los científicos restaron los 804.877 barriles recogidos por BP en ese lugar, hasta alcanzar los 4,4 millones de barriles derramados.

Crónica del mayor desastre ecológico de EE UU

Lograr medir la magnitud del derrame no ha sido tarea fácil para los investigadores. Una semana después del primer cálculo de 1.000 barriles diarios, BP estaba recogiendo más que esa cantidad, y se seguía vertiendo en el mar. El 28 de abril, la Administración Atmosférica y Oceánica Nacional produjo una estimación "apresurada" de 5.000 barriles, extrapolando esta cifra del tamaño de la pluma en la superficie. Sin embargo, los científicos enseguida rechazaron esta cifra, que debía ser de cinco a diez veces mayor, según Crone.

El 21 de mayo, un periódico un artículo de opinión de Crone y colegas de otras tres instituciones en el que exponían que se podrían utilizar técnicas científicas actuales para crear una imagen más realista. El 27 de mayo, el gobierno aumentó de nuevo su estimación, de 12.000 a 19.000 barriles diarios. Se empleó una amplia variedad de técnicas en esta estimación oficial y en las posteriores, incluso más elevadas.

Técnica de volcanes para vertidos

La velocimetría de pluma óptica empezó a ser desarrollada por Crone en 2006 para estudiar las fuentes hidrotermales naturales, grietas y agujeros creados por la actividad volcánica en el fondo del océano que arrojan chorros de agua sobrecalentada y cargada de minerales, similares a los del chorro de una tubería que está derramando petróleo.

La técnica utiliza un vídeo de alta resolución tomado por cámaras submarinas para realizar un seguimiento del movimiento de olas y de los flujos turbulentos en el agua, y desglosa el movimiento píxel a píxel. Crone lo probó primero en el laboratorio, después con fuentes del océano profundo en el Pacífico oriental y en la cresta de Juan de Fuca, frente la costa noreste del Pacífico de EE UU.

Pero este estudio es según sus autores, "sólo un comienzo". Los científicos informan que las fugas podrían haber variado día tras día y que el análisis no incluía los videos de otras pequeñas fugas desde agujeros más pequeños en una parte más alta de la tubería, los cuales se cree que han ido creciendo con el tiempo. Por tanto, "las cifras reales pueden ser mayores en todo caso", explica Crone.

"Evidentemente, conocemos los límites de nuestra técnica; probablemente nunca lleguemos a saber la cifra exacta", admite el experto. El equipo de investigadores podrá afinar sus estimaciones "si el gobierno y BP ponen a su disposición más vídeos y otro tipo de información", concluye Crone.

Fuente: Laflecha.net

miércoles, 22 de septiembre de 2010

Un nuevo método permite predecir un brote de gripe con dos semanas de anticipación

Es cuestión de tiempo, tarde o temprano vendrá una gran pandemia que diezmará la población mundial. Quizás sea un nuevo tipo de gripe proveniente de algún cerdo asiático o quizás cualquier otra cosa, pero el ser humano es el gran monocultivo del planeta. Estamos en todas partes y en gran número, nos concretamos en la ciudades donde tomamos apiñados el transporte público y nos movemos de un continente a otro en cuestión de horas. Es imposible que ningún microorganismo desperdicie semejante oportunidad. La aparición de la nueva gripe el año pasado fue un aviso de lo que puede ocurrir.

Algunos opinan que lo mejor que le podría pasar a este planeta, y en consecuencia al género humano si quiere perpetuarse, es que algo así ocurra cuanto antes. Al fin y al cabo nos hemos convertido en una plaga y estamos destruyendo la vida en este planeta. Pero si no se piensa así (o se sospecha que uno puede terminar entre los que no se salven) lo mejor es preparase para cuando llegue una pandemia. Además, cualquier lección que se pueda sacar de ese tipo de estudios se puede aplicar a cualquier otra epimedia, aunque no tenga proporciones bíblicas.

En las campañas contra la gripe estacional el tiempo que pasa entre que una persona muestra los primeros síntomas y los datos estén disponibles para los investigadores suele ser de una semana. Aunque esto permite cierto margen de maniobra para que los epidemiólogos se hagan una idea de cuánta gente está enferma, no les permite hacer un seguimiento en tiempo real o anticiparse a la difusión de la enfermedad.

Desde hace tiempo se trabaja en modelos de propagación de enfermedades, tanto basados en datos experimentales como en modelos matemáticos. Ahora Nicholas Christakis, de la universidad de Harvard, y James Fowler, de la universidad de California en San Diego, han usado la "paradoja de la amistad" para analizar una epidemia de gripe entre 744 estudiantes. Sus hallazgos apuntan a un método novedoso para detectar la aparición de brotes de una enfermedad contagiosa.

Todo parte de una curiosa idea. Quizás usted no lo sepa, pero sus amigos son probablemente más populares que usted. Esta aparente paradoja fue descrita por primera vez en 1991 y sostiene que, estadísticamente, los amigos de un individuo dado son probablemente más populares que el individuo mismo. Si tomamos una muestra aleatoria de gente y les solicitamos que nombren un amigo, en promedio ese amigo estará por encima en popularidad o rango en la red social que el individuo que lo nombró.

Quizás sea más fácil comprender esta aparente paradoja si nos fijamos en una fiesta privada. El anfitrión estará en el medio rodeado de gente mientras que en los márgenes habrá gente solitaria con una bebida en la mano apoyada en la pared. Si se pide al azar que la gente nombre un amigo lo más probable es que se nombre al bien relacionado anfitrión, casi nadie mencionará a uno de los tipos solitarios.

Debido precisamente a su elevado éxito social, el anfitrión estará más expuesto que los demás a los cotilleos y las tendencias o ideas le llegarán antes que a los demás. La pregunta es si también se contagiará antes de una enfermedad infecciosa.

Precisamente, estos investigadores han analizado una red social real constituida por universitarios para así comprobar si la paradoja de la amistad tiene alguna relación en la propagación de enfermedades infecciosas. Esta idea es un tanto provocadora porque viene a decir que el contexto social es importante a la hora de la transmisión de patógenos.

Analizar una red social en este aspecto no es fácil. En general no se tiene el estado de salud de todos los miembros que la componen y hay que gastar muchos recursos y tiempo en obtener esa información de una muestra de la población. Muchas veces hay que conformarse con información parcial.

En este caso los investigadores pudieron analizar la propagación de la epidemia de gripe H1N1 de 2009 gracias a una estrategia original. Se conformaron con la población estudiantil de la universidad Harvard y preguntaron aleatoriamente a 319 de ellos (grupo A) si querían participar en el estudio y dar nombres de amigos. En total nombraron a 425 amigos que constituyeron el que llamaremos grupo B. Los investigadores vigilaron a ambos grupos a través de dos vías. Por una parte la información sobre su estado de salud que ellos mismos proporcionaban a través del e-mail cuando se les preguntaba dos veces por semana sobre él y por otra parte la información procedente del servicio de salud de la propia universidad.

Los investigadores encontraron que, en promedio y usando un determinado método de detección, el grupo B manifestó la gripe unas dos semanas antes que el grupo A (o grupo aleatorio) y 46 días antes del pico epidémico usando otro método. Es decir, lograron predecir la propagación de la gripe con dos semanas de anticipación.

Según Christakis el nuevo resultado podría tener implicaciones significativas para los servicios públicos de salud. Los responsables de los mismos tienen que seguir frecuentemente las epidemias usando una muestra aleatoria de gente o hacer un seguimiento de las personas una vez éstas caen enfermas. Pero si en su lugar se preguntara a un grupo aleatorio por sus amigos se podría hacer un seguimiento de ambos grupos y predecir las epidemias antes de que afecten a la población en general. Esto permitiría una respuesta más pronta y vigorosa a la hora de contener la epidemia.

Según Fowler este método sería también efectivo para saber qué partes de un país se contagiaran de gripe primero. Según Dirk Helbing, del Instituto Federal tecnológico de Zurich y no participante en el estudio, el nuevo método puede salvar vidas, pues dos semanas es suficiente tiempo como parta tomar acciones, como iniciar una campana de vacunación. Aunque otros expertos urgen para que se hagan nuevos estudios al respecto, pues la población estudiantil es especial y sus individuos suelen vivir próximos unos a otros.

Este método también es aplicable a otra clase de epidemias, como el abuso de drogas o incluso la difusión de ideas o modas.Este estudio puede que sea la única demostración hasta el momento de que la posición social afecta el riesgo de adquirir enfermedades.

Fuente: Laflecha.net

martes, 21 de septiembre de 2010

Identificando los genes que provocan la tuberculosis

Científicos de Europa y Asia han identificado diez genes que determinan la virulencia del bacilo que provoca la tuberculosis. Este descubrimiento ofrece al mundo de la medicina la oportunidad de desarrollar tratamientos novedosos y ensayar candidatos nuevos a convertirse en la vacuna contra una de las enfermedades más comunes y a la vez más letales del mundo. Los hallazgos del estudio, financiados en parte por la Unión Europea, se han publicado en la revista Public Library of Science (PLoS) Pathogens.

Pese a lo complejo de la tarea emprendida, los científicos consiguieron resultados en tan sólo dos semanas gracias a una nueva técnica de cribado de su propia factura. Según indican, este método podría adaptarse fácilmente para detectar otros patógenos intracelulares.

A pesar de que el personal sanitario hace cuanto está en su mano por detener esta enfermedad, la tuberculosis sigue causando la muerte a casi dos millones de personas en todo el mundo cada año. La tuberculosis se debe a bacterias de la familia de las micobacterias, entre ellas la Mycobacterium tuberculosis, el agente que provoca esta enfermedad en seres humanos. Su patogenicidad o virulencia viene determinada por su manera de propagarse en el interior de la célula hospedadora.

Se sabe que este agente patógeno es capaz de burlar las defensas del huésped. La infección se produce por medio del parasitismo de los macrófagos, que desempeñan una función básica en la respuesta inmunitaria del organismo al destruir los microbios que encuentran.

La M. tuberculosis se introduce en los pulmones, es ingerida por los macrófagos alveolares y se ubica en un compartimento intracelular denominado fagosoma. Normalmente los fagosomas aniquilan a los organismos ingeridos por el macrófago por acidificación, pero la bacteria de la tuberculosis es capaz de bloquear dicho proceso y reproducirse en abundancia.

Gracias al nuevo método de cribado creado por los autores, en el que emplean un robot, es posible identificar muestras fenotípicas celulares visualmente y también de forma automática. De esta manera, los investigadores disponen de más tiempo para identificar los organismos microbianos que parasitan las células.

El equipo científico, encabezado por el Dr. Olivier Neyrolles, del Institut de Pharmacologie et de biologie Structurale (CNRS, Centre national de la recherche scientifique/Université de Toulouse) y la Dra. Priscille Brodin del INSERM (Institut national de la santé et de la recherche médicale) y del Institut Pasteur, aplicaron este método a una cepa virulenta de la M. tuberculosis y cribaron más de 11.000 mutantes a una velocidad considerable. El robot estaba programado para averiguar si la »función de acidificación» estaba activa o no. De este modo los científicos aislaron los mutantes que no bloqueaban el proceso de acidificación del fagosoma. Mediante ingeniería genética pudieron identificar las mutaciones y posteriormente consiguieron caracterizar diez genes implicados en el parasitismo del macrófago.

Los autores señalan que la mayoría de estos genes codifican proteínas y lípidos, productos secretados por la bacteria. Además, indican que los mutantes aislados podrían aprovecharse para desarrollar nuevas vacunas.

En el estudio participaron científicos de Francia, Corea del Sur, España y Reino Unido.
Estos hallazgos son fruto de tres proyectos financiados por la UE: TB-MACS, TB-VIR y NEWTBVAC. TB-MACS («Identificación y caracterización de genes de la virulencia de la Mycobacterium tuberculosis implicados en el parasitismo de macrófagos») recibió más de 734.000 euros por medio del área temática «Ciencias de la vida, genética y biotecnología aplicadas a la salud» del Sexto Programa Marco (6PM) con la finalidad de mejorar la salud humana definiendo productos y procesos bacterianos indispensables para los procesos infecciosos.

TB-VIR («Diversidad genética y virulencia diferencial de la Mycobacterium tuberculosis W-Beijing y respuestas inmunes del huésped»), respaldado con casi 3,9 millones de euros, y NEWTBVAC («Descubrimiento y desarrollo preclínico de una nueva generación de vacunas contra la tuberculosis»), que recibió 12 millones de euros, contaron con apoyo a través del tema de Salud del Séptimo Programa Marco (7PM).

Fuente: Laflecha.net

viernes, 17 de septiembre de 2010

¿Por qué los pájaros en bandada se mueven a la vez?

Las manadas de animales, ya sean las abejas, peces, hormigas o las aves, a menudo se mueven en sincronía sorprendente y aparentemente toman decisiones en unanimidad en cualquier momento, un fenómeno que se ha mantenido desconcertante para muchos investigadores.

Una nueva investigación publicada esta semana en New Journal of Physics, utiliza un modelo de partículas para explicar el proceso de toma de decisiones colectivas de las bandadas de aves de aterrizaje en los vuelos.

El Uso de una partícula simple automotriz (SPP), ve a las aves representadas por partículas con parámetros como la posición y la velocidad.

A falta de un líder que tome las decisiones, el cambio colectivo a la tierra está muy influido por las perturbaciones a las qyue las aves están sujetas, como la posición de las aves volando en el rebaño. Esto puede ser comparado a una avalancha de arena apilada que se desmorona.
Como explican los investigadores, "Nuestra motivación principal era entender mejor algo que es extraño y que encontramos en la naturaleza, especialmente en casos relacionados con comenzar o dejar un patrón de conducta colectiva en un grupo de personas o animales.

"Proponemos un modelo simple para un sistema cuyos miembros tienen la tendencia a seguir a los otros en el espacio y en su estado de ánimo sobre una decisión acerca de detener la actividad. Este es un modelo muy general, que puede aplicarse a situaciones similares. ", afirman los investigadores.

Las aplicaciones posibles incluyen el vuelo colectivo, vehículos aéreos no tripulados, iniciando un patrón de movimiento que desee en las multitudes o grupos de animales e incluso las finanzas, donde los resultados podrían ser utilizados para interpretar los efectos colectivos en la venta o la compra de acciones en el mercado de valores.

Fuente: Laflecha.net

miércoles, 15 de septiembre de 2010

Dos nuevos estudios relacionan el alzhéimer con el metabolismo cerebral

La enfermedad de Alzheimer explota en el cerebro en forma de depósitos ricos en proteínas, llamadas placas amiloides, mucho antes de que aparezcan el deterioro cognitivo y la demencia. Aunque la causa de la enfermedad sigue siendo desconocida, investigadores de la Universidad de Washington (EE UU), han descubierto un posible vínculo entre el metabolismo cerebral y la enfermedad.

Dos nuevas investigaciones se centran esta semana, en la edición on line de la revista Proceedings of the National Academy of Sciences (PNAS), en la enfermedad de Alzheimer. Concretamente, los estudios relacionan los sitios de deposición de las placas amiloides con regiones del cerebro que se activan incluso cuando los individuos no se dedican a tareas orientadas a objetivos concretos.

Los resultados muestran que, en las personas afectadas por la enfermedad, la placa se acumula en las regiones del cerebro que corresponden, en las personas sanas, a aquellas regiones donde un proceso metabólico - llamado glucólisis aeróbica - es elevado.

"Debido a que la glucólisis aeróbica puede ayudar al cerebro gracias a la gestión de subproductos metabólicos tóxicos y a la regulación de la muerte celular programada, los análisis sugieren una posible relación entre las funciones del cerebro alimentado por la glucólisis aeróbica y la aparición de la enfermedad de Alzheimer", afirman los autores.

Aunque las células del cerebro utilizan la glucólisis aeróbica para obtener energía rápidamente a partir de pequeñas cantidades de glucosa, la mayor parte de su energía la consiguen a través de un proceso bioquímico más eficiente para quemar dicha molécula.

Una nueva luz entre las sombras

Mediante el uso de la tomografía por emisión de positrones, el equipo liderado por Andrei G. Vlassenko, científico de la Universidad de Washington (EE UU), comparó en el primero de los estudios los cerebros de adultos neurológicamente sanos con los de personas afectadas por la enfermedad para determinar si el patrón de depósito de placa puede estar vinculada con el metabolismo cerebral subyacente.

El segundo de los estudios, liderado por S. Neil Vaishnavi, experto radiólogo de la misma universidad, revela que los niveles de la glucólisis aeróbica, que produce alrededor del 5% de la energía del cerebro, varía en las regiones cerebrales en las personas sanas.

Mientras que algunas regiones - como la corteza prefrontal y parietal, que se cree desempeñan un papel importante en la auto-referencia y control de tareas - mostraron altos niveles de glucólisis aeróbica; otros, - como la formación del cerebelo y del hipocampo, que pueden afectar al control motor y la memoria - mostraron valores más bajos.

Fuente: Laflecha.net

martes, 14 de septiembre de 2010

Científicos descubren 14 nuevos objetos más allá de la órbita de Neptuno

Más allá de la órbita de Neptuno residen innumerables rocas de hielo conocidas como objetos transneptunianos (OTN). Uno de los más grandes, Plutón, está clasificado como un planeta enano. La región también nos proporciona cometas como el famoso Halley. La mayoría de OTN son pequeños y reciben poca luz solar, lo que los hace débiles y difíciles de detectar.

Ahora, los astrónomos, usando técnicas inteligentes para escudriñar los archivos de datos del Telescopio Espacial Hubble de la NASA, han añadido 14 nuevos OTN al catálogo. Su método promete descubrir cientos más."El interés de los objetos trans-neptunianos reside en que son bloques de construcción sobrantes de la formación del sistema solar", explicó el autor principal César Fuentes, ex integrante del Centro Harvard-Smithsonian de Astrofísica y ahora en la Northern Arizona University.
.
Como los OTN discurren lentamente en la órbita alrededor del Sol , se mueven contra el fondo estrellado, y aparecen como rayas de luz en las fotografías realizadas durante el tiempo de exposición. El equipo desarrolló un software para analizar cientos de imágenes del Hubble para la caza de rayas. Después de que candidatos prometedores fueron marcados, las imágenes fueron sometidas a examen para confirmar o refutar cada descubrimiento.La mayoría de los TNO se encuentran cerca de la eclíptica - una línea en el cielo que marca el plano del sistema solar (ya que el sistema solar se formó de un disco de material). Por lo tanto, el equipo buscó dentro de los 5 grados de la eclíptica para aumentar sus posibilidades de éxito.Se han encontrado 14 objetos, incluyendo un binario (dos OTN orbitando uno junto al otro como una miniatura del sistema Plutón Caronte). Todos son muy débiles, más de 100 millones de veces más que los objetos visibles a simple vista.Al medir su movimiento a través del cielo, los astrónomos calculan una órbita y la distancia de cada objeto. La combinación de la distancia y el brillo (además de suponer un albedo o reflectividad), permite calcular entonces el tamaño. La recién descubierta gama de OTN tiene de 40 a 100 kilómetros de ancho.A diferencia de los planetas, que tienden a tener órbitas muy planas, algunos OTN tienen órbitas significativamente inclinadas respecto a la eclíptica.
.
Por lo general, los más pequeños objetos transneptunianos son los restos destruidos otros más grandes. Durante miles de millones de años, estos objetos se han ido moliendo en colisiones entre sí.Este estudio inicial examinó sólo un tercio de un grado cuadrado en el cielo, lo que significa que hay un área mucho más grande al del estudio. Cientos de OTN adicionales pueden estar al acecho en los archivos del Hubble en latitudes más altas de la eclíptica. Fuentes y sus colegas tienen la intención de continuar su búsqueda."Hemos demostrado nuestra capacidad para detectar y caracterizar OTN incluso con datos destinados a fines totalmente distintos ", dijo Fuentes. Esta investigación ha sido aceptada para su publicación en The Astrophysical Journal.

Fuente: Laflecha.net

lunes, 13 de septiembre de 2010

Biosólidos para fertilizar los campos agrícolas

Un estudio por científicos del Servicio de Investigación Agrícola (ARS) y sus colaboradores provee nuevos detalles sobre como la utilización de biosólidos para fertilizar los campos agrícolas también introduce el triclosan, el cual es un agente antimicrobiano agregado a los jabones y otros productos de limpieza, en el medio ambiente.

Los granjeros aplican los biosólidos Clase B, también conocidos como los sólidos de las aguas residuales tratadas, a los campos agrícolas como un fertilizante. Estos biosólidos satisfacen las reglas federales sobre la seguridad y la salud human. Pero hay poca información sobre los niveles de triclosan en estos biosólidos. El triclosan no ha sido identificado como un riesgo a la salud humana, pero la Administración de Drogas y Alimentos de EE.UU. actualmente está realizando un examen científico y reglamentario del compuesto.

En el estudio por el ARS, químico Clifford Rice con el Laboratorio del Manejo Ambiental y la Utilización de Subproductos mantenido por el ARS en Beltsville, Maryland, colaboró con ingenieros Nuria Lozano y Alba Torrents de la Universidad de Maryland. Científico Mark Ramirez de la Autoridad de Agua y Alcantarillados del Distrito Federal también colaboró en este estudio. ARS es la agencia principal de investigaciones científicas de Departamento de Agricultura de EE.UU. (USDA por sus siglas en ingles).

Los científicos determinaron que los niveles de triclosan en los biosólidos Clase B que vinieron de una planta de tratamiento de aguas residuales en un estado de la región del Mid-Atlántico de EE.UU. fueron, por término medio, 15,5 miligramos por kilogramo. Luego los investigadores colectaron muestras de la superficie del suelo de campos en 26 granjas en la parte norteña de Virginia. Algunos de los campos nunca recibieron aplicaciones de biosólidos, mientras otros han recibido de uno a cuatro aplicaciones de biosólidos durante los previos 13 años. La mayoría de los biosólidos vinieron de la planta de tratamiento de aguas residuales en el estudio.

Los investigadores descubrieron que las granjas que nunca recibieron las aplicaciones de biosólidos tuvieron niveles máximos de 4,5 nanogramos de triclosan por gramo de suelo seco. Las granjas que recibieron uno o múltiples aplicaciones de los biosólidos también tuvieron niveles bajos de triclosan, pero las concentraciones variaron de 3,1 nanogramos a 66,6 nanogramos de triclosan por gramo de suelo seco. (Un solo gramo contiene un mil millón de nanogramos.) Los resultados también indican que la descomposición biológica de triclosan en los suelos tratados con los biosólidos llevaron a la pérdida del 78 por ciento del triclosan después de 7 a 9 meses, y el 96 por ciento después de 16 meses.

Fuente: Laflecha.net

viernes, 10 de septiembre de 2010

Identifican los genes vinculados con los cánceres de ovario más mortales

Científicos del Centro del Cáncer Kimmel de la Universidad Johns Hopkins (EE UU) han identificado dos genes cuyas mutaciones están vinculadas con el carcinoma de ovario de células claras, una de las formas más agresivas de cáncer de ovario, que suele ser resistente a la terapia estándar y afecta sobre todo a mujeres entre los 40 y 80 años.

Un nuevo estudio, publicado on line en la revista Science Express, muestra un promedio de 20 genes mutados por cada cáncer de células claras de ovario, resistente a la quimioterapia. Dos de estos genes suelen mutar con más frecuencia: ARID1A, un gen cuyo producto, por lo general, suprime tumores, y PPP2R1A, un oncogén que, al modificarse, ayuda a convertir las células normales en células tumorales.

Nickolas Papadopoulos, autor principal del estudio e investigador del Centro del Cáncer Kimmel de la Universidad Johns Hopkins (EE UU), afirma que estas mutaciones "pueden proporcionar oportunidades para el desarrollo de nuevos biomarcadores y terapias dirigidos a dichos genes".
ARID1A y PPP2R1A no habían sido antes vinculados al cáncer de ovario. Sin embargo, las mutaciones de ARID1A fueron identificadas en más de la mitad de los tumores estudiados. Los científicos evaluaron mutaciones en la proteína de codificación de 18.000 genes en los tumores de ovario de células claras de ocho pacientes, e identificaron 268 genes en 253 mutaciones, con una media de 20 mutaciones por tumor.

Además, los autores determinaron la composición de aminoácidos de cuatro genes con las mutaciones más prevalentes, incluido ARID1A, en el tumor y los tejidos normales de otras 34 pacientes de cáncer de ovario de células claras. En total, las mutaciones de ARID1A se identificaron en el 57% de los 42 tumores. Las de PPP2R1A fueron encontradas en un 7,1% de los tumores. "El paisaje de los genes relacionados con el cáncer se puede comparar a unas pocas «montañas» (mutaciones de alta prevalencia) entre muchas «colinas» (genes con menor prevalencia)", subraya Papadopoulos. "ARID1A es una de las montañas más grandes que se han encontrado en los últimos años".

El gen mutado

La proteína codificada por ARID1A es un componente de una estructura celular llamada «complejo de remodelación de la cromatina». La cromatina comprime el ADN para que se ajuste a las células y lo protege de cualquier otra señal química, ofreciendo los medios para controlar cómo y cuándo se lee el ADN.

Cuando la cromatina se remodela, los componentes se mezclan y algunas zonas de ADN quedan expuestas, lo que permite que los genes se activen o se desactiven. Cuando el gen ARID1A está mutado, se altera el complejo de remodelación de la cromatina, lo que permite que los genes se activen o se desactiven de un modo incorrecto.

El ARID1A mutado puede vincularse con los cambios epigenéticos -alteraciones del ADN que tiene lugar fuera del genoma, en este caso, la cromatina-. "Las mutaciones en ARID1A proporcionan un importante vínculo entre los nuevos mecanismos genéticos y epigenéticos en el cáncer humano, y pueden identificar los cambios que pueden ser tratados con terapias", concluye Victor Velculescu, otro de los autores.

Fuente: Laflecha.net

jueves, 9 de septiembre de 2010

¿Existe un nuevo tipo de agujero negro?

Un equipo internacional de astrónomos ha confirmado la presencia de la fuente de rayos X ultraluminosa más extrema en una galaxia relativamente cercana. El hallazgo, que hoy se publica en The Astrophysical Journal, podría anunciar la existencia de un nuevo tipo de agujeros negros, los de masa intermedia.

Un grupo internacional de astrónomos de Reino Unido, Francia y EE UU, dirigidos desde la británica Universidad de Leicester, ha encontrado pruebas que confirman la distancia y el brillo de la fuente de rayos X ultraluminosa más extrema, lo que podría anunciar que existe una nueva clase de agujero negro.

Se trata de la fuente de rayos X 'HLX-1', el miembro más extremo de una extraordinaria clase de objetos (las fuentes de rayos X ultraluminosas), situada en la galaxia ESO 243-49 a una distancia de unos 300 millones de años luz de la Tierra. El espectro óptico de la fuente y su distancia se ha obtenido con el Gran Telescopio (VLT) del Observatorio Europeo Austral (ESO) en Chile.

Los hallazgos de los astrónomos confirman que es correcta la luminosidad extrema (presenta un factor unas 100 veces superior al de la mayoría de los demás objetos de su clase y unas 10 veces mayor que el de la siguiente fuente de rayos X ultraluminosos más brillante).
Esto está obligando a los científicos a replantearse sus teorías sobre el brillo máximo de las fuentes de rayos X ultraluminosos y respalda la idea de que HLX-1 podría contener un agujero negro de masa intermedia, según apunta el equipo en el último número de The Astrophysical Journal.

Sus hallazgos les permiten demostrar concluyentemente que HLX-1 se encuentra realmente ubicada en la citada galaxia y que no es ni una estrella en primer plano ni una galaxia en segundo plano. La principal consecuencia de este descubrimiento es que las fuentes de rayos X ultraluminosos como HLX-1 pueden ser más brillantes de lo que inicialmente se pensaba, lo cual encaja con que al menos las más brillantes de ellas alberguen agujeros negros de masa intermedia.

Un agujero negro es un objeto ultradenso con un campo gravitatorio tan intenso que absorbe toda la luz que pasa cerca de él y no refleja nada.
.
Agujeros negros intermedios

Aunque los astrofísicos sospechaban que podría haber una clase intermedia de agujeros negros, con masas comprendidas entre uno y varios centenares de veces la del Sol, dichos agujeros negros no se habían detectado antes de forma fiable y su existencia ha sido tremendamente discutida dentro de la comunidad astronómica.

"Después de nuestro primer descubrimiento de la fuente de rayos X ultrabrillantes, nos interesaba mucho averiguar la distancia a la que realmente estaba, para así poder calcular cuánta radiación genera este agujero negro", explica el autor principal del artículo, Klaas Wiersema, del Departamento de Física y Astronomía de Leicester.

"En imágenes tomadas con grandes telescopios, pudimos ver que una fuente óptica tenue estaba presente en la ubicación de la fuente de rayos X, situada cerca del núcleo de una galaxia grande y brillante. Sospechábamos que esta fuente óptica tenue estaba directamente relacionada con la fuente de rayos X pero, para estar seguros, teníamos que estudiar la luz de esta fuente en detalle mediante el Gran Telescopio de Chile".

"Los datos que obtuvimos usando el VLT tenían una calidad muy alta y nos permitieron separar la luz de la galaxia grande y brillante de la de la fuente óptica tenue", prosigue el experto.
"Para nuestra inmensa alegría, encontramos en las mediciones resultantes exactamente lo que esperábamos: se detectaba la luz característica de los átomos de hidrógeno, lo que nos permitía medir con precisión la distancia a la que estaba este objeto. Esto nos proporcionó una prueba concluyente de que el agujero negro realmente estaba situado dentro de la galaxia grande y brillante, y de que HLX-1 es la fuente de rayos X ultraluminosos más brillante que se conoce".
"Ahora que hemos determinado la distancia a la que está este agujero negro y que sabemos dónde se encuentra, nos gustaría averiguar qué hace que esta fuente sea tan brillante y cómo terminó en esa gran galaxia".

Este resultado es "muy importante" para los investigadores, ya que es compatible con la idea de que HLX-1 contiene un agujero negro de masa intermedia. Las fuentes de rayos X ultraluminosos se encuentran entre los candidatos más prometedores a albergar agujeros negros de masa intermedia, con masas comprendidas entre las de los agujeros negros de masa estelar (entre unas 3 y 20 veces la masa del Sol) y las de los agujeros negros supermasivos que se encuentran en los centros de la mayoría de las galaxias (entre un millón y 1.000 millones de veces la masa del Sol).

Confirmar el intenso brillo

Ahora, el equipo de investigación puede probar concluyentemente que HLX-1 no está en nuestra galaxia y que no es un agujero negro supermasivo del centro de una galaxia lejana situada en segundo plano. Este resultado también confirma que realmente es tan brillante como se pensaba.
Didier Barret, del Centro de Estudio Espacial de las Radiaciones de Francia, comenta: "Los observatorios de rayos X XMM-Newton y Swift están observando atentamente esta fuente. Los últimos datos, que se obtuvieron cuando HLX-1 era muy tenue, indican que su comportamiento es muy similar al de los agujeros negros de masa estelar de nuestra propia galaxia, pero con un brillo entre unas 100 y 1.000 veces superior".

Sean Farrell, también del Departamento de Física y Astronomía de Leicester, "esto es muy difícil de explicar sin la presencia de un agujero negro de masa intermedia con una masa aproximada de entre 500 y 10.000 veces la del Sol. Por tanto, HLX-1 está, hasta ahora, resistiendo el escrutinio de la comunidad astronómica internacional".

Se piensa que los centros de la mayoría de las galaxias contienen agujeros negros supermasivos y que estos poderosísimos núcleos tienen un enorme impacto en la galaxia que los rodea.
Los agujeros negros supermasivos depositan una inmensa cantidad de energía en las galaxias que los albergan, lo que tiene consecuencias tremendas en la formación de estrellas y el crecimiento de la galaxia en general. Los agujeros negros de masa intermedia podrían ser los elementos con los que se construyen los agujeros negros supermasivos.

"Entender cómo se forman y crecen los agujeros negros supermasivos es, por tanto, crucial para nuestra comprensión de la formación y evolución de las galaxias, lo que, a su vez, forma parte del camino que lleva a responder una de las preguntas realmente importantes: ¿cómo se formó y evolucionó nuestra galaxia?", plantea el experto.
.
Los siguientes pasos

Sigue habiendo bastantes dudas sobre si todas las fuentes de rayos X ultraluminosos contienen agujeros negros de masa intermedia. El equipo de investigación de Farrell seguirá estudiando HLX-1 para comprender cómo se formó, dónde se ubica y qué la alimenta.

Con el fin de que puedan hacerlo, se les ha concedido cierto tiempo en el Telescopio Espacial Hubble para que tomen las imágenes de mayor resolución posible de esta galaxia anfitriona, lo cual les permitirá investigar en detalle la naturaleza del entorno que rodea a HLX-1 y la galaxia que la alberga. Una vez que se lleven a cabo las observaciones del Hubble, la mayoría de los grandes observatorios se habrán utilizado para estudiar esta fuente. Para preparar las observaciones del VLT también se usaron datos de los telescopios Magellan (gestionados desde EE UU).

El siguiente paso será averiguar si hay más objetos tan extremos como este y comparar lo que saben sobre HLX-1 con el conjunto de las fuentes de rayos X ultraluminosos. Esto les ayudará a comprender cuántos agujeros negros de masa intermedia podría haber en el espacio y dónde es probable que los encuentren.

Fuente: Laflecha.net

miércoles, 8 de septiembre de 2010

Las auroras boreales y australes se veían en Barcelona en los siglos XVIII y XIX

Las auroras boreales y australes son fenómenos luminosos propios de los polos de la Tierra, pero entre 1780 y 1825 se observaron 19 en Barcelona. Así se recoge en la documentación que elaboró el doctor Francisco Salvá y Campillo en aquella época, y que ahora un grupo de investigadores extremeños y catalanes ha sacado a la luz. En latitudes tan bajas como la Península Ibérica se podrían volver a ver auroras si se produce una gran tormenta solar.

"Hemos localizado las fechas de 19 auroras observadas desde Barcelona a lo largo de 45 años de registros meteorológicos tomados entre finales del siglo XVIII y principios del XIX", destaca a SINC José Manuel Vaquero, profesor del Departamento de Física en la Universidad de Extremadura y coautor de un estudio que acaba de publicar la revista Advances in Space Research.

El fenómeno luminoso de las auroras ('boreales' en el hemisferio norte y 'australes' en el sur) se origina por los efectos de las tormentas solares, que provocan alteraciones en el campo geomagnético de la Tierra. Las auroras se observan sobre todo en los cielos de zonas próximas a los polos de la Tierra. "Pero si se producen grandes tormentas solares, pueden verse en lugares con latitudes mucho más bajas, como Barcelona, aunque no son tan llamativas: la zona norte del cielo se aprecia de color rojo y, excepcionalmente, pueden observarse otros colores y algo de movimiento", explica Vaquero, quien no descarta ver de nuevo auroras en la Península Ibérica si se repiten las mismas condiciones.

El investigador destaca que lo más llamativo de los registros es el descenso abrupto del número de auroras a partir de 1793: "Algo que puede explicarse por un brusco descenso en la actividad solar, conocido como el 'mínimo de Dalton' (a principios del siglo XIX), y una disminución a lo largo del tiempo de la latitud geomagnética (ángulo entre un paralelo y el ecuador geomagnético cuya variación para Barcelona se ha estimado en este trabajo como 4 grados en aproximadamente cuarenta años)".

El ilustrado Francisco Salvá

El estudio se ha basado en las observaciones que realizó entre 1780 y 1825 el médico y físico Francisco Salvá y Campillo (1751-1828), impulsor en España de la renovación científica que promovía la Ilustración. El equipo de investigación, integrado también por científicos de la Universidad de Barcelona, ha accedido a sus manuscritos originales que se conservan en el Archivo de la Academia de Medicina de la ciudad condal.

En el siglo XVIII no existía una red de estaciones meteorológicas mantenida por el Estado español, y las únicas y muy escasas observaciones que quedan son las que realizaron aficionados como Salvá. Los registros sistemáticos del doctor se incluían dentro de sus observaciones meteorológicas instrumentales, que también tienen gran interés científico para caracterizar el clima de Barcelona durante aquel periodo.

Los registros de las 19 auroras se limitan a escuetas menciones, aunque hay una, la del 14 de noviembre de 1789, que incluye un descripción más detallada: "La aurora boreal del día 14 empezó al N-NE y corrió al O. A las 11h subía un poco por nuestro horizonte, y era poco encendida. Después subió y se coloró más. A las 5 de la mañana del 15 duraba aún, y tal vez la de este día era residuo de la anterior. A las 6 dadas de la noche ya se veía".

Fuente: Laflecha.net

martes, 7 de septiembre de 2010

Las enfermedades mentales no generan violencia por sí solas

Las enfermedades mentales como la esquizofrenia o el trastorno bipolar no hacen por sí solas más violenta a la gente, sino que es la tendencia al abuso de drogas y alcohol por parte de esas personas con problemas psiquiátricos la que lo hace, dijeron el lunes científicos.

Mientras que los expertos han buscado respuestas durante mucho tiempo para entender la relación entre las enfermedades mentales y la violencia, estos hallazgos sugieren que la amplia percepción pública de que los trastornos psiquiátricos hacen por sí solos que la gente sea más propensa a cometer crímenes violentos es errónea.
Varios investigadores de Reino Unido y Suecia han estudiado los índices de crímenes violentos entre personas con severos trastornos mentales, tras lo cual concluyeron que la clave se encuentra en el mayor riesgo de abuso de esas sustancias.

Los científicos descubrieron que, aunque los índices de crímenes violentos son más altos entre la gente con trastorno bipolar y esquizofrenia que en la población general, son similares en la gente con enfermedades mentales y aquellos que abusan de sustancias pero no están mentalmente enfermos.

Cuando los resultados se ajustaron excluyendo a las personas bajo la influencia del alcohol o las drogas ilegales, los índices de violencia entre pacientes psiquiátricos apenas se diferencian de los niveles de la población general, indicaron. "El abuso de sustancias es el verdadero mediador clave de los crímenes violentos. Si excluyes el abuso de sustancias, la contribución de la enfermedad (...) es mínima", dijo Seena Fazel, del departamento de psiquiatría de la Universidad de Oxford y directora del estudio. "Es probablemente más peligroso caminar fuera de un bar a altas horas de la noche que caminar fuera de un hospital del que están saliendo pacientes de salud mental", agregó.

Estudios previos han demostrado que alrededor del 20 por ciento de las personas con trastorno bipolar abusan del alcohol y las drogas, comparado con alrededor de un 2 por ciento entre la población general. Cerca de la cuarta parte de las personas con esquizofrenia abusan de estas sustancias.

Fazel dijo que los pacientes psiquiátricos usan a menudo las drogas ilegales y el alcohol para intentar contrarrestar sus síntomas o los efectos de sus medicamentos, que pueden actuar como sedantes.

Fuente: Laflecha.net

lunes, 6 de septiembre de 2010

El satélite "SinoSat-6" será lanzado esta semana probablemente

China lanzará en los próximos días el satélite de radio y televisión SinoSat-6 desde el Centro de Lanzamiento de Satélites de Xichang, en la provincia suroccidental china de Sichuan, informaron fuentes del centro.

El satélite será lanzado "en el momento oportuno" a bordo del cohete portador "Gran Marcha 3B".

El SinoSat-6 sustituirá al SinoSat-3, que se lanzó al espacio el 1 de junio de 2007, indicó la Corporación de Ciencia y Tecnología Aeroespacial de China.

El satélite SinoSat-2 fue lanzado el 29 de octubre de 2006 pero no pudo desplegar sus paneles solares y antenas de comunicaciones, por lo que la Corporación de Comunicaciones por Satélite de China, operador y usuario de la serie SinoSat, lo declaró inoperativo un mes después.

Fuente: Laflecha.net

viernes, 3 de septiembre de 2010

Los coleccionables pueden favorecer el desarrollo del trastorno obsesivo compulsivo

Coleccionar objetos con moderación tiene beneficios psicológicos, sin embargo, una experta en adicciones de la Universidad de Granada (UGR) advierte de que pueden provocar que las personas con tendencia a sufrir un trastorno obsesivo compulsivo desarrollen antes esta patología.

"Las colecciones inundan estos días los quioscos. Coleccionar objetos de manera exagerada es un síntoma de este grave problema psicológico -una de cuyas variantes es el conocido como 'Síndrome de Diógenes'- y de la adicción a las compras, dos enfermedades mentales que afectan aproximadamente al 12% de la población", explica Francisca López Torrecillas, investigadora del departamento de Personalidad, Evaluación y Tratamiento Psicológico de la UGR.

En principio, y siempre que esta afición se cultive de forma controlada, coleccionar objetos es beneficioso desde un punto de vista psicológico, ya que permite desarrollar habilidades y actitudes muy positivas para el individuo, como la constancia, el orden, la paciencia o la memoria.
Sin embargo, el estudio apunta que en los últimos años se ha detectado un aumento muy importante de casos en los que el coleccionismo exagerado ha desembocado en un trastorno obsesivo compulsivo o en una adicción a las compras.

"La excesiva necesidad de control, el perfeccionismo o la meticulosidad y el orden son muy frecuentes en las personas que tienen como hobby coleccionar objetos, pero también están muy relacionados con los trastornos psicológicos", asegura la experta.

El coleccionismo llega a convertirse en una obsesión en aquellos sujetos que presentan una vulnerabilidad personal como falta de autoestima, escasas habilidades sociales y trastornos a la hora de enfrentarse a los contratiempos. "Cuando aparece este sentimiento de ineficacia personal, el coleccionismo compulsivo les ayuda a sentirse mejor", declara López Torrecillas.
El 80% de los consumidores las empieza pero 35% nunca las acaba

Según los datos de un sondeo realizado por la Asociación Valenciana de Consumidores y Usuarios (AVACU), entidad miembro de CECU, más del 78% de los ciudadanos ha comenzado en algún momento una colección.

Sin embargo, si hablamos de llevar a término la colección, un 65% ha completado alguna de las que ha empezado y un 35% nunca las ha terminado. Los consumidores señalan como principales motivos para no acabarla su elevado coste total, que sean excesivamente largas o una progresiva pérdida de calidad en los fascículos conforme se avanza en la colección.Asimismo, la mayoría de los consumidores asegura que el principal problema que les ha impedido completar una colección es el no poder conseguir alguna entrega, bien porque la editorial haya dejado de publicarla o porque, tras haberse agotado en los kioscos, no se puedan conseguir fácilmente las entregas atrasadas.
.
Fuente: Laflecha.net

jueves, 2 de septiembre de 2010

Los árboles también tienen troyanos

Combinando la naturaleza y la mitología griega, unos investigadores en el Technion (Instituto Israelí de Tecnología) han desarrollado un "Caballo de Troya" diminuto para inyectar fármacos anticáncer directamente a las células cancerosas. Con este sistema, los fármacos son liberados sólo cuando están dentro de ellas. De este modo, no se producen daños en las células sanas de la zona circundante.

El equipo de Yoav Livney creó el sistema uniendo ácido fólico y un fármaco anticáncer a un extracto de alerce, un árbol abundante en los inmensos bosques boreales de Rusia y Canadá.

Ciertas células cancerosas producen de 10 a 100 veces más receptores de folato que las células sanas. Estos receptores capturan el ácido fólico, el cual es necesario para el crecimiento y división veloces de las células cancerosas. Por consiguiente, los investigadores usaron el ácido fólico como cebo para el ataque selectivo contra las células cancerosas.

Una vez que el ácido fólico se une al receptor, se activa un proceso mediante el cual la membrana celular se pliega hacia dentro de la célula, creando una "burbuja" (organela) llamada endosoma. Eso lleva a una fase en la que intervienen lisosomas, los cuales contienen enzimas que actúan como sistema digestivo celular.El proceso acaba llevando a la liberación del fármaco anticáncer sólo en el lisosoma, porque no hay enzimas equivalentes en la sangre que puedan degradar este péptido específico.

Se espera que esta técnica sea especialmente eficiente contra el cáncer de ovario, el de riñón y el de útero, que se caracterizan por la alta producción de receptores de ácido fólico.En el futuro, este nuevo sistema de inyectar medicamentos podrá liberar simultáneamente varios fármacos contra el cáncer, cuya combinación sinérgica, hecha a la medida de cada paciente y tumor, podría llevar a una erradicación óptima de células malignas.

Fuente: Laflecha.net

miércoles, 1 de septiembre de 2010

Descubren dos estanques maya en la selva tropical

Arqueólogos de la Universidad de Bonn (Alemania) y del Instituto Nacional de Antropología e Historia (INAH, México) han descubierto dos enormes estanques, de alrededor de 100 m2, en la antigua ciudad maya de Uxul. Estos depósitos de agua denominados "aguadas" eran parecidos a las torres de agua que hoy en día sirven para almacenar el agua potable.

Desde 2009 arqueólogos mexicanos y alemanes están trazando y excavando de forma sistemática las antiguas murallas de la ciudad maya de Uxul. "Durante el proceso dimos con dos depósitos de agua de alrededor de 100 m2", explica Iken Paap, directora del proyecto junto con el investigador Nikolai Grube y el arqueólogo mexicano Antonio Benavides Castillo.

El piso de este depósito de agua estaba cubierto de una capa de trizas de cerámica, cuidadosamente colocadas. "La combinación de esta capa con una capa superpuesta de piedras calizas, probablemente tuvo la función de detener el agua de este lago artificial", explican los científicos.

Esta estructura se construyó aproximadamente hace 1.500 años y es el primer ejemplo de tal construcción en el área Maya. "Excavaciones futuras mostrarán si el piso entero de la aguada (que tuvo una profundidad de alrededor de 2 m) estaba construido laboriosamente", apunta el trabajo.

Estanques del tamaño de diez piscinas olímpicas

"Las aguadas de Uxul tenían cada una la superficie de diez piscinas olímpicas. Tuvo que haber más lagos artificiales, ya que había que almacenar cantidades suficientes del preciado líquido para abastecer a una población de al menos de 2.000 habitantes durante los tres meses que dura la temporada de sequía", declara la investigadora.
El término maya "uxul" significa en español "al final". Karl Ruppert y John H. Denison de la Institución Carnegie de Washington la bautizaron así cuando descubrieron la ciudad en 1934. El nombre original de la ciudad aún no se conoce a día de hoy.
"Si Uxul estaba 'en el fin del mundo' en los años 30, no ha cambiado mucho desde entonces. Sólo se puede acceder a las ruinas por 120 km de pistas forestales a través de la Reserva de la Biosfera de Calakmul, lejos de cualquier asentamiento o carretera actual", explica Paap.

Un pasado comercial floreciente

Lo que está cada vez más claro a medida que progresan los trabajos de excavación es que Uxul no estaba para nada "en el fin del mundo" o aislada en la jungla durante su apogeo en el período Clásico (250 - 900 d.C.).

La ciudad estaba ubicada en un área muy poblada entre las ciudades mayas de El Mirador al sur y Calakmul al noreste. Mantenía conexiones comerciales tan lejanas como con el sur de la actual Guatemala y la meseta central mexicana.

Los científicos de la Universidad de Bonn llegaron a la conclusión de que la ciudad estuvo poblada durante varias épocas de la cultura maya tras analizar la excavación y sus estratos de asentamiento. "Este año hemos podido excavar una secuencia de estratos situados a más de tres metros de profundidad y que abarca probablemente desde el período del Preclásico Tardío hasta el Postclásico", explica Iken Paap.

"Durante esta primavera, por primera vez hemos encontrado tumbas que no han sido destruidas por ladrones de sepulturas en busca de cerámica y joyas de jade", declara el investigador Nikolai Grube. "Esperamos que estos estudios y los que vengan acerca del sistema de distribución de agua potable y la historia de la vegetación nos proporcionen nuevos elementos para comprender el estilo de vida de la población de esta ciudad maya".

Fuente: LAflecha.net

Archivo del blog