lunes, 12 de diciembre de 2011

Próximo eclipse total de luna tendrá lugar en el 2014

Los aficionados de todo el mundo comienzan desde hoy a prepararse para el próximo eclipse total de luna, en abril de 2014, después del que los ciudadanos desde Asia Central hasta California pudieron presenciar el sábado.

Durante 51 minutos, la sombra de la Tierra cubrió por completo nuestro satélite, que, alcanzado indirectamente por los rayos solares a través de la atmósfera terrestre, se cubrió de un tinte rojizo.

El último eclipse total de luna se había registrado el pasado 15 de junio, pero no volverá a haber otro completo hasta el 15 de abril de 2014.

Según la NASA, en este caso el eclipse se hizo aún más espectacular por lo que describen como "la ilusión lunar", en el que "por razones no completamente comprendidas por los astrónomos o los psicólogos, las lunas bajas en el horizonte se ven exageradamente grandes".

Fuente: laflecha.net

viernes, 25 de noviembre de 2011

Novedoso sistema de sensores controlará la salud de los conductores

Muchos de los inconvenientes y accidentes causados por problemas de salud de los conductores de automóviles podrán ser evitados gracias a una nueva tecnología de sensores desarrollada por expertos de la Technische Universitaet Muenchen (TUM) de Alemania y del Grupo BMW. El sistema monitorea de forma constante los indicadores de salud del conductor, alertando ante cambios que puedan llegar a ser peligrosos.

El sistema de sensores se encuentra integrado en el volante, y hace posible registrar el estado de salud del conductor durante el ejercicio de la conducción. El dispositivo está capacitado, por ejemplo, para reconocer la aparición de síntomas o señales previas a desmayos o ataques al corazón.

Asimismo, el conductor puede utilizar su tiempo al volante a modo de chequeo sencillo de salud, ya que el sistema analiza información de importancia como la frecuencia cardiaca, la conductancia de la piel o el nivel de oxígeno en la sangre, entre otros parámetros. Este avance ha sido difundido a través de una nota de prensa de la Technische Universitaet Muenchen.

Un sistema eficaz y práctico

La nueva tecnología fue desarrollada por ingenieros e investigadores del Grupo BMW y científicos de las cátedras de microtecnología y tecnología de dispositivos médicos de la Technische Universitaet Muenchen, en un grupo de trabajo dirigido por el profesor Tim C. Lueth.

Mediante la integración de sensores específicos en el volante, los especialistas lograron eliminar la colocación de cables u otros artefactos que puedan entorpecer la conducción. Los datos recopilados se comunican por radio a un microcontrolador, que a su vez puede mostrar los resultados de la medición en la pantalla del sistema de información del vehículo.

Entre los parámetros analizados, la conductancia de la piel permite revelar, por ejemplo, si el conductor se encuentra bajo una situación de estrés severo, o si su presión arterial excede un valor crítico. El único requisito para activar el sistema es que las manos del conductor estén en contacto con los sensores integrados en el volante.

El objetivo del proyecto va más allá del registro de los signos vitales o del reconocimiento de las disfunciones que pudieran afectar al proceso de conducción. El objetivo final es lograr mayor conciencia en los conductores, para que al observar algún mínimo cambio en su situación puedan iniciar las medidas adecuadas.

Por ejemplo, si el conductor detecta una situación de estrés por medio de los valores de conductancia de la piel, puede inmediatamente bloquear las llamadas telefónicas o disminuir el volumen de la radio, para de esta forma eliminar nuevos factores capaces de complicar aún más su situación o impedir su rápida recuperación.

En el caso de problemas más graves, como por ejemplo un desmayo, el sistema está capacitado para encender las luces de emergencia, reducir la velocidad e incluso practicar el frenado automático del vehículo.

Dos sensores disponibles en el mercado son los elementos más importantes del sistema integrado de medición de signos vitales: uno de ellos es un dispositivo de luz infrarroja que actúa sobre los dedos y mide la frecuencia cardiaca y el nivel de oxígeno a través de la luz reflejada, y el segundo mide la conductividad eléctrica de la piel gracias al contacto con la misma.

Fuente: laflecha.net

miércoles, 26 de octubre de 2011

Crean una aplicación informática que imita a la memoria humana

Investigadores de la Universidad de Illinois, en Urbana Champaign (Estados Unidos), están desarrollando una novedosa herramienta que ayudará a reconstruir escenas del pasado en busca de datos perdidos. Bautizada como YouPivot, el objetivo de dicha herramienta es encontrar información digital en un ordenador, de la misma forma que lo hace el cerebro humano.

En un artículo publicado en la revista IEEE Spectrum, el precursor de este software, Joshua Hailpern, compara su funcionamiento con una situación tan típica en la vida real como perder las llaves del coche. "Usted siempre trata de pensar en la última vez que las tenía. Cuando mentalmente retrocede en sus pasos, cae en la cuenta de que cuando estaba haciendo la lista de la compra dejó las llaves en la nevera, junto a la leche", explica el informático.

YouPivot trabaja de forma similar en la búsqueda de una actividad digital, pues realiza un seguimiento de todo lo que se estaba haciendo en el ordenador en un momento determinado, hasta dar con la pista clave. Por ejemplo, como cita Hailpern, se puede preguntar "¿cuál era ese sitio web o pdf que estaba viendo cuando AC/DC tocaba Hell's Bells por última vez?".

A diferencia de la búsqueda a través de viejos email o el historial de navegación, para lo que se requieren palabras clave o fechas determinadas, YouPivot permite abrir una ventana al pasado con sólo una débil idea de a lo que puede estar vinculado lo que se quiere encontrar; echar un vistazo para ver que estaba pasando y, con un poco de suerte, localizar lo perdido.

Aunque el cerebro humano es capaz de almacenar billones de datos, muchos más que un ordenador, es caprichoso al recordarlos, y a menudo pierde o confunde nombres, rostros, fechas y hechos. Es en este punto donde la máquina podrá superarlo mediante esta novedosa tecnología, vital en una sociedad como la actual, tan saturada de información.

Fuente: laflecha.net

martes, 27 de septiembre de 2011

Llega la fabricación en serie de materiales con memoria

Una nueva generación de materiales inteligentes, capaces de "recordar" su forma previa y cambiar su estructura según el contexto y las necesidades podría estar disponible a nivel masivo a partir de 2013. Así lo indica una reciente investigación que ha recibido el apoyo del proyecto Eureka, y que ha combinado los esfuerzos de universidades de Croacia, Austria y Eslovenia.

Los denominados metales inteligentes son materiales de tecnología avanzada con la capacidad de variar su forma y estructura dependiendo de cada situación, debido a la posibilidad de retomar formas previamente establecidas.

Esa "memoria" hace que estos materiales tengan un amplio espectro de aplicaciones en el terreno de la electrónica y de la mecánica, pero hasta el momento su desarrollo resultaba muy costoso. Un grupo de investigación que integra el proyecto Eureka parece haber hallado la solución a este problema, y plantea la producción en masa de estos materiales en los próximos dos años.

Pensar en materiales capaces de recordar su forma previa y de cambiar su estructura actual para regresar a estados primigenios puede parecer un ejercicio de ciencia ficción, pero en realidad ya existen entre nosotros y, además, podrían popularizarse mucho más si prospera el trabajo de un grupo de investigación enmarcado en el proyecto Eureka.

El esfuerzo conjunto de especialistas de Croacia, Austria y de Eslovenia, ha posiblitado en el desarrollo de una nueva aleación que podría abaratar en gran medida la producción de estos metales inteligentes.

El trabajo ha sido difundido a través de una nota de prensa de Eureka, y también ha merecido artículos en medios especializados. La idea surgió hace cinco años de la mente del profesor Mirko Gojic, un investigador de la Universidad de Zagreb en Croacia, pero los problemas económicos obstaculizaron en principio la iniciativa. Con el apoyo de Eureka, el proyecto está ahora prácticamente finalizado.

Abaratar la producción

Según Gojic, este proyecto de investigación internacional podría desembocar en la producción comercial de una aleación más económica en el campo de los materiales inteligentes, destinada a su uso en la ingeniería aeroespacial, en la electrónica o en la mecánica, entre otras posibles aplicaciones.

Las materiales con "memoria" pueden ser producidos en muchas formas y tamaños, y desarrollarse para diversos usos. Aunque no son tan fuertes como el acero, son mucho más elásticos y sus propiedades les permitan adoptar la forma necesaria cuando se exponen a altas temperaturas. Se utilizan en teléfonos inteligentes, robótica y con fines médicos.

Sin embargo, aunque ya son una realidad en la tecnología actual, uno de los principales problemas ligados a la fabricación de estos materiales es su elevado precio. El equipo conducido por Gojic se centró entonces en la producción de una aleación más económica, a base de cobre, mientras que la aleación más utilizada hoy en día en los materiales con memoria de forma se basa en una mezcla de titanio y níquel, conocida por su nombre comercial Nitinol.

Existen múltiples esfuerzos en la comunidad científica internacional dirigidos a hallar alternativas económicamente viables para la producción en serie de los materiales con memoria de forma, considerando que la aleación empleada en la actualidad es demasiado onerosa para hacer viable una producción masiva. La investigación desarrollada por el equipo de Gojic duró tres años, y parece haber obtenido resultados satisfactorios.

Pruebas positivas y fase de producción

La colaboración entre socios internacionales, uno de los requisitos primordiales para recibir apoyo financiero de Eureka, ha enriquecido en gran medida el trabajo, según manifestó Gojic. Por ejemplo, el equipo croata no tenía las instalaciones necesarias para producir la nueva aleación, por lo que éstas fueron aportadas por los colegas de la Facultad de Ingeniería Mecánica de la Universidad de Maribor, Eslovenia.

Por otro lado, aunque aún no es posible determinar exactamente en que medida es más económica la nueva aleación con respecto a las empleadas en la actualidad, algo que depende directamente de las técnicas utilizadas para producir la aleación, puede certificarse que será un alternativa mucho más rentable, ya que el titanio y el níquel son materias primas mucho más caras que el cobre y el aluminio.

Además de los requisitos económicos, los materiales utilizados en la producción de aleaciones de este tipo tienen que cumplir con un cierto nivel de pureza y mantener las propiedades específicas para su empleo industrial. Las pruebas realizadas hasta el momento sobre la nueva aleación han demostrado que el grupo de investigación está en el camino correcto.

Gojic concluyó que el gran desafío es entrar rápidamente en la fase de producción, ya que se ha llegado con éxito a las etapas finales de la investigación y al desarrollo de las pruebas. El objetivo es lograr un producto terminado en el próximo año y medio, seguido por la construcción de una planta piloto y, finalmente, el inicio de la producción comercial de aquí a dos años.

Fuente: laflecha.net

lunes, 29 de agosto de 2011

Las primeras plantas de energía nuclear en el espacio comienzan a ser diseñadas

Las primeras plantas de energía nuclear para los futuros asentamientos en la Luna y en Marte ya están en camino, anunció hoy el responsable del proyecto en el encuentro anual de la Sociedad Estadounidense de Química que se celebra en Denver.

James Werner, director del Laboratorio Nacional de Idaho del Departamento de Energía (DOE, por su sigla en inglés), y su equipo tienen previsto tener una demostración de esta tecnología para principios de 2012.

La construcción de estas plantas serviría para producir la electricidad que necesitarían las bases permanentes -habitadas o no- en la Luna, en Marte y en otros planetas a los que pudieran llegar las naves espaciales en un futuro.

Se trata de un proyecto conjunto entre el Departamento de Energía (DOE) y la Agencia Espacial Estadounidense (NASA), que se ha marcado como nuevos retos llegar a un asteroide en 2025 y a Marte en 2030.

Según explicó Werner, las nueva tecnología de fisión para la aplicación de energía a ese tipo de superficies es muy diferente de las estaciones de energía nuclear en la Tierra tal y como las conocemos, que necesitan grandes espacios por sus dimensiones y sus grandes estructuras como las torres de refrigeración.

"La gente nunca reconocería el sistema de energía de fisión (en Marte o en la Luna) como un reactor de energía nuclear", aseguró Werner.

El científico explicó que el sistema podría tener aproximadamente 30,5 centímetros de ancho por 61 de alto, "aproximadamente el tamaño de una maleta de mano" y no necesitaría torres de refrigeración.

Werner afirmó que "un sistema de energía de fisión es una unidad compacta, fiable y seguro que puede ser fundamental para la creación de bases o hábitats en otros planetas".

Las células de la luz del sol y el combustible fueron los pilares para la generación de electricidad para las misiones espaciales hasta ahora, pero los ingenieros han indicado que la energía solar tiene sus limitaciones.

Las células solares funcionan bien en las órbitas terrestres, pero los expertos aseguran que la energía nuclear ofrece algunas características únicas que podrían apoyar las bases espaciales.

"La mayor diferencia entre los reactores de energía solar y la nuclear es que los reactores nucleares pueden generar energía en cualquier ambiente", explicó Werner.

"La tecnología de fisión nuclear no depende de la luz solar, por lo que es capaz de producir grandes cantidades constantes de energía durante la noche o en entornos hostiles como los que se encuentran en la Luna o Marte", aseguró.

Como ejemplo señaló que un sistema de energía de fisión en la Luna podría generar 40 kilovatios o más de energía eléctrica, aproximadamente la misma cantidad de energía necesaria para alimentar ocho casas en la Tierra.

Werner aseguró que la tecnología está "madura" para conseguir un logro así a un precio "asequible" y esta tecnología proporcionaría energía a los astronautas en todo tipo de medioambiente de manera "segura".

"La tecnología de fisión nuclear se puede aplicar en la Luna, en Marte o donde la NASA necesite energía continua", aseguró Werner.

Fuente: laflecha.net

lunes, 15 de agosto de 2011

¿Sabes lo que atrae a los mosquitos de los humanos?

Los mosquitos eligen a sus víctimas en función de la cantidad de dióxido de carbono que emiten al respirar y no, como afirma la creencia popular, por la dulzura de la sangre.

Cada día un ser humano produce aproximadamente un kilogramo de CO2 y cada vez que exhala, unas trece veces por minuto, emite más de cien miligramos.

Además de otras sustancias corporales, el mosquito siente especial atracción por aquellas personas que emiten más CO2, explicó en una entrevista Juan Rueda, de la Asociación Española de Entomología y experto en el control biológico de los mosquitos.

Estos insectos detectan una corriente con pulsaciones de CO2, de la que deducen que detrás hay sangre fresca para chupar, asegura este experto, en línea con un reciente estudio publicado en la revista Nature.

El dióxido de carbono emitido al respirar es mayor en los adultos que en los niños y su cantidad varía en función de la dieta y el ejercicio físico.

También influyen en el comportamiento de estos insectos las altas temperaturas y las abundantes lluvias, que favorecen su proliferación.

La vida media de una hembra de mosquito, que es la que pica, se prolonga entre 50 y 60 días y con cada lluvia "el ciclo vital se reinicia", señaló Rueda, profesor de la Universidad de Valencia.

Fuente: laflecha.net

miércoles, 10 de agosto de 2011

Estrellas fugaces invadirán el cielo

Este fin de semana, entre el 11, 12 y 13 de agosto, el cielo se iluminará nuevamente con la lluvia de meteoros de las Perseidas, también llamadas Lágrimas de San Lorenzo, indicó el docente de astronomía Carlos Quintana, en el cual el público en general podrá observarlas sin necesidad de un telescopio

Quintana explicó que “el máximo de un radiante de meteoro que se conoce como Perseidas, toman el nombre donde esta situado el radiante, y los radiantes de meteoro, a su vez, toman sus nombres de la constelación en el que se encuentran (Perseo)”.

Agregó que esta lluvia de meteoros, que también se conocen como estrellas fugaces, están activas desde el 23 o 24 de julio y permanecerán hasta el 22 o 23 de agosto, en el que se estima que el observador casual podrá contemplarla mejor el día viernes 12 para amanecer el sábado 13.

Destacó que “el sábado 13 es luna llena, va interferir con el brillo, el cielo queda velado y sólo se van a ver los meteoros más brillantes, uno puede observar (los meteoros) desde la medianoche o desde la una de la mañana”.

Asimismo, según una nota de prensa de la Fundación Centro de Investigaciones de Astronomía “Francisco J. Duarte (Cida), si disponemos de un telescopio, se disfrutará del planeta Júpiter que saldrá aproximadamente a las 11:30 pm del 12 de agosto, que se encuentra actualmente en la constelación de Aries, al sur de Perseo.

Quintana recomendó a los interesados en este fenómeno, ponerse cómodos, usar una silla reclinable, “y como es de madrugada, estar bien abrigados, tener una bebida caliente, si es de agrado chocolate o té caliente, y una grabadora si se va a llevar a cabo un registro de las Perseidas”.

Fuente: ÚN

viernes, 5 de agosto de 2011

La Nasa lanza misión para estudiar Júpiter

La Nasa tiene todo preparado para el lanzamiento este viernes de la misión Juno, cuyo objetivo es estudiar el gigantesco planeta Júpiter.

Aunque todo apunta a que las condiciones meteorológicas serán favorables, la NASA sigue de cerca la evolución de la tormenta tropical Emily, que podría hacer malograr el lanzamiento desde base de las Fuerzas Aéreas de Cabo Cañaveral (Florida).

Según informó la Nasa, la previsión meteorológica apunta a que las condiciones serán favorables para el despegue con un 70% de probabilidad, aunque los expertos de la agencia espacial están muy pendientes de la evolución de la tormenta tropical Emily por si pudiera afectar a la operación. Si no fuese posible el lanzamiento, existirán más posibilidades, ya que la ventana de lanzamiento permanecerá abierta hasta el día 26 de este mes. "Estamos a punto de comenzar nuestro viaje a Júpiter para descubrir los secretos del Sistema Solar primitivo.

Después de ocho años de desarrollo, la nave espacial está lista para su misión", señaló Scott Bolton, investigador principal de la misión. Si todo se desarrolla según lo previsto, Juno llegará a Júpiter en 2016 y orbitará sus polos 33 veces para aprender más sobre el interior del gigante gaseoso, su atmósfera y sus auroras.

La nave será colocada en una órbita polar alrededor de Júpiter, lo que le permitirá efectuar detalladas mediciones gravitacionales que podrían detectar si el planeta tiene o no un núcleo de hielo y roca más allá de sus nubes de hidrógeno y helio.

Fuente: ÚN

jueves, 28 de julio de 2011

Diseñan pacientes virtuales para el diagnóstico de enfermedades

Un equipo de científicos de la Universidad de Manchester, en colaboración con más de una veintena de socios académicos e industriales, trabaja en un proyecto de investigación europeo que tiene por objetivo crear modelos informáticos de pacientes individuales, cuyo uso servirá para agilizar la detección y el tratamiento de enfermedades y para reducir gastos sanitarios.

Una enorme red de programas de ordenador creados por científicos de la Universidad de Manchester podría revolucionar la salud en todo el mundo, salvando muchas vidas y ahorrando miles de millones de euros, según un comunicado de dicha institución académica británica.

El trabajo de los científicos ingleses es parte de un proyecto europeo de investigación llamado "IT Futuro de la Medicina" (ITFoM), con una duración inicial de 10 años, cuyo objetivo es crear "pacientes virtuales" -modelos informáticos de personas individuales -que podrían llevar a un futuro en el que cada persona disponga de su propio sistema de salud individualizado y a medida, en función de su genética y su fisiología.

Con este sistema, los médicos podrían adquirir en un instante un conocimiento profundo de las necesidades de salud de cada paciente y de todo su historial médico, lo que les permitiría diagnosticar correctamente y con rapidez las enfermedades, ahorrando a los pacientes los efectos secundarios potencialmente letales de medicamentos mal recetados y el desembolso de grandes cantidades de dinero en medicinas.

Junto a los científicos de la Universidad de Manchester trabaja un consorcio compuesto por más de 25 instituciones académicas y socios industriales con experiencia en las TICS, las ciencias biológicas, la salud pública y la medicina. Conforme ha ido avanzando el proyecto, se han ido sumando nuevos socios, haciendo de éste uno de los mayores esfuerzos de colaboración desde el programa espacial Apolo.

Modelos y escenarios

El proyecto creará modelos matemáticos usando grandes cantidades de datos relativos al conocimiento que se tiene hasta la fecha de cómo funcionan los seres humanos. Pero no solo eso. También proporcionará escenarios, como por ejemplo, qué le podría suceder a un paciente que toma un determinado medicamento si sale a correr tres veces por semana.

A través de la secuenciación del genoma y la información clínica recogida, el modelo general será capaz de adaptarse a las demandas particulares de salud de cualquier individuo, incluyendo temas como alergias, malformaciones congénitas o sus tratamientos actuales.

El primer objetivo de ITFoM es dar a cada doctor el poder de usar el genoma individual de una persona para estar informado de todas las etapas del desarrollo de la enfermedad, a través del diagnóstico, el tratamiento y su seguimiento.

Pero para que esto se haga realidad, deben materializarse una gran cantidad de innovaciones relacionadas con las TIC en las que ya se están trabajando, como nuevas técnicas para una rápida adquisición y evaluación de los datos de los pacientes, para almacenar y procesar datos dinámicos en tiempo real en los modelos matemáticos que se corresponden con los pacientes reales o para desarrollar nuevos sistemas de aprendizaje, predicción e información, entre otros. Todo esto sería necesario para proporcionar a los profesionales sanitarios y los pacientes unos conocimientos sin precedentes en materia de salud y tratamiento.

El papel de la informática en la salud

"Hacer que la medicina personalizada sea una realidad requiere avances fundamentales en las ciencias computacionales", señala Hans Westerhoff, el director de la parte del trabajo asignada a la Universidad de Manchester. De hecho, el programa ITFoM surgió de la creencia de que, si bien la información y la informática juegan un papel importante en muchas áreas científicas comerciales, aún no se ha tenido en cuenta su potencial para revolucionar la medicina.

El profesor Hans Westerhoff cree que los modelos informáticos cambiarán fundamentalmente la forma en la que se proporciona la atención médica. "El sistema promete ser único e innovador, porque la gente podría acceder a su propio modelo de salud. ITFoM facilitará modelos generales de la persona humana en su conjunto, que se utilizarán tanto para llevar a cabo una prevención personalizada y unas determinadas pautas terapéuticas, como para identificar los efectos secundarios de los medicamentos. Los modelos estarán allí para ayudar a diagnosticar un problema particular y aportar soluciones", afirma.

"Esta es la primera vez que sistemas basados en tecnologías de la información que persiguen la atención individual se combinan con las necesidades de la genómica y la medicina", concluye Hans Westerhoff en el comunicado que ha hecho público su Universidad.

Fuente: laflecha.net

jueves, 21 de julio de 2011

El 80% de los datos climáticos mundiales no están digitalizados

Para conocer y afrontar mejor variaciones en el clima como las producidas por el calentamiento global hace falta saber qué ocurrió en el pasado más reciente. Así lo refleja una investigación liderada por la Universidad Rovira i Virgili (URV) que revela que en la actualidad, la comunidad científica solo puede acceder y analizar un 20% de la información registrada sobre el clima. El resto de los datos climáticos no se encuentran accesibles en formato digital.

En Europa existen datos climáticos que se remontan al siglo XVII pero "ni siquiera un 20% de la información registrada en el pasado está disponible para la comunidad científica", asegura Manola Brunet, autora principal del estudio e investigadora del Centro para el Cambio Climático en la URV.

Esta situación se agrava en continentes como África o Sudamérica donde la observación meteorológica no comenzó hasta mediados del siglo XIX. Así lo revela un estudio publicado en Climate Research, que pone de manifiesto la necesidad de la recuperación urgente de toda la información registrada en soportes perecederos.

"No descifrar los mensajes que encierran los registros climáticos del pasado conllevará perjuicios socioeconómicos, ya que seremos incapaces de afrontar los impactos actuales y futuros asociados al cambio climático y a un mundo más cálido", afirma Brunet.

España, junto a EE UU, Canadá, Holanda y Noruega, forma parte del reducido grupo de países que permite un acceso parcial a los datos históricos del clima. El resto del mundo no pone estos datos a disposición de la comunidad científica o del público general, a pesar de las recomendaciones de la Organización Meterológica Mundial (WMO, por sus siglas en inglés).

Para superar las trabas políticas y legales que representa la reducida accesibilidad actual, "los gobiernos, en el seno de la Organización de las Naciones Unidas, deberían adoptar una resolución que contemplara abrir los datos históricos del clima", sugiere la investigadora.

Prediciendo olas de calor

Los servicios meteorológicos de todos los países se enfrentan a la tarea titánica de digitalizar toda la información climática histórica, registrada en papel y almacenada en archivos, bibliotecas y centros de investigación. Esta disparidad de soportes dificulta la accesibilidad, como también lo hace la finalidad con la que fue creado el propio servicio meteorológico.

"El objetivo principal ha sido operativo para ofrecer un servicio meteorológico a la sociedad, que quiere saber el tiempo que hará mañana", explica Brunet. En este sentido, la ciencia del clima (que estudia el conjunto de condiciones atmosféricas que caracterizan una región, no la predicción meteorológica) se ha convertido en la gran 'damnificada', al contar con menos recursos económicos que permitan digitalizar los datos, desarrollarlos y homogeneizarlos.

No obstante, en algunos países europeos, EE UU y Canadá, los servicios climáticos sí tienen un papel destacado. Gracias a ellos se explicaron y se pusieron en contexto la ola de calor del pasado verano en el este de Europa y las elevadas temperaturas que se registraron en el viejo continente en 2003.

"Si contáramos con todos los datos históricos registrados, podríamos evaluar con mayor fiabilidad con qué frecuencia pueden ocurrir estos fenómenos en el futuro", mantiene la experta.

Este tipo de información despierta un interés científico, social y también económico ya que, por ejemplo, las compañías aseguradoras fijan sus primas en función de los cambios que se esperan del clima. También los municipios y los gobiernos "quieren conocer las condiciones climáticas y sus futuros cambios para mejorar la ordenación territorial y evitar la urbanización de áreas susceptibles a sufrir inundaciones", concluye Brunet.

Fuente: laflecha.net

lunes, 18 de julio de 2011

Nuevo tratamiento con células madre podría detener la ceguera

Los tratamientos médicos con células madre están entrando ahora al campo de la oftalmología. Dos pacientes que se encontraban perdiendo la vista producto de una degeneració macular asociada a la edad (DMAE), acaban de iniciar un tratamiento en California donde se les implantó en sus ojos células retinales desarrolladas en laboratorio.

La base de dichas células de retina es precisamente de células madre embrionarias y a lo que apuntan es a reemplazar las células epiteliales de pigmentación de la retina que, son destruidas por la DMAE. Dicha destrucción celular produce la muerte de los fotoreceptores, lo que eventualmente deriva en una ceguera.

El tratamiento se implanta directamente en la retina y los médicos apuestan a que las células se arraiguen y detengan el proceso degenerativo. De funcionar, sería la confirmación de un paso gigantesco, porque se trata de la principal causa de ceguera en la gente de avanzada edad.

Fuente: laflecha.net

lunes, 11 de julio de 2011

Descubren que muchas plantas liberan sus semillas de una forma artística

Un equipo de investigadores alemanes ha descubierto que muchas plantas liberan sus semillas de una forma que se podría considerar muy artística. El descubrimiento lo lograron científicos del Instituto Max Planck de Coloides e Interfaces de Potsdam y la Universidad Técnica de Dresde (ambos en Alemania) tras una investigación exhaustiva del mecanismo de apertura de las plantas

El equipo expuso mediante un artículo publicado en la revista Nature Communications que cuando las cápsulas de semillas como las de la planta de los hielos Delosperma nakurense se humedecen por la lluvia, pliegan la parte que tapa los compartimentos de semillas de forma muy similar a una pieza de papiroflexia móvil. Estas tapas se abren debido a que las células que contienen, con forma de panal de miel, absorben agua y modifican su estructura.

Este proceso garantiza que las semillas de la planta, que crece en regiones muy áridas, tengan muchas posibilidades de germinar. Los investigadores se proponen utilizar este modelo para desarrollar materiales que se muevan al humedecerse o cuando cambie la temperatura.

El equipo científico descubrió que las tapas de las cápsulas donde se almacenan las semillas se despliegan girando sobre una especie de bisagra cuando se humedecen y que una vez secas vuelven a cerrarse. Esto también cambia la curvatura de las tapas, ya que las válvulas sellan herméticamente los compartimentos de las semillas cuando las condiciones ambientales son secas. La curvatura también previene que el sello se abra de manera fortuita. «Es un mecanismo de plegamiento coordinado en dos direcciones que ya conocemos de la práctica de la papiroflexia móvil», explicó Matthew Harrington, investigador principal del estudio.

Las cinco tapas de la cápsula de las semillas se deforman gracias a su compleja estructura y a una ingeniosa combinación de propiedades de distintos materiales biológicos.

Las tapas poseen forma triangular. En su estado abierto la cápsula de semillas presenta una forma de estrella de cinco puntas. En uno de los costados tiene un tejido que se hincha con facilidad y que apunta hacia abajo en su forma cerrada, mientras que cuando se abre apunta hacia arriba. El tejido se divide en dos mitades y cubre las tapas abiertas, cuando la cápsula está húmeda, desde el interior hacia el exterior. Las dos mitades se cierran a continuación hasta formar una pequeña cresta. En condiciones secas una escisión separa las dos mitades del tejido. En el estado seco las paredes de separación de los cincos compartimentos de semillas se encuentran en estas escisiones, lo que garantiza que los compartimentos estén sellados herméticamente.

Cuando se abre la tapa se deforma sobre todo en la zona en la que está unida a la cápsula, por lo que funciona como una bisagra. No obstante, el equipo sólo descubrió el mecanismo de apertura cuando estudió con detenimiento la estructura del tejido inflamable. Consiste en células prácticamente hexagonales que se abren hacia arriba y conforman un entramado semejante a un panal.

Los descubrimientos realizados en esta investigación también tienen implicaciones para proyectos futuros en distintos campos. «El mecanismo es interesante por sus aplicaciones técnicas, debido a que la energía del movimiento dirigido ya está almacenada en el material», explicó Peter Fratzl.

El equipo estudiará ahora cómo aplicar estos conocimientos en biomedicina o arquitectura. El principio también puede transferirse a materiales que se expandan o contraigan de distintas formas cuando cambia la temperatura, por ejemplo un toldo que se despliegue por sí mismo sobre un patio cuando la temperatura sea incómodamente alta.

Fuente: laflecha.net

miércoles, 15 de junio de 2011

Encuentran enormes agujeros negros gemelos dentro de una galaxia

Una galaxia conocida por tener un descomunal agujero negro en su núcleo, en realidad es hogar de dos de estos gigantes cósmicos, según revela un nuevo estudio. Los astrónomos descubrieron el segundo agujero negro en el centro de la galaxia Markarian 739, que está aproximadamente a 435 millones de años luz de la Tierra, hacia la constelación de Leo. Su presencia se reveló en las observaciones del satélite Swift de la NASA y el Observatorio de Rayos-X Chandra.


Agujeros negros supermasivos gemelos

Ambos agujeros negros son intensamente activos y se clasifican como "supermasivos", es decir, que cada uno tiene una asombrosa masa equivalente a millones - o miles de millones - de veces la de nuestro Sol. Los agujeros negros estelares, formados por el colapso de estrellas masivas, normalmente tienen hasta 10 ó 20 veces la masa del Sol.

"En el corazón de la mayoría de galaxias, incluyendo nuestra propia Vía Láctea, hay un agujero negro supermasivo con una masa de millones de veces la del Sol", dice el autor principal del estudio Michael Koss, investigador en el Centro de Vuelo Espacial Goddard de la NASA, y la Universidad de Maryland en College Park, en un comunicado. "Algunos de ellos irradian miles de millones de veces la energía del Sol".

Aunque los agujeros negros supermasivos son relativamente comunes en el núcleo de las galaxias, no todos irradian energía, lo que los astrónomos conocen como AGN (Núcleo Galáctico Activo).

Por lo que es raro encontrar un agujero negro activo enorme, mucho menos dos, en la misma galaxia, dicen los investigadores.

Cuando colisionan las galaxias

Los astrónomos sospechan que la configuración binaria de agujeros negros supermasivos puede ocurrir cuando las galaxias colisionan.

"Si dos galaxias colisionan y cada una posee un agujero negro supermasivo, debería haber momentos en los que ambos agujeros negros se enciendan como AGN", dice el coautor del estudio Richard Mushotzky, también de la Universidad de Maryland en College Park.

Los astrónomos descubrieron el agujero negro dual en el corazón de Markarian 739 usando el Telescopio de Alerta de Estallidos del satélite Swift de la NASA, el cual cartografía fuentes intensas de emisiones de rayos-X en el cielo, buscando potenciales núcleos galácticos activos. Los investigadores pueden entonces centrarse en candidatos potenciales con el Observatorio de Rayos-X Chandra.

El segundo agujero negro de Markarian 739 era invisible en el ultravioleta, en el espectro visible y rangos de radio del espectro electromagnético, por lo que permaneció oculto hasta este nuevo estudio, comentan los investigadores. Los hallazgos se detallan en una próxima edición de la revista The Astrophysical Journal Letters.

Los dos gigantescos agujeros negros en el centro de Markarian 739, que también se conoce por el nombre de NGC 3758, no son los primeros agujeros negros gemelos vistos por los astrónomos, y tampoco los más cercanos. Ambos récords los ostenta la galaxia NGC 6240, una galaxia que está a unos 330 millones de años luz de la Tierra.

Fuente: laflecha.net

miércoles, 4 de mayo de 2011

Identifican un gen responsable de una alteración genética de la mielina

Los trastornos de la materia blanca, también llamada mielina, engloban un gran grupo de enfermedades que afectan a esta sustancia. En la edad infantil, suelen ser enfermedades de carácter genético y es frecuente que no estén diagnosticadas. Ahora, un equipo de investigadores encabezado por Raúl Estévez, profesor del Departamento de Ciencias Fisiológicas II en el campus Ciencias de la Salud de Bellvitge de la UB, en colaboración con la investigadora Marjo van der Knaap, del Centro Médico Universitario de la Universidad Libre de Ámsterdam, han identificado el gen GLIALCAM como el responsable del 25 % de casos de la leucoencefalopatía megalencefálica con quistes subcorticales (MLC), una enfermedad rara de origen genético que afecta a la mielina del cerebro.



En este estudio, publicado y seleccionado como artículo destacado en la revista del grupo Cell The American Journal of Human Genetics, también han participado Tania López-Hernández, coautora principal y becaria predoctoral de la UB, así como los investigadores Albert Martínez, del Instituto de Investigación Biomédica (IRB Barcelona), y Virginia Nunes, profesora de la UB e investigadora del Instituto de Investigación Biomédica de Bellvitge (IDIBELL), entre otros.
La mielina es necesaria para que se propaguen correctamente los impulsos nerviosos entre neuronas y para que se ejecuten las órdenes del cerebro que hacen posible el movimiento. En la edad infantil, estas enfermedades suelen ser genéticas y afectan a un único gen. En la edad adulta, son enfermedades de tipo inflamatorio, como la esclerosis múltiple. "En el caso concreto de las enfermedades infantiles, cada una en particular es rara o muy rara, pero si se consideran todas como un grupo, entonces, la incidencia es alta, de un afectado por cada mil individuos", explica Raúl Estévez, premio ICREA Academia y miembro del Centro de Investigación Biomédica en Red de Enfermedades Raras (CIBERER). "Por otra parte -añade el experto-, en un porcentaje muy elevado de los niños con afectación de la mielina, el diagnóstico no es claro y no se puede llegar a ninguna conclusión".



En los últimos años, gracias a la aplicación de patrones de anormalidades en las imágenes de resonancia magnética del cerebro, se han ido definiendo nuevas enfermedades. Así, en 1995 se identificó una enfermedad de la mielina con herencia autosómica recesiva llamada leucoencefalopatía megalencefálica con quistes subcorticales (MLC). En 2001, se descubrió que el gen responsable del 75 % de los casos de esta enfermedad es el llamado MLC1 y, al mismo tiempo, se vio que existían otros casos que no se podían explicar por mutaciones de este gen. En el 25 % restante, se observaron dos fenotipos clínicos: en uno de ellos, el curso clínico, con degeneración progresiva, es el mismo que el del grupo mayoritario; en el otro, en cambio, la enfermedad mejora o desaparece. El denominador común en estos pacientes es la presencia de macrocefalia, que se puede presentar con autismo y dificultad para el aprendizaje.


El estudio publicado en la revista The American Journal of Human Genetics parte de la heterogeneidad de la enfermedad para buscar otros genes responsables de esta mutación. Para identificarlos, se han combinado estudios bioquímicos con estudios genéticos y los resultados demuestran que los pacientes con degeneración progresiva presentan dos mutaciones en el gen GLIALCAM, mientras que los otros tienen una única mutación en este mismo gen, que indica una herencia autosómica dominante. En este mismo estudio, donde también se describen los defectos bioquímicos de la enfermedad, se ha podido determinar que ciertas mutaciones en el GLIALCAM también causan macrocefalia familiar benigna y macrocefalia con retraso mental, con o sin autismo.


"Aunque la función del gen GLIALCAM sigue siendo desconocida, la investigación demuestra que son necesarios trabajos multidisciplinarios colaborativos y translacionales para avanzar en las causas que explican estas enfermedades poco frecuentes y para encontrar nuevas terapias", concluye Estévez.


Fuente: Laflecha.net

viernes, 29 de abril de 2011

Los beneficios antienvejecimiento del aceite de oliva

Un equipo de investigadores del Departamento de Biología Celular, Fisiología e Inmunología de la Universidad de Córdoba ha logrado recientemente ofrecer nuevas pruebas sobre los beneficios saludables del consumo habitual de aceite de oliva virgen. Demostración que ya ha sido aceptada para su publicación en la revista AGE, de gran relevancia en el ámbito de la biogerontología.

En esta ocasión, los científicos de la UCO se han basado en la observación de los cambios en determinadas proteínas usadas como marcadores para poder llegar a los resultados que publicará AGE y que apuntan claramente a la influencia del aceite de oliva virgen en la protección contra la inflamación, el estrés oxidativo y el riesgo cardiovascular propios del envejecimiento.

Los investigadores cordobeses hicieron las pruebas estudiando cómo el aceite de la dieta afecta a las proteínas plasmáticas de ratas jóvenes (6 meses) o viejas (24 meses) alimentadas a lo largo de su vida con dietas que contenían como fuente grasa bien aceite de oliva virgen o aceite de girasol. Emplearon además una estrategia proteómica basada en la separación de proteínas mediante electroforesis bidimensional -técnica muy utilizada en medicina molecular- y posterior identificación mediante espectrometría de masas -técnica que permite analizar con precisión los componentes de las mismas.

De esta forma, el equipo de investigación que dirige el profesor José Manuel Villalba, ha probado que, en comparación con la dieta que contenía aceite de girasol, la dieta enriquecida en aceite de oliva virgen indujo disminuciones significativas en los niveles plasmáticos de las proteínas de fase aguda, justo lo contrario de lo que ocurre en los procesos inflamatorios, así como en proteínas habituales en situaciones de estrés oxidativo, y las relacionadas con la coagulación sanguínea, el riesgo cardiovascular y con el metabolismo y el transporte de lípidos. Entre estas observaciones, los investigadores de la UCO destacan el hecho de el aceite de oliva redujera sensiblemente los niveles de fibrinógeno, uno de los principales marcadores asociados al riesgo cardiovascular, los de T-kininógeno, cuyos niveles incrementan de manera sustancial durante los últimos meses de vida en la rata, los de β2-glicoproteína I, una proteína relacionada con las complicaciones trombóticas en pacientes autoinmunes, y los de la Clusterina, una proteína cuyos niveles se encuentran incrementados en diversos estados patológicos como la aterosclerosis y constituyen un marcador en el desarrollo de la enfermedad de Alzheimer en humanos.

Por otro lado, la dieta enriquecida en aceite de oliva incrementó los niveles de apolipoproteína A-I, una proteína relacionada con la protección contra la arterioesclerosis, y contrarrestó muchos cambios en los niveles de proteínas plasmáticas asociados a la edad.

Fuente: Laflecha.net

viernes, 22 de abril de 2011

Proyecto BREAKING THE CODE

Concretamente, entomólogos de la Escuela de Biociencias de la Universidad de Cardiff (Reino Unido) investigaron el riesgo al que se exponen los cicadélidos y otros insectos de ser devorados vivos cuando emiten vibraciones para atraer a otro ejemplar con el que aparearse. Las arañas depredadoras interceptan esta señal y la aprovechan para localizar a su presa.

En entomología se sabía hace tiempo que las arañas depredadoras se aprovechan de las señales visuales, acústicas y olfativas emitidas por sus víctimas. Este trabajo sirve para profundizar en el conocimiento del comportamiento de dichas arañas, y sugiere que ciertos depredadores como estos poseen la capacidad de detectar señales vibratorias características y de usarlas para detectar a presas. "Las señales vibratorias son una forma muy extendida de comunicación sexual entre animales", explicaron la Dra. Meta Virant-Doberlet, del Departamento de Entomología del Instituto Nacional de Biología de Eslovenia, y el profesor William Symondson de la Escuela de Biociencias de Cardiff. "Observando este comportamiento nos percatamos por primera vez de que las arañas son capaces de valerse de las señales de comunicación vibratoria de tipo sexual como medio para localizar a presas", señalan los autores en el artículo. Los investigadores examinaron el comportamiento de la Enoplognatha ovata, una especie de araña emparentada con la famosa Viuda Negra que, pese a su reducido tamaño, constituye un depredador formidable capaz de aniquilar a insectos varias veces superiores en tamaño. Observaron que cuando se reproducían grabaciones de señales vibratorias emitidas por cicadélidos macho, estas arañas interceptaban la señal y salían en busca de alimento.

Además señalaron que las arañas preferían los machos a las hembras. En su opinión, a los machos les perjudica el hecho de emitir señales más complejas y audibles para aparearse. El uso de señales vibratorias no es una característica excepcional en el mundo animal, pero ésta sí que es la primera vez que se consigue demostrar que unos depredadores se aprovechan de las señales de este tipo emitidas por sus presas para encontrarlas y darles caza. Según los autores, este descubrimiento suscitará interés y podría inaugurar un nuevo campo de estudio. "Los depredadores han evolucionado hasta aprender a interceptar las señales de sus presas, pero hasta ahora se creía que esta capacidad se limitaba a las formas de comunicación visual, acústica y química", aclararon el profesor Symondson y la Dra. Virant-Doberlet. "Este hallazgo pone de relieve una estrategia desconocida hasta ahora para la localización de presas, y también un factor pasado por alto y determinante en la evolución de los depredadores y de sus presas", añaden.

Supone un avance científico muy significativo que inaugura todo un campo nuevo. Las señales vibratorias son muy comunes entre los invertebrados y es muy probable que numerosos depredadores hayan evolucionado hasta desarrollar la capacidad de aprovecharlas. Los investigadores recalcan que el empleo de este mecanismo para localizar a presas podría constituir un factor pasado por alto y muy determinante en la evolución tanto de los depredadores como de sus presas.

Fuente: laflecha.net

jueves, 21 de abril de 2011

Proyecto MODELLING

En colaboración con los profesores Jeremy Harvey y Adrian Mulholland de la Facultad de Química de la Universidad de Bristol (Reino Unido), la Dra. Julianna Oláh, becada por el programa Marie Curie, estudió un tipo de enzimas denominadas citocromos P450. Expertos en la materia indican que estas enzimas participan en la eliminación de moléculas farmacológicas del organismo.


Cuando un paciente consume una pastilla, el torrente sanguíneo absorbe las moléculas activas a través del intestino y las trasporta por todo el organismo hasta que alcanzan las células objetivo. No obstante, estas moléculas no permanecen en el organismo para siempre. Existen enzimas que contribuyen a la descomposición de las moléculas activas para lograr su expulsión mediante lo que se podría definir como una limpieza del proceso.


Los citocromos P450 son enzimas de este tipo. Su evolución les ha capacitado para tratar todos los compuestos extraños al organismo que el metabolismo normal no logra descomponer, como proteínas, lípidos o carbohidratos.


El equipo informó que las enzimas P450 se encuentran sobre todo en el hígado y contribuyen a la eliminación de moléculas farmacológicas mediante la adición de oxígeno a las mismas. Aunque el proceso suele funcionar sin problemas en la mayoría de las situaciones, algunas moléculas devienen en variantes oxigenadas tóxicas. La función normal de las enzimas P450 también puede verse afectada por otro tipo de moléculas.


Es básico conocer mejor la reacción de cada molécula ante esta enzima, y con este propósito el equipo de Bristol ha modelado los mecanismos reactivos que motivan la interacción entre un fármaco concreto (dextrometorfano) y una variante P450.


"Nuestros cálculos mostraron que el resultado del proceso de transferencia de oxígeno (a qué parte del dextrometorfano se le añade oxígeno) viene determinado por tres factores", indicó el profesor Harvey. El primero es la forma en la que la molécula se une a la enzima ("acoplamiento"). El segundo es la capacidad intrínseca de cada parte de la molécula para aceptar oxígeno. "El tercero es el grado de compatibilidad entre cada proceso de administración de oxígeno con la forma del bolsillo ("pocket") de la enzima en el que se produce la reacción", añadió.


Los dos primeros factores se conocían, pero el tercero es nuevo. Este descubrimiento puede servir para que los químicos dedicados a la farmacéutica puedan diseñar nuevas moléculas farmacológicas con un conocimiento más preciso de su posterior descomposición en el organismo.


Fuente: laflecha.net

miércoles, 20 de abril de 2011

Ingerir bebidas alcholicas también provoca cáncer

El estudio, que emplea datos obtenidos de Dinamarca, Alemania, Grecia, España, Francia, Italia, Países Bajos y Reino Unido, indica que una parte importante de los cánceres achacables al alcohol (entre el 40 y el 98%) se produjeron en individuos que consumían más de la cantidad diaria recomendada de dos unidades para los hombres y una para las mujeres.


"Nuestros datos muestran que muchos casos de cáncer podrían haberse evitado si el consumo de alcohol se hubiese limitado a dos unidades alcohólicas al día en hombres y a una en mujeres, tal y como recomiendan muchas organizaciones sanitarias", indicó Madlen Schütze, epidemióloga del Instituto Alemán de Nutrición Humana de Potsdam-Rehbruecke y autora principal del estudio.


"Se podrían incluso prevenir más casos de cáncer si se redujera el consumo de alcohol por debajo de las directrices recomendadas e incluso si no se consumiera en absoluto".


En Europa el 6,5% de las muertes son a consecuencia de enfermedades crónicas provocadas por el consumo de alcohol. La Agencia Internacional de Investigación del Cáncer (IARC) indica que los cánceres normalmente asociados al alcohol son de boca, faringe, laringe, esófago e hígado. En 2007 se añadieron a esta lista el cáncer de pecho femenino y el colorrectal.


Los datos del estudio se obtuvieron mediante estimaciones de riesgo del estudio EPIC («Estudio prospectivo europeo sobre cáncer, enfermedades crónicas, nutrición y estilo de vida») y datos representativos sobre consumo de alcohol recopilados por la Organización Mundial de la Salud (OMS).


En el estudio EPIC se evaluó de 1992 a 2000 la incidencia de cáncer en 363.988 hombres y mujeres de entre 35 y 70 años al comienzo del estudio. Su consumo de alcohol se midió mediante cuestionarios detallados sobre alimentación y estilo de vida y sobre la cantidad, frecuencia y tipo de bebida que consumieron los sujetos en distintos momentos de su vida además de su consumo actual.


Gracias al estudio se calculó que el consumo en hombres en 2008 y en años anteriores había provocado cerca de 57.600 casos de cáncer en el tracto aerodigestivo superior, colorrectal y de hígado en Dinamarca, Alemania, Grecia, España, Italia y Reino Unido. De todos estos casos, 33.000 se produjeron por consumir más de dos unidades alcohólicas al día. En ocho de los países, el consumo de alcohol en mujeres provocó 21.500 casos de cáncer del tracto aerodigestivo superior, hígado, colorrectal y de pecho, de los cuales más del 80% (17.400) se debió al consumo de más de una unidad de cerveza, vino o licor al día.


Este estudio avanza en la investigación de la relación entre el alcohol y el cáncer mediante el análisis de datos sobre la cantidad de alcohol consumido y la proporción de casos provocados por un consumo de alcohol superior al máximo recomendado.


Hasta ahora la recomendación de reducir el consumo de alcohol a dos unidades al día en hombres y a una en mujeres para reducir la incidencia de cáncer se basaba en suposiciones. Las medidas cuantitativas realizadas en este estudio, tanto relativas (proporción atribuible al alcohol) como absolutas (casos totales de cáncer) acerca de la responsabilidad del consumo de alcohol por encima de la cantidad máxima recomendada, muestran que dicha relación existe. El estudio también ha abierto nuevos horizontes gracias al análisis del consumo de alcohol en el pasado.


Los descubrimientos inciden en la necesidad de reducir el consumo de alcohol en Europa y los autores indican que estos hallazgos deberían tener un reflejo en las futuras políticas sanitarias europeas.


Fuente: laflecha.com

martes, 19 de abril de 2011

China pretende producir 90 millones de kilovatios con energía eólica en 2015

Según la fuente, China Grid presentó las cifras en el primer libro blanco de una empresa sobre el desarrollo de la energía eólica en el país, lo que hizo, dijo, por responsabilidad social y para impulsar el desarrollo del sector.


El mercado de energía generada por el viento se encuentra fundamentalmente en el nordeste, este y centro de China, donde se deben impulsar las infraestructuras, recoge el libro blanco, que pide también incrementar las líneas de transmisión.

La instalación eólica de China se duplicó en el último lustro y se situó en 40 millones de kilovatios en 2010 y la capacidad instalada conectada a la red supera los 30 millones de kilovatios, según el libro blanco.


Según la Asociación de Energía Eólica de China, hasta finales de 2010 se instalaron turbinas para 44.7 gigavatios, pero casi el 34 por ciento de las turbinas no estaban conectadas.


Fuente: laflecha.net

lunes, 18 de abril de 2011

Los hidrocarburos pueden formarse a profundidades insospechadas

Los hidrocarburos pueden formarse a profundidades insospechadas hasta hoy, en torno a los casi 113 mil metros debajo de la superficie de la Tierra. Así lo establece una investigación de especialistas de la UC Davis, del Lawrence Livermore National Laboratory y la firma Shell, que indica que la generación de hidrocarburos se concretaría a partir de metano, en el marco de presiones y temperaturas de carácter extremo.


El estudio desarrollado ha sido publicado recientemente en Proceedings of the National Academy of Sciences (PNAS), y también a través de una nota de prensa emitida por el Lawrence Livermore National Laboratory.


La investigación, aunque no avanza sobre la posibilidad o no de recuperar estos hidrocarburos generados a partir de metano a grandes profundidades, resulta de suma utilidad para proporcionar una base que permita entender en mayor medida los procesos de polimerización de metano para formar hidrocarburos, así como las reacciones de estos elementos frente a distintos escenarios en cuanto a presiones y temperaturas.


Asimismo, el conocimiento de las propiedades termodinámicas y cinéticas de los hidrocarburos a altas presiones y temperaturas es importante para la comprensión de los flujos de carbono en la Tierra. El equipo de trabajo incluyó a especialistas de la UC Davis, Lawrence Livermore National Laboratory y Shell.


Nuevo enfoque de investigación Giulia Galli, una de las responsables de la investigación, afirma en el comunicado mencionado que la formación de hidrocarburos a estas profundidades podría ocurrir en algunos entornos geológicos, como fisuras o zonas de subducción.


Sin duda, este descubrimiento podría provocar un fuerte impacto en el área de las investigaciones sobre hidrocarburos.


Vale recordar que los geólogos y geoquímicos creen que más del 99% de los hidrocarburos que actualmente se emplean comercialmente con fines energéticos se forman por la descomposición de los restos de organismos vivos, que fueron enterrados bajo capas de sedimentos en la corteza terrestre, a un máximo de 16 kilómetros debajo de la superficie de la Tierra.


Sin embargo, los hidrocarburos formados a mayores profundidades podrían generarse solamente mediante fenómenos químicos. El estudio de simulación desarrollado por los ingenieros e investigadores de la UC Davis, el Lawrence Livermore National Laboratory y Shell demuestra que el metano podría propiciar estas condiciones al exponerse a las altas temperaturas y presiones existentes en esos niveles de profundidad.


Galli y su equipo utilizaron un avanzado sistema informático para simular el comportamiento de los átomos de carbono e hidrógeno sometidos a enormes presiones y temperaturas, que se encuentran en profundidades de entre 64 y 153 kilómetros debajo de la superficie terrestre. Condiciones específicas.


Para avanzar en esta investigación se utilizaron técnicas sofisticadas basadas en los principios básicos y el software del sistema Qbox, desarrollado en UC Davis. El trabajo de los especialistas permitió determinar que los hidrocarburos pueden formarse a partir del metano bajo determinadas condiciones.


Los hidrocarburos poseen múltiples átomos de carbono, pero podrían generarse mediante el metano, que posee un único átomo de carbono y cuatro átomos de hidrógeno, a temperaturas superiores a los 2.240 grados Fahrenheit y presiones 50.000 veces mayores a las registradas en la superficie de la Tierra.


Estas condiciones se encuentran a unos 113 kilómetros debajo de la superficie terrestre. Vale destacar que en las simulaciones realizadas, las interacciones con superficies metálicas o de carbono permitieron que el proceso se produjera más rápidamente, ya que las mismas actúan como catalizadores.


Como se mencionó anteriormente, el estudio no avanza en cuanto a la posible recuperación de estos hidrocarburos, a través de tecnologías a desarrollarse en el futuro. Sin embargo, plantea que podría propiciarse la formación de hidrocarburos a temperaturas y presiones muy altas a través de mecanismos microscópicos, generando condiciones similares a las que se observan a grandes profundidades.


Fuente: laflecha.net

viernes, 15 de abril de 2011

Proyecto PRIOMEDCHILD

Tanto padres como médicos desean lo mejor para los niños y para convertir este deseo en realidad se ha creado la iniciativa PRIOMEDCHILD («Coordinación de la investigación sobre medicinas prioritarias infantiles»), una Acción Coordinada perteneciente al Sexto Programa Marco (6PM) de la Unión Europea. PRIOMEDCHILD, dotada de más de 1,7 millones de euros, creó una plataforma europea que pretende fomentar la investigación, el desarrollo y la innovación de medicinas pediátricas, para lo cual financia, coordina y pone en contacto programas nacionales e investigadores de toda Europa, acaba de publicar una convocatoria conjunta por valor de 8 millones de euros.

El equipo de PRIOMEDCHILD, compuesto por expertos de Estonia, España, Francia, Italia, Letonia, Hungría, Países Bajos, Polonia, Finlandia, Suecia y Reino Unido, se dedicó a fomentar y racionalizar actividades nacionales y a alentar y facilitar la cooperación paneuropea tanto en el sector público como en el privado. En última instancia se pretende desarrollar programas públicos de investigación dedicados a la salud pública que tiendan puentes entre investigación e industria.


Valiéndose de investigaciones realizadas en el campo de los fármacos para la población infantil, los socios de PRIOMEDCHILD reunieron y coordinaron a gestores de programas nacionales para que colaboraran en pos de un objetivo común europeo consistente en la puesta en marcha de un programa conjunto de investigación sobre medicinas para niños.


Los tres pilares sobre los que se apoya la actividad son enfermedades transmisibles, tratamientos para grupos de pacientes específicos y enfermedades raras. En concreto, las enfermedades transmisibles provocadas por agentes infecciosos son una de las cargas más onerosas para los sistemas sanitarios públicos y se consideran la principal causa de muerte en los países en vías de desarrollo. Es indispensable que los investigadores adopten medidas dedicadas a combatir enfermedades emergentes y patógenos que hayan desarrollado resistencia a vacunas o antibióticos. Otros problemas a tratar son la lucha contra las enfermedades crónicas como la enfermedad cardiaca, la diabetes y la depresión.


Mediante una convocatoria internacional publicada en 2010 se concedió a científicos europeos financiación para la realización de investigaciones conjuntas dedicadas a dos temas: desarrollo o empleo de metodologías innovadoras en investigación de fármacos para niños, e innovación en formulaciones pediátricas y sistemas de administración de fármacos.


En respuesta a aquella convocatoria conjunta, cerrada el 7 de enero de 2011, se recibieron 22 proyectos de propuestas. Los 22 consorcios estaban formados por 110 grupos científicos de 12 países. Los revisores que formaron parte de la Junta de Asesoría Científica evaluaron las propuestas completas y realizaron una lista de proyectos financiables: MRD-FLOW-ALL («Evaluación de la efectividad de tratamientos para la leucemia linfoblástica aguda infantil a través de la vigilancia de la enfermedad mínima residual mediante citometría de flujo de ocho colores»); CRESIM («Enfermedad rara: empleo de simulación de ensayos clínicos para la elección y optimización del diseño de estudios») ; ESNEE («Estudio europeo sobre exposición de neonatos a excipientes»); RADICEA («Fármacos nuevos para enfermedades raras: modelización rentable de síndromes periódicos asociados a criopirina») ; DCD-CANC-CHILD («Diseño de portadores de fármacos y control de la administración para terapias de cáncer en niños»); y NEUROGENMRI («Validación de técnicas de imagen no invasivas del sistema serotonérgico y dopaminérgico y neurogénesis adulta mediante IMR: hacia un mejor conocimiento de los mecanismos neurobiológicos subyacentes a los trastornos psiquiátricos en la población pediátrica») .


Esta Acción Coordinada se basa en la ERA-NET SSA Medicinas Prioritarias y los resultados del estudio de la OMS «Medicinas prioritarias para los ciudadanos de Europa y del mundo». Durante el 6PM el proyecto recibió dos subvenciones financiadas con fondos de la UE por valor de 1,8 millones de euros.


El programa ERA-NET, introducido como un elemento de gran innovación en el 6PM (2002-2006), sigue colaborando en la construcción del Espacio Europeo de Investigación y aumentando la magnitud de los trabajos científicos europeos mediante el 7PM (2007-2013).


Fuente: Laflecha.net

Archivo del blog